Gra w inteligencję

Gry komputerowe, które niedawno traktowano jako kolejną zabawkę, dziś są nie tylko wielomiliardowym przemysłem rozrywkowym, ale zyskują na znaczeniu jako platforma do rozwoju oprogramowania gospodarczego czy badań nad sztuczną inteligencją.

Gry komputerowe, które niedawno traktowano jako kolejną zabawkę, dziś są nie tylko wielomiliardowym przemysłem rozrywkowym, ale zyskują na znaczeniu jako platforma do rozwoju oprogramowania gospodarczego czy badań nad sztuczną inteligencją.

W początkach rozwoju informatyki, a nawet w czasach pierwszych PC, komputer uchodził za narzędzie, które sprzyja zainteresowaniom matematycznym. Teraz pojawiają się opinie, że to należy już do przeszłości. W końcu, multimedialny terminal internetowy, jakim stał się dzisiaj komputer, służy nie tylko do precyzyjnego i logicznego pisania programów, ale i do oglądania filmów, słuchania muzyki czy do gier komputerowych.

Faktycznie, duża maszyna cyfrowa w klasycznym ośrodku obliczeniowym była znacznie mniej "rozrywkowa". Chętni do zabawy z nią sami musieli pisać programiki typu "hangman" czy "mastermind", względnie trudzić się składaniem znakowego wydruku choinek czy głów popularnych postaci. Takie łamigłówki mogły być rodzajem gimnastyki umysłowej, ale czy dziś faktycznie brakuje jej w kontaktach z komputerem osobistym?

To prawda, że prostacka "nawalanka", uprawiana godzinami aż do przegrzania myszy czy dżojstika, niewiele mądrego może nauczyć. Nie wszystkie gry są jednak takie. Sam charakter medium nie decyduje o treści i wartości jego przekazu. W świecie papieru są znakomite dzieła literackie i grafomańskie knoty. Możemy zachwycać się arcydziełami sztuki filmowej, bądź ekscytować się oglądanymi na ekranie mięśniakami, tarzającymi się w hektolitrach keczupu. Nie inaczej jest w świecie oprogramowania. Wybór należy do nas i na szczęście jest on niemały.

Wielka gra

Rozwój gier komputerowych, które coraz lepiej symulują rzeczywistość, może też z czasem zaowocować przekształceniem ich w systemy o bezpośrednich zastosowaniach praktycznych. Przykładowo: problem planowania zakupów w przedsiębiorstwie może być postrzegany jako rodzaj gry, której celem jest optymalizacja poziomu zasobów i ich wykorzystania. Planista ma tu do wykonania zadanie podobne do tego, jakie stoi przed graczem, który również musi planować swoje działania i robi to na różnych poziomach - strategicznym (główny cel gry), taktycznym (cele cząstkowe) i operacyjnym (akcje w czasie rzeczywistym).

Nawet jeśli założyć, że komputerowy gracz nie jest zainteresowany "inteligentną" grą, to owe inteligentne cechy i tak muszą zostać "zaszyte" w samej grze, tzn. w sztucznej inteligencji głównych czy pomocniczych postaci w niej występujących. W programie użytkowym, wspomagającym planowanie w przedsiębiorstwie, komputerowymi partnerami gracza-planisty będą profile opisujące w kategoriach informatycznych innych pracowników firmy, a rolę "wrogów" przejmą stosowne charakterystyki informacyjne dotyczące konkurencji, dostawców, zakłóceń czy ograniczeń świata rzeczywistego (zasoby finansowe, czas dostaw, priorytety zleceń).

Dziś programy, o których mowa (np. moduły pakietów ERP), są w sferze interfejsu użytkownika równie ubogie jak pierwsze gry komputerowe. Dodajmy, że historia gier komputerowych jest niemal tak stara jak komputery. Pierwsza z nich (kółko i krzyżyk) powstała już w roku 1952 i napisana została dla legendarnego EDSAC-a (Electronic Delay Storage Automatic Computer, 1949 r.). Dopiero jednak pojawienie się automatów typu PONG (Atari 1972 r.) szerzej pokazało możliwości zastosowania "maszyn matematycznych" dla tego typu rozrywki. Kropkę nad "i" postawił rozwój komputerów osobistych, a gry typu PACMAN (1980 r.) zaczęły trafiać pod strzechy.

Inteligentna niedoskonałość

Inteligencja programów informatyki gospodarczej może być więc wysoka na poziomie algorytmicznych heurystyk, ale prezentowane są one w sposób całkowicie zdehumanizowany, wręcz maszynowy - za pomocą szeregów liczb, tabelek czy w najlepszym przypadku statycznej grafiki. Podobnie jest z ważnym działem matematyki, jakim jest teoria gier. Tu również modele rzeczywistości ograniczają się głównie do układów równań, co może stanowić jedynie punkt wyjścia dla pełniejszego odwzorowania rzeczywistego świata.

Tymczasem gry komputerowe śmiało operują generatorami dialogów - włącznie z syntezą mowy, zmierzając w trudniejszym kierunku jej analizy. To może być cennym źródłem doświadczeń dla szerszego korzystania z interfejsu głosowego i przetwarzania języka naturalnego w zastosowaniach gospodarczych. Grafika gier komputerowych jest dynamiczna (animacje), a jej celem jest osiągnięcie jak największej wierności w odwzorowywaniu obiektów świata rzeczywistego (wirtualna rzeczywistość).

Jednocześnie podmioty występujące w grze uwzględniają psychologię zachowań ludzkich. Dotyczy to zarówno czasu reakcji komputera (ten mógłby być nienaturalnie szybki), jak i jego zachowań (program brydżowy nie może korzystać w grze z pełnej wiedzy o rozkładzie kart na wszystkich rękach mimo formalnego posiadania takich informacji). Powoduje to, że inteligencja gier komputerowych jest bardziej naturalna, bo obarczona pewnymi elementami niedoskonałości. Oprogramowanie o takich cechach może w pewnych sytuacjach lepiej symulować rzeczywiste procesy gospodarcze niż formalnie sprawniejszy i doskonalszy algorytm.

Siła rozwojowa gier komputerowych wynika także z "budżetu", jakim ta sfera dysponuje. W ciągu 20 lat obroty na tym rynku wzrosły z kilkudziesięciu milionów do klikudziesięciu (ok. 40) miliardów dolarów rocznie, przy czym jedna czwarta przypada na USA. To już oznacza wartość większą niż w przemyśle filmowym. Kolejnym krokiem zwiększającym ten potencjał są mechanizmy reklamowe w samej grze, podobnie jak podczas emisji filmu (ingame advertising). Już w 1995 r. Sony wypuściło na rynek grę reklamującą samochód, którą sprzedano w ponad 2 mln egzemplarzy (Porsche Challenge). Zresztą, na tym nie kończy się wzajemne przenikanie się tych technologii medialnych - filmu i gier komputerowych.

Sylwetki XI muzy

Z jednej strony następuje naturalne implementowanie pomysłów filmowych w grach komputerowych (np. seria z Indianą Jonesem) - naturalne, ponieważ kierunek określany jest od medium starszego do młodszego: podobnie jak ekranizacja wcześniej powstałych dzieł literatury. Jednocześnie obserwujemy fenomen kręcenia filmów w oparciu o gry, np. z Larą Croft (Tomb Raider). W tym jednak przypadku Angelina Jolie wcieliła się tylko w rolę komputerowej bohaterki, co technicznie nie jest niczym szczególnym, bo w filmie występują "sylwetki X muzy", czyli żywi ludzie.

Inaczej było w "Final fantasy" (również inspirowanym grą), gdzie pojawili się aktorzy XI muzy, a więc komputerowo generowane awatary. Ów film faktycznie można uznać za zwiastun "krańcowej fantazji" w dziedzinie techniki filmowej, stającej się na naszych oczach rzeczywistością. Poruszyło to nawet hollywoodzkie związki zawodowe, wyrażające obawy o przyszłość tradycyjnego aktorstwa. Czy słusznie? Owszem, komputerowa bohaterka filmu, Aki Ross, zaczęła się nawet pojawiać na okładkach czasopism typu "plotki o paniach i panach". Trudno byłoby jednak spodziewać się, że plik bitów i bajtów będzie takim samym przedmiotem zainteresowania paparazzich jak żywy aktor, chociaż o prawach jej udziału w innych filmach prowadzono podobne pertraktacje jak w przypadku aktorów konwencjonalnych. Zresztą sam reżyser (o ile to słowo jest jeszcze w tym kontekście na miejscu), Hironobu Sakaguchi, przyznał skromnie, że w zakresie generowania twarzy osiągnięto dopiero poziom 30% zgodności z naturą, ale ta wartość szybko rośnie.

Możemy się zatem realistycznie spodziewać, że w dość w bliskim czasie (10-20 lat) pojawią się filmy i gry komputerowe z awatarami, których zachowanie nie będzie zewnętrznie odróżnialne od żywego człowieka. W kinie faktycznie dokona się wówczas przełom na miarę przejścia od filmu niemego do dźwiękowego. Zwłaszcza zapotrzebowanie na aktorów epizodycznych, drugiego planu, znacznie spadnie. Już dziś statyści zastępowani są przez "wirtualistów" (np. "Gladiatior") i coraz rzadziej będziemy w filmowych napisach znajdować notki typu: "Realizatorzy dziękują 55. Dywizji Zmechanizowanej za trzymanie karabinów". Być może z czasem gry komputerowe, będąc w istocie rodzajem interaktywnego filmu, zaczną też coraz bardziej zastępować film tradycyjny.

Gry komputerowe, które wydają się być "drobiazgiem" w porównaniu z "poważnymi" trendami rozwojowymi, mogą w konsekwencji okazać się ich ważnym generatorem, a co najmniej katalizatorem. Z podobnymi zjawiskami mieliśmy już wielokrotnie do czynienia w naszej historii. Oto wiara Egipcjan w indywidualną "cielesność" życia po śmierci kazała im balsamować zwłoki, co owocowało rozwojem chemii. Budowa grobów, w których takie zwłoki mogły pozostać nienaruszone, prowadziła do fenomenu piramid, wymagających inżynierskiej wiedzy na poziomie podziwianym współcześnie i jednocześnie generowała badania w zakresie matematyki, fizyki czy astronomii. Ogrom tej wiedzy wymagał medialnej pamięci i prowadził z kolei np. do powstania największej biblioteki starożytności w Alexandrii (spalona w roku 642). Indianie północnoamerykańscy mieli podobne wierzenia, ale owe, z pozoru niewielkie różnice, prowadziły do rozwoju zupełnie różnych kultur.

Nie wiemy, czy naszą chęć do zabawy (homo ludens) i rozwój gier komputerowych można będzie kiedyś zinterpretować w podobnych kategoriach historycznego "efektu motyla". Już dzisiaj zyskują one jednak na znaczeniu, zarówno jako czynnik ekonomiczny, jak i w naukowo-gospodarczym obszarze badań nad sztuczną inteligencją.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200