Sztuczna inteligencja: cieszyć się czy bać?

Niechybnym znakiem, że technologia dojrzewa, jest pojawianie się jej w mediach popularnych. W ostatnim roku nie było chyba gazety, która nie poświęciłaby sztucznej inteligencji choć trochę miejsca.

W wielu wypowiedziach dominują tony alarmistyczne: AI, czyli Artificial Intelligence, przejmie władzę nad światem i zapędzi ludzi do gett. A jak jest naprawdę? Spróbujmy usystematyzować temat budzący tak wielke emocje.

Co to jest AI

„Maszyna, która sama podejmuje decyzje na podstawie wcześniejszych doświadczeń”, „myśląca maszyna”, „komputer, który zachowuje się tak jak człowiek”. W klasycznym filmie Stevena Spielberga sztuczna inteligencja definiowana jest jeszcze inaczej: jako automat zdolny do odczuwania. Sztuczną inteligencję definiuje się także przez analogię do ludzkiej: słynny test Turinga mówi, że sztuczna inteligencja powinna być nie do odróżnienia podczas normalnej konwersacji od człowieka. Sztuczną inteligencję definiuje się także behawioralnie – inteligentna maszyna powinna dysponować ludzkimi zmysłami: „widzieć”, „słyszeć” i „odczuwać”. Stąd już tylko krok do robotów humanoidalnych: sztuczna inteligencja powinna być także zewnętrznie podobna do człowieka.

Zobacz również:

Można ją także zdefiniować poprzez zaprzeczenie: sztuczna inteligencja to nie jest algorytm. Maszyna nie musi mieć z góry zadanego sposobu postępowania; podobnie do człowieka, odkrywa drogę w miarę poruszania się po niej. Z AI bezpośrednio związany jest proces uczenia się. Jej nieodłącznym atrybutem jest konstrukcja: generyczna adaptacyjność „wbudowana” w warstwę sprzętową i programową; konkretne umiejętności nabywane dopiero w „dzieciństwie”, czyli okresie nauki.

Podsumowując: sztuczna inteligencja to rodzaj uniwersalnego mechanizmu, funkcjonującego podobnie do ludzkiego mózgu i zmysłów, zdolnego do uczenia się.

Przetwarzanie języka naturalnego

„Alexa, która godzina?” – tak każdy, kto wysupła 179 dolarów plus koszty przesyłki, może rozpocząć przygodę ze sztuczną inteligencją. Amazon Echo jest czarnym, gustownym walcem podłączanym do prądu oraz do internetu, który można bez wstydu postawić w pokoju dziennym. Od momentu podłączenia spełnia funkcję asystenta domowego, a słowo „Alexa” sprawia, że uruchamia nasłuch i interpretuje komendy.

Najpierw następuje zamiana fali dźwiękowej na tekst. To praca polegająca na prostym porównywaniu wzorców; ta technologia jest od lat opracowana – choć poczyniła w ostatnim okresie znaczące postępy. Potem analiza tekstu „która godzina?”. Głos podniesiony, więc to pytanie. Podmiot to „godzina”, brakujące orzeczenie „jest”. Wynik analizy semantycznej: użytkownik pyta o aktualną godzinę. Wywołanie funkcji zwracającej godzinę, zamiana liczb na tekst: trzynasta dwanaście. Zamiana tekstu na głos, znowu fala dźwiękowa: trzynasta dwanaście, wypowiedziana wybraną przez użytkownika barwą głosu.

Na prawie każdym z tych etapów używana jest sztuczna inteligencja. Zamiana dźwięków na tekst odbywa się za pomocą uczenia maszynowego. Na co dzień posługujemy się mózgiem, który przez kilka pierwszych lat życia uczył się rozbijać falę dźwiękową na słowa. Nie zdajemy sobie sprawy, jak to złożone zadanie – wśród przygłosów, odbić, szumu i luk wyłowić pełny tekst. Podobnie rozbiór zdania. Aby maszynie „wytłumaczyć”, gdzie znaleźć podmiot i orzeczenie, AI musi się domyślić, że zdanie – choć nie zawiera bezpośrednio orzeczenia – ma je w formie ukrytej, a dodatkowo implikuje moment w czasie („która JEST TERAZ godzina”).

Każda z tych warstw systemu działa w oparciu o mechanizmy sztucznej inteligencji. Jakie konkretnie? To tajemnica specjalistów Amazona, a w zasadzie polskich twórców technologii Alexa, których przy odrobinie szczęścia można ciągle spotkać w Gdańsku-Oliwie w porze lunchu. Ale bez wątpienia mówimy o uczeniu maszynowym, porównywaniu wzorców, ekstrakcji reguł z dużych zbiorów danych oraz przetwarzaniu tego wszystkiego w wysokowydajnej chmurze.

Rozważmy inny przypadek. Użytkownik pyta „co jest lepsze do jabłecznika, mąka wrocławska czy krupczatka?”. Sztuczna inteligencja musi zdekomponować polecenie na zadania: wyszukanie przepisów na jabłecznik, analizę pod kątem użytych gatunków mąki, a następnie sprawdzić, które występują częściej. I – na koniec – złożyć zdanie „większość przepisów oparta jest o wrocławską”.

Bardzo ważną dziedziną w przetwarzaniu języka naturalnego jest tzw. analiza sentymentu. Analizę sentymentu zlecają przede wszystkim agencje marketingowe, które chcą znać zdanie klientów na określony temat. Zdanie „ford to dobry samochód” jest pochwałą fordów. Ale zdanie „ford to dobry samochód, ale suzuki jest lepsze” jest co najmniej neutralne, jeśli nie negatywne względem fordów – choć formalnie brzmi prawie tak samo. Sztuczna inteligencja musi rozumieć takie subtelności i być w stanie je prawidłowo zinterpretować. Miesięcznik Wired jesienią opisywał, jak Google tropi tzw. mowę nienawiści w sieci. Trudność, jaką ma przed sobą firma, może opisać przykład. Zdanie „zabiję się, jeśli mnie rzucisz” jest poważną i wiarygodną groźbą; „mama zabije mnie, jeśli się spóźnię na obiad” jest metaforą. Z językowego punktu widzenia – oba sformułowania są takie same.

Go i szachy

Kiedy w 1996 roku komputer Deep Blue pokonał Garriego Kasparowa, był to triumf brutalnej siły nad rozumem. Zwyciężyło prawo Moore’a – maszyna wreszcie mogła policzyć wszystkie ruchy do przodu szybciej niż człowiek, zbudować i przeanalizować drzewa decyzyjne i wymyślić optymalną strategię. Zwyciężyły megaherce i teraflopy – szachy okazały się grą zbyt mało złożoną dla komputera. Dzisiaj, w roku 2017, możliwości obliczeniowe Deep Blue oferują chmury – za nieduże pieniądze.

Z go jest inaczej. Go jest grą znacznie bardziej złożoną niż szachy, i to nie tylko kombinatorycznie. Również problemy rozwiązywane w go mają inny charakter, gorzej dają się algorytmizować. W go często poddaje się piony w środkowej części gry aby uzyskać lepszą pozycję w partii końcowej.

Więc gdy w 2015 roku komputer AlphaGo zwyciężył z Lee Sedolem, jednym z największych arcymistrzów na świecie, wszyscy obserwatorzy byli zaskoczeni. Alpha Go wygrał trzy mecze, Lee Sedol poddał się; komputer uzyskał honorowy dziewiąty dan w grze.

Wykorzystano nieprzeciętną moc obliczeniową – 1920 procesorów ogólnego przeznaczenia oraz 280 graficznych; obliczenia były rozproszone. Ale to nie moc przesądziła o zwycięstwie. To, co umyka obserwatorom, to że Alpha Go nie był komputerem przeznaczonym szczególnie do gry w tę grę. Był sztuczną inteligencją ogólnego przeznaczenia, którą nauczono reguł gry oraz „nakarmiono” zapisami partii. Komputer symulował za pomocą metody Monte Carlo drzewa decyzyjne w danym momencie partii i starał się znaleźć znane sobie, wygrywające kombinacje. Nie liczył ruchów naprzód, jak Deep Blue, przeprowadzał „rozumowanie” analogiczne do gracza-człowieka. Jeśli zwycięstwo nad Kasparowem było zwycięstwem komputerowej brutalnej siły, to zwycięstwo w go – subtelnej, quasi-ludzkiej inteligencji.

Siri, po co tu jesteśmy?

Rozwój sztucznej inteligencji bezpośrednio związany jest z zadaniami, które słabo poddają się algorytmizacji. Na przykład: rozpoznawaniem mowy, języka naturalnego i obrazów, kierowaniem pojazdami, tłumaczeniami, zasięganiem opinii innych osób, zabawą oraz podejmowaniem decyzji w bardzo złożonym środowisku. Póki co, maszyny nie radzą sobie z emocjami oraz filozofią; słabo idzie im także kreatywność. A przynajmniej to, co my w naszym białkowym świecie nazwaliśmy tymi określeniami. Komputer potrafi już skomponować popularną piosenkę według sprawdzonego, szlagierowego wzorca; nie potrafi jednak napisać niczego na miarę „Błękitnej rapsodii” albo „Yesterday”. Umyka mu cały kontekst kulturowo-społeczny. Nie radzi sobie ze stawianiem i rozwiązywaniem kwestii abstrakcyjnych – co jest o tyle paradoksalne, że sam jest pewną użyteczną abstrakcją zaszytą w informacyjnym uniwersum komputera stworzonym na bazie elektroniki.

W filmie „Forrest Gump” pada pamiętne zdanie: „Może nie jestem szczególnie bystry, ale wiem, co to miłość”. Sztuczna inteligencja nie zakocha się, bo nie da się łatwo zestawem zmiennych opisać, co to miłość. Komputer nie stanie się również altruistą – bo altruizm to z definicji zachowanie irracjonalne i nie do opisania na gruncie ekonometrycznych teorii zysków i strat. A przecież nawet jeśli czegoś nie potrafimy do końca opisać i nazwać w zestawie reguł, to nie znaczy, że to nie istnieje. Miłości doświadcza praktycznie każdy z nas, choć nad jej opisaniem biedzą się psycholodzy, biochemicy, behawioryści, antropologowie i poeci – i nadal niczego nie wymyślili.

Może więc bycie człowiekiem nie jest jeszcze całkiem passé. Może białko nadal ma przyszłość na naszej planecie, mimo zanieczyszczenia środowiska naturalnego i ograniczonego miejsca. Może – jak twierdzi wielu prominentnych myślicieli, np. Francis Fukuyama, odpowiedzią na rozwój sztucznej inteligencji i robotyki powinna być cyborgizacja ludzi. Może tylko wyposażeni w lepszy wzrok, zewnętrzną pamięć i moc obliczeniową, egzoszkielety i interfejsy rozpoznawania myśli będziemy w stanie stawić czoła maszynom. Może naprzeciw armii dronów staną pół-ludzkie maszyny; w końcu cyberkultura od dawna przewiduje ich powstanie (Robocop, Darth Vader), a i niektóre androidy (Terminator albo major Motoko Kusanagi z japońskiej mangi) dają się lubić.

Czy czas się bać?

Zaczęliśmy od tego pytania, warto na nim skończyć. Odpowiedź jest niejednoznacza: być może. Warto na pewno mieć się na baczności. Jeśli słychać, że zasilony milionami tłumaczeń automatyczny tłumacz Google wymyślił ‘metajęzyk’, do którego sprowadza tłumaczone zdania zanim zamieni je na postać docelową; jeśli słyszymy, że dwie sztuczne inteligencje zaczynają wymieniać wiadomości, choć nie zostały do tego zaprogramowane – to trzeba mieć oczy i uszy szeroko otwarte. Może czas nie tyle na inżynierów, co na literatów i filozofów, którzy wymyślą odpowiednie prawa sztucznej inteligencji, na wzór praw robotyki Asimova.

Z AI jest trochę jak ze stalowym nożem: może służyć do pokrojenia chleba, przygotowania posiłku i budowy domu; może także służyć do wystrugania dzidy i zabicia kogoś. Tak samo ze sztuczną inteligencją; nie jest ona groźna, nie jest niegroźna; groźne lub niegroźne mogą być zastosowania, w których może zostać użyta. Ciągle, chyba jeszcze, mamy kontrolę.

Słowniczek sztucznej inteligencji

Uczenie maszynowe – metoda wypracowywania wiedzy na podstawie analizy przypadków, przy znanych rozwiązaniach; istnieje wiele metod uczenia maszynowego, ale łączy je heurystyczny charakter oraz konieczność bazy przypadków używanych w procesie uczenia.

Głębokie uczenie – uczenie wielowarstwowe, gdzie w procesie uczenia rozpoznawane są nie tylko całe zjawiska, ale także pojedyncze cechy, np. podniesiona intonacja na końcu zdania pytającego albo migotwanie jako oznaka zesputej żarówki.

Sztuczne sieci neuronowe – system wielowarstwowych połączeń, podobnych do połączeń neuronów do ludzkiego mózgu. Poszczególne połączenia mają dobierane wagi, z którymi wyższa warstwa przenosi pobudzenia na niższą. Sieć neuronowa uczy się (lub jest uczona) poprzez dobieranie wag dla poszczególnych połączeń.

Tensor Flow – platforma open source służąca do obliczeń w grafach; potrafi rozwiązywać problemy, które dają się opisać w postaci tensorów (wielowymiarowych wektorów). Tensor Flow została stworzona przez Google i pozwala m.in. rozwiązywać nieliniowe, trudno algorytmizowalne problemy.

Algorytmy genetyczne – rodzina algorytmów, które „ulepeszają” własne działania poprzez zmiany przypominajace ewolucję biologiczną (np bezkierunkowe „mutacje” prowadzące do zmiany poszczególnych kroków algorytmu i porównywanie ich skuteczności).

Logika rozmyta – logika, w której nie obowiązuje prawo wyłączonego środka, tj. zmienna logiczna może przyjąć dowolną wartość pomiędzy 0 a 1. W procesie tzw. fuzzyfikacji (rozmywania) wartościom numerycznym (np 5 i 10) przyporządkowywane są tzw. zmienne semantyczne („dużo”, „mało”) oraz ich wagi; reguły zapisane są na zmiennych semantycznych („jeśli jest trochę zimno, zwiększ nieco temperaturę”), a następnie następuje ich ponowna dyskretyzacja („defuzzyfikacja”). Często stosowana w sterowaniu.

Eksploracja danych – proces pozwalający na określenie zależności ukrytych w danych; pozwalający na kolejne kroki „rafinacji” zbiorów poprzez ich przetworzenie, aż do wyłowienia nieoczywistych związków. Wykorzystywany przede wszystkim w analizie dużych zbiorów danych.

Inżynieria cech („feature engineering”) – dziedzina inżynierii wiedzy polegająca na odsiewaniu istotnych od nieistotnych czynników. Można je zakładać a priori, np. poprzez wiedzę ekspercką, a można je odkrywać stopniowo, poprzez stawianie i doskonalenie kolejnych hipotez. Proces z reguły iteracyjny. Przykładem może być ocena świeżości owoców w sortowni na podstawie rozmiaru – np. ani grubość ani szerokość nie są istotne, ale ich proporcja jest.