Ile inteligencji ma sztuczna inteligencja

Ocena aplikacji określanych popularnie mianem „sztucznej inteligencji“ wymaga rozróżnienia między rzeczywiście istniejącymi zastosowaniami praktycznymi a spekulacjami dotyczącymi odległej przyszłości.

Idea sztucznej inteligencji jest pewnie niemal tak stara jak historia tej prawdziwej. Wystarczy wskazać na średniowieczne marzenia o sztucznym człowieku (homunculus) czy na pseudoautomat szachowy z XVIII wieku – tzw. mechaniczny Turek, dziś do obejrzenia w największym muzeum komputerowym świata, Nixdorf Muzeum Forum. Jednak dopiero elektronika i informatyka umożliwiły maszynowe przetwarzanie danych, a to budzi naturalne skojarzenia z aktywnością ludzkiego mózgu. Tymczasem już w przedkomputerowej epoce kart dziurkowanych świat straszony był wizjami opanowania go przez superinteligentne maszyny (Karel Čapek, „R.U.R. – Roboty Uniwersalne Rossuma”, 1920 r.). Natomiast w latach 1950. pierwsze komputery wielkości dinozaura i mocy obliczeniowej współczesnego zegarka elektronicznego okrzyknięto dumnym mianem „mózgów elektronowych”.

Także obecnie tradycje przesadnych obaw przed nieznanym odnajdziemy w niektórych sensacyjnych doniesieniach: „komputer mądrzejszy od człowieka”, „czy ludzie będą jeszcze potrzebni rządzącym nami maszynom”, „koniec homo sapiens – nadchodzi era myślących robotów“. Jako koronny dowód wyższości sztucznej inteligencji nad naturalną mają służyć programy szachowe czy ostatnio do gry go. Tymczasem mamy tu ciągle do czynienia z algorytmami, które z definicji posiadają podstawowe cechy algorytmów. W szczególności każdy algorytm musi być deterministyczny, tzn. gwarantować powtarzalność wyników dla tych samych zadań. Innymi słowy: dla tych samych danych wejściowych uzyskujemy zawsze te same dane wyjściowe.

Zobacz również:

Cechy algorytmu
CechaInterpretacjaPrzykłady
DefiniowalnośćSystemowo powiązanekrokiStrukturalne / obiektowe procedury
SkończonośćWykonalność w ramach skończonych zasobówCzas, liczba kroków, funkcje złożoności algorytmicznej, pamięciowej
DeterministycznośćPowtarzalność wyników dla tych samych zadańParametry, dane wejściowe, wewnętrzne
UniwersalnośćRozwiązywanie różnych zadań w ramach założonej klasyAbstrakcje problowemowe, zupełność drzew decyzyjnych

Owszem, możliwe jest stosowanie w ramach algorytmów generatorów liczb losowych, ale i te w rzeczywistości są jedynie pseudolosowe, tzn. generowane algorytmicznie. Dodajmy, że liczby pseudolosowe postrzegane przez człowieka wykazują cechy losowości, niemniej ich generator jest algorytmem, a więc wynik jego działania jest przewidywalny. Także algorytmy biologiczne (genetyczne, rojowe, mrówkowe) w efekcie sprowadzają się jedynie do prób naśladowania naturalnych mechanizmów ewolucyjnych za pomocą metaheurystyk, które również posiadają cechy algorytmów.

Wygrana komputera w szachy z człowiekiem to sukces podobny do zwycięstwa samochodu w konkurencji ze sprinterem. Kiedy w roku 1989 program IBM „Deep Thought” przegrał z ówczesnym mistrzem świata Garrim Kasparowem, po prostu dołożono mu procesorów i zwiększono jego moc w wersji „Deep Blue”. W ten sposób w roku 1997 po raz pierwszy komputer pokonał w warunkach turniejowych aktualnego mistrza świata.

Od tego czasu algorytm był już nie pokonania przez najinteligentniejszego człowieka. Ale czy ten algorytm był przez to inteligentniejszy? Nie, był po prostu szybszy.

W praktyce nawet najlepsi szachiści nie są bowiem w stanie przewidywać przebiegu partii na więcej niż siedem posunięć (14 półposunięć). Wystarczy zatem, że komputer będzie liczył „głębiej”, poruszając się po rozległym drzewie wariantów decyzyjnych. Ale to jest właśnie siłą maszyny: gigantyczna liczba obliczeń w bardzo krótkim czasie. Grając z komputerem, gramy w gruncie rzeczy z przeciwnikiem, który analizuje podobnie jak my, tyle że na przyspieszonych obrotach.

Inteligencja silna i słaba

Wydaje się, że wiele nieporozumień, a nawet mitów narosłych wokół sztucznej inteligencji wynika z tego, że utożsamia się inteligencję słabą z inteligencją silną. Ta pierwsza, faktycznie istniejąca, jest tylko namiastką ludzkiej inteligencji naturalnej, a ta druga jedynie hipotezą, jak dotąd bardzo odległą od realizacji. Tak więc z jednej strony mamy do czynienia jedynie z ideą wiernego naśladowania procesów myślowych i świadomości człowieka (sztuczny umysł), z drugiej zaś strony możliwa jest fragmentaryczna symulacja działań ludzkich dla celów praktycznych (np. Przemysł 4.0). Z punktu widzenia zastosowań gospodarczych główne znaczenie ma teraz ten drugi nurt badawczy, zwany także inteligencją techniczną.

Tak więc przydomek „inteligentny” uzyskują słusznie te rozwiązania, które efektywnie integrują inteligencję ludzką z jej materialnym otoczeniem gospodarczym. Zakładamy przy tym, że naturalna inteligencja człowieka może podlegać ograniczeniom w złożonym, „nieinteligentnym” systemie produkcyjnym. Zatem praktycznym celem projektowania tak rozumianych inteligentnych systemów biznesowych nie jest autonomiczny, zautomatyzowany system zdolny do inteligentnych zachowań jako całość w sensie „silnej” sztucznej inteligencji. Natomiast, realistycznie traktując aktualne osiągnięcia technologii informatycznych, możliwe jest stosowanie sztucznej inteligencji jako rozwiązań cząstkowych w podsystemach przedsiębiorstwa.

Wymieńmy tu takie obszary jak:

  • przetwarzanie języka naturalnego,
  • zarządzanie wiedzą,
  • podejmowanie decyzji (w warunkach niepełnej informacji),
  • wnioskowanie (systemy ekspertowe),
  • algorytmy genetyczne (neuronalne, rozmyte – fuzzy logic).

Wszystkie znajdują coraz większe zastosowanie w gospodarce, ale przesadą jest traktowanie każdego systemu wykonującego wielką liczbę operacji prostego dodawania (w gruncie rzeczy na poziomie binarnym komputery potrafią tylko tyle) jak przyszłego pana i władcę w skali planetarnej.

Wielkie dane

Czy AlphaGoZero jest programem samouczącym się? W podobnym stopniu, w jakim telefon komórkowy może być mądry / inteligentny (ang. smart). W tym sensie „spryt” można umownie kojarzyć np. z wyrafinowanym... korkociągiem. Z pewnością twórcy nowych produktów czy algorytmów z przyczyn marketingowych chętnie przypisują im nadzwyczajne cechy. Tymczasem heurystyki - a takie podejście również jest chętnie stosowane dla rozwiązywania złożonych problemów - to tylko droga na skróty, gdy niemożliwe jest przeliczenie wszystkich wariantów wspomnianego drzewa decyzyjnego.

Czy portal oferujący usługę strumieniowania filmów, taki jak Netflix, zawiera elementy samouczące się? Jeżeli komputer rejestruje, że widz obejrzał trzy sezony „House of Cards”, to konsekwentnie proponuje mu czwarty – zwykła statystyka. Tymczasem algorytmiczny ideał samouczenia się, w sensie silnej SI, odnosiłby się do kreowania wiedzy, a nie prostego agregowania danych. Dodajmy: wiedzy nowej. A więc w skrajnym przypadku np. stworzenia przełomowej teorii fizyki, łączącej oddziaływania elektromagnetyczne, grawitacyjne oraz słabe i silne (wariant tzw. ogólnej teorii wszystkiego). Na razie do tak rozumianej SI droga bardzo daleka.

Skąd zatem pojawiający się czasami swego rodzaju fenomen medialny, który można określić mianem katastrofizmu komputerowego? Przyczyną strachów bywa często niezrozumienie nowych zjawisk. Z drugiej strony z naturalnych powodów nowe i coraz bardziej złożone technologie mają swoje choroby wieku dziecięcego. A na problemy technologiczne najlepsze są jeszcze lepsze technologie.

Nie da się bowiem zatrzymać rozwoju technologicznego i nie ma też takiej potrzeby. To dzięki niemu żyjemy coraz dłużej i, mimo wszystko, zdrowiej, mając coraz lepszy dostęp do dóbr materialnych, będących także warunkiem rozwoju duchowego.

Warto zatem pamiętać, że poziom inteligencji systemów Big Data nie jest większy niż od dawna znanych wzorów statystycznych. Owszem, maszynowy algorytm szachowy robi większe wrażenie niż rozrysowana na kartce niewielka liczba wariantów gry w kółko i krzyżyk, ale efekt jest głównie ilościowy, a nie jakościowy. Faktycznie, możliwość wnioskowania o preferencjach wyborczych czy rynkowych na postawie profilu oglądanych filmów na portalach strumieniowych robi wrażenie, ale technicznie mamy tu tylko do czynienia z probabilistyczną korelacją, taką samą jak w teoriach Bayesa (prawdopodobieństwa warunkowe, 1763), Gaussa (krzywa dzwonowa) czy Poissona (rozkład, 1838). Tyle że w czasach, kiedy te formuły powstawały, nie było możliwości przetwarzania tak wielkiej ilości informacji. Dziś są.

Większość powstających danych - w skali świata rocznie ok. 20 zettabajtów - jest dziełem maszyn, a nie człowieka, stąd możliwości zastosowań gospodarczych w ramach modelu 4V: duże ilości danych (ang. volume) o znacznej różnorodności (variety) i zmienności (velocity) prowadzące do uzyskania nowej wartości decyzyjnej (value), w odniesieniu do optymalizowanych procesów (biznesowych). Musimy przy tym pamiętać, że zarządzanie rozwojem technologii wymaga także uwzględniania wielu czynników pozatechnicznych. Jednym z nich jest obowiązujące prawo, które często nie nadąża za innowacyjnością.

Przykłady technologii wymagających nowych i precyzyjniejszych rozwiązań prawnych

  • międzynarodowe przepisy dotyczące pieniądza elektronicznego oraz standardów obrotu „cybergotówką” (mikropłatności – micropayments),
  • drony (autonomiczne zastosowania wojskowe),
  • algorytmy kryptograficzne (ujawnianie kodu dla instytucji państwowych),
  • podpis elektroniczny (bezpieczeństwo i zakres ważności),
  • patenty w sferze IT (definicje i interpretacje),
  • gromadzenie danych gospodarczych (np. radioetykiety RFID),
  • zrobotyzowane urządzenia domowe (kwestia odpowiedzialności),
  • biblioteki wydawnictw elektronicznych (prawa wydawnictw i autorów),
  • digitalizacja przestrzeni publicznej (zdjęcia, plany budynków i obiektów),
  • biometria i dane medyczne/genetyczne (ochrona danych osobowych),
  • statki bezzałogowe, USV (unmanned surface vehicles) - regulacje na wodach międzynarodowych.