Dlaczego ChatGPT nie jest tak naprawdę inteligentny, choć jest kreatywny?

Rozmowa z dr. hab. Piotrem Sankowskim, prof. UW, prezesem IDEAS NCBR, informatykiem specjalizującym się w algorytmach, w szczególności w zastosowaniach metod algebraicznych w algorytmach grafowych. Wyniki jego badań znajdują zastosowanie m.in. w rozwoju technologii opartych na sztucznej inteligencji. Jako pierwszy i jedyny Polak zdobył w tym roku czwarty, niezwykle prestiżowy grant ERC.

Profesor Piotr Sankowski. Zdjęcie: IDEAS NCBR

Cw: Niedawno jako pierwszy Polak otrzymał Pan po raz czwarty grant European Research Council. Czy mógłby Pan powiedzieć, na czym będą polegać badania objęte grantem?

Piotr Sankowski:

Moje badania dotyczą konstrukcji algorytmów optymalizacyjnych. To prostsze, bardziej podstawowe algorytmy niż algorytmy głębokiego uczenia. Są wykorzystywane np. do rozwiązywania problemu znalezienia najkrótszej drogi. Ich praktyczne użycie to np. GPS. Co ciekawe, nadal wielu ludzi nie dowierza tym systemom, choć można już udowodnić, że ich optymalizacje są właściwe. Nasz zespół dodatkowo planuje wzbogacić algorytmy, które opracujemy, w wyjaśnienia dla użytkowników – dlaczego została zaproponowana ta właśnie trasa, to rozwiązanie, a nie inne. Jeszcze nie wiemy, jak to będzie dokładnie wyglądało – i tego dotyczy właściwa część badawcza. Dobrze jest zrozumieć najpierw prostsze problemy zanim zaatakujemy te bardziej skomplikowane.

Zobacz również:

  • Pierwsze firmy z finansowaniem NATO Innovation Fund
  • Do europejskich badań nad AI dołącza polska instytucja

Jakie mogą być inne zastosowania, oprócz GPS?

Na przykład w obsłudze klienta, system pomoże w optymalnym przydzieleniu klientów do sprzedawców. Wyniki naszych badań będziemy testować wspólnie z partnerami, którzy tworzą dla biznesu takie rozwiązania. Celem jest stworzenie systemów optymalizujących pracę, wspierających pracowników.

Niedawno prezes Google powiedział, że sztuczna inteligencja jest przełomem większym niż odkrycie ognia. Z drugiej strony, wiele osób boi się tej technologii. Pamiętamy list kilkudziesięciu luminarzy wzywający do wstrzymania prac nad AI. Inni uważają, że groźniejsi od samej technologii mogą być jej właściciele. Jakie, Pańskim zdaniem, są obecne ograniczenia technologiczne sztucznej inteligencji?

To nie jest tak, że sztuczna inteligencja pojawiła się nagle w listopadzie ubiegłego roku. Prace nad uczeniem maszynowym trwają od dziesiątek lat, podobne modele – wprawdzie gorzej działające, ale jednak – powstawały wcześniej. Można więc powiedzieć, że w jakimś stopniu jej rozwój jest stopniowy i kontrolowany. Nie jest tak, że nagle powstanie Terminator i zagrozi nam wszystkim. Trzeba też pamiętać, że tworząc te modele maszynowe, od razu zadajemy im cele, które mają realizować. Dlatego to ludzie podejmują najważniejsze decyzje i są odpowiedzialni za algorytmy. Z tego względu musimy zadbać, aby cele maszyn były etyczne. Odpowiedzialność za etyczną sztuczną inteligencję spada na nas. Tak więc, teraz musimy wszyscy zgodzić się co do znaczenia pewnych pojęć – co oznacza np. słowo etyczny. Najlepiej wypracować ich matematyczne czy statystyczne definicje, które będą precyzyjne i zrozumiałe dla programistów. Jako społeczeństwo musimy zgadzać się w kwestii praw regulujących działania sztucznej inteligencji. Nie jest to łatwa sprawa, bowiem potencjalnie opisów czym jest równość czy sprawiedliwość jest multum. Moim zdaniem, zgoda co do definicji najważniejszych pojęć to kluczowy, pierwszy krok w rozwoju AI. Obecne modele maszynowe jeszcze nie potrafią zrozumieć tych definicji. W tym momencie nie są one samoświadome; są to systemy naśladujące inteligencję, nie są tak naprawdę inteligentne. Niewykluczone jednak, że niedługo zobaczymy jednak takie modele, które będą miały świadomość samego siebie i będą mogły podejmować decyzje tyczące się ich samych. Dlatego musimy budować czysto formalne ograniczenia, w rodzaju licencjonowania modeli. Nie powinniśmy w ogóle uruchamiać modeli, jeżeli nie znamy motywów ich konstruktora. Ten system licencji powinien być trudny do przejścia. Tylko zweryfikowane modele mogłyby być dopuszczone do użytku na dowolnym komputerze. Zanim skorzystamy ze sztucznej inteligencji, powinniśmy jako jej odbiorcy móc mieć pewność, że jej działanie zostało zweryfikowane pod względem bezpieczeństwa. W tej chwili obawy dotyczą nie tyle świadomości maszyn, lecz możliwości przejęcia ich przez hakerów czy złośliwe oprogramowanie. Wystarczy np. żeby algorytmy zmanipulowały giełdę, a może dojść do bankructw i utraty pracy przez wiele osób. To są realne zagrożenia tu i teraz, nie musimy sięgać do pomysłów z gatunku science-fiction.

Obecne modele maszynowe jeszcze nie potrafią zrozumieć tych definicji. W tym momencie nie są one samoświadome; są to systemy naśladujące inteligencję, nie są tak naprawdę inteligentne. Niewykluczone jednak, że niedługo zobaczymy jednak takie modele, które będą miały świadomość samego siebie i będą mogły podejmować decyzje tyczące się ich samych. Dlatego musimy budować czysto formalne ograniczenia, w rodzaju licencjonowania modeli. Nie powinniśmy w ogóle uruchamiać modeli, jeżeli nie znamy motywów ich konstruktora. Ten system licencji powinien być trudny do przejścia. Tylko zweryfikowane modele mogłyby być dopuszczone do użytku na dowolnym komputerze.

Unia Europejska przoduje na świecie w pracach nad legislacją regulującą kwestie sztucznej inteligencji. Czy zdążył już Pan zapoznać się z projektem ustawy Parlamentu Europejskiego, uchwalonym kilka dni temu?

Z tego, co wiem, proces legislacyjny potrwa jeszcze długo. Oceniam te regulacje jako krok w dobrą stronę, ale one są niewystarczające. Są to bowiem regulacje na poziomie, nazwijmy go, humanistycznym, czyli takim życzeniowym, niestety. W wielu wypadkach tak naprawdę niewiele zmieniają. Przykładowo weźmy problem dyskryminacji. Niektórzy mówią, że sztuczna inteligencja nie będzie nas od teraz dyskryminować, a to nie jest prawda. Już wcześniej istniało prawo zakazujące dyskryminacji i zapobiegło dyskryminacji przez systemy AI. Nie ma też gwarancji, że same ogólne wytyczne uczynią AI etyczną. Oczywiście, sporządzenie listy zakazanych zastosowań sztucznej inteligencji jest bardzo ważne. Moim zdaniem, istotą problemu jest to, żebyśmy tworzyli etyczną sztuczną inteligencję w oparciu o zdefiniowane modele matematyczne. Prawo powinno definiować w sposób precyzyjny, matematyczny, jakie rzeczy są etyczne, jakie wymagania powinniśmy mieć matematycznie co do tych modeli. Oczywiście, kolejna trudność to inne rozumienie pojęć w różnych społeczeństwach. Inaczej dobro społeczne pojmują Europejczycy, a inaczej Chińczycy. Przed nami długa droga.

Jak Pańskim zdaniem rozwój generatywnej i ogólnej sztucznej inteligencji może wpłynąć na przyszłość pracy naukowców, inżynierów, czy matematyków?

Aktualnie jest to bardzo przydatne dla nas narzędzie, które pozwala wiele rzeczy zrobić szybciej. Głośno ostatnio o odkryciach nowych cząsteczek czy leków. Wcześniej te prace zajmowały lata lub dziesiątki lat, użycie sztucznej inteligencji skróciło czas odkryć do miesięcy, bądź dni. Dodatkowo, np. pisanie raportów czy sporządzanie notatek, bibliografii łatwiej zrobić z użyciem algorytmów. Mamy więcej czasu na myślenie. Już niedługo taki sztuczny asystent będzie mógł za nas wykonać telefon, zebrać dane, sporządzić notatki. To wszystko wzmocni zespoły badawcze. Nie wykluczam, że z czasem systemy staną się tak inteligentne, że to one, a nie ludzie, będą dokonywać przełomowych odkryć naukowych. Zawsze możemy liczyć na ludzką intuicję. Być może nie będziemy skazani tylko na bycie konsumentami produktów wytworzonych przez systemy inteligentne.

Obecnie jednak sztuczna inteligencja choć świetnie wychwytuje korelacje w ogromnych zbiorach danych, to nadal ma problem z wyciąganiem poprawnych wniosków, z rozumowaniem przyczynowo-skutkowym. Czy i kiedy może się to zmienić?

Moim zdaniem, dość szybko. To kwestia może dwóch lat. Faktycznie, obecnie algorytmy potrafią znakomicie naśladować jak działa język, ale to nie jest myślenie. ChatGPT nie jest tak naprawdę inteligentny, choć jest kreatywny. Zdarzyło mu się nie umieć dodać dwa do dwóch, a jednocześnie sprawnie i szybko pisze opowiadania. Wystarczy wydać mu polecenie „Opowiedz bajkę o krokodylu” czy „Napisz ciekawy post”. Mimo to nie radzi sobie z problemami logicznymi. Natomiast, systemy te nadal są ułomne, bo bardzo duże znaczenie ma sposób wydawania mu poleceń, użycie w nich dodatkowych określeń, np. ładny czy ciekawy.

Doprawdy? Algorytm rozumie znaczenie takich przymiotników? Czy to ma coś wspólnego z logiką rozmytą?

Nie powiedziałbym, że rozumie, tylko w takich wypadkach naśladuje rzeczy, które ktoś w internecie określił jako fascynujące czy ładne. Będzie generować uśrednione teksty i obrazy opisane w dany sposób przez maksymalnie dużą liczbę ludzi. Uczy się przecież w internecie poprzez naśladownictwo. Analogicznie działają np. algorytmy podpowiadające nam co oglądać czy czytać. Jakość otrzymanej przez nas odpowiedzi będzie silnie skorelowana z jakością i dokładnością naszego zapytania. Co ciekawe sztuczna inteligencja lepiej radzi sobie z formami, które nie mają ściśle określonej formy i struktury – łatwiej algorytmowi stworzyć jazzowy utwór lub opowiadanie niż piosenkę disco polo lub wiersz z powtarzającą się częścią. Systemy lepiej radzą sobie z zadaniami nie wymagającymi ścisłych reguł, co odbieramy jako kreatywność podobną do ludzkiej.

A co obecnie, jakie nowości zaczynają przyciągać uwagę naukowców?

Swoich nie chciałbym zdradzać, ale jeżeli mówimy o generalnej sztucznej inteligencji, to spodziewałbym się generowania całych filmów, po prostu z jednego obrazka i opisów scen. Zamiast aktorów będziemy mieć operatorów, wirtualnych aktorów. Już teraz AI generuje nam świetne obrazy i slajdy do prezentacji, zmieniając czy wręcz eliminując pracę grafików. Podobnie np. z pisaniem podania do sądu, można poprosić ChatGPT, aby napisał tekst jak prawnik. Zwolennicy technologii nazywają to demokratyzacją umiejętności. Z drugiej strony, trzeba uważać. Głośno jest teraz o prawnikach z USA, którym ChatGPT zmyślił precedensy prawne, których użyli podczas procesu. Dlatego trzeba sprawdzać wyniki pracy sztucznej inteligencji, by wychwycić błędy merytoryczne.

A czy Pan w swoich badaniach posiłkuje się sztuczną inteligencją?

Nie. Używam jej tylko do prac pomocniczych, np. do robienia obrazów do prezentacji albo kiedy chcę coś nazwać, proszę o podrzucenie mi jakiejś inspiracji, bo ChatGPT bardzo sprawnie generuje skróty czy nazwy. Człowiek spędziłby nad tym więcej czasu, algorytm daje szereg propozycji w kilka sekund. Taki osobisty sztuczny asystent odciąża w żmudnych zadaniach.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200