Czy powinniśmy obawiać się rozwoju ogólnej sztucznej inteligencji (AGI)?

AI jest na drodze do ponad dwukrotnego zwiększenia mocy obliczeniowej każdego roku - a to, jak twierdzą niektórzy, może doprowadzić do powstania samonapędzającej się inteligencji, której wpływ pozostaje nieznany.

Czy powinniśmy obawiać się rozwoju ogólnej sztucznej inteligencji (AGI)?

Fot. Tara Winstead/Pexels

W zeszłym tygodniu luminarze świata technologii wezwali laboratoria sztucznej inteligencji do zaprzestania szkolenia najpotężniejszych systemów AI przez co najmniej sześć miesięcy, powołując się na "głębokie ryzyko dla społeczeństwa i ludzkości".

W liście otwartym, który ma obecnie ponad 2100 sygnatariuszy, w tym współzałożyciela Apple Steve'a Wozniaka, liderzy technologiczni wezwali OpenAI Lab z siedzibą w San Francisco do wstrzymania dalszego rozwijania algorytmu GPT-4 do czasu wprowadzenia standardów nadzoru. Ten postulat ma poparcie technologów, prezesów, dyrektorów finansowych, doktorantów, psychologów, lekarzy, twórców oprogramowania i inżynierów, profesorów i nauczycieli szkół publicznych z całego świata.

Zobacz również:

  • Oficjalna premiera modelu Llama 3
  • Użytkownicy zaczynają obawiać się AI Microsoftu. "Domaga się, aby ją czcić"
  • Blaski i cienie AI

Oczekuje się, że GPT, który jest skrótem od Generative Pre-trained Transformer, rozwinie się do GPT-5 - a ta wersja będzie sztuczną inteligencją ogólną, czyli AGI. AGI reprezentuje AI, która może myśleć samodzielnie, a algorytm będzie nadal rozwijać się wykładniczo.

Według Epoch, grupy badawczej próbującej przewidzieć rozwój transformacyjnej AI, około 2016 roku pojawił się trend w modelach szkoleniowych AI, które były o dwa do trzech rzędów wielkości większe niż poprzednie systemy. Ten trend się utrzymał.

Według Jaime Sevilli, dyrektora Epoch, obecnie nie ma systemów AI większych niż GPT-4 pod względem obliczeń treningowych. Ale to się zmieni.

Anthony Aguirre, profesor fizyki na UC Santa Cruz i wiceprezes Future of Life, organizacji non-profit, która opublikowała list otwarty do deweloperów, powiedział, że nie ma powodu, aby wierzyć, że GPT-4 nie będzie nadal ponad dwukrotnie zwiększać możliwości obliczeniowych każdego roku.

"Obliczenia na największą skalę zwiększają rozmiar o około 2,5 raza rocznie. Parametry GPT-4 nie zostały ujawnione przez OpenAI, ale nie ma powodu, by sądzić, że ten trend się zatrzymał lub nawet zwolnił" - powiedział Acquirre. "Tylko same laboratoria wiedzą, jakie obliczenia uruchamiają, ale trend jest niewątpliwy".

W swoim dwutygodniowym blogu 23 marca współzałożyciel Microsoftu Bill Gates ogłosił AGI - zdolną do nauczenia się dowolnego zadania lub przedmiotu - jako "wielkie marzenie przemysłu komputerowego".

"AGI jeszcze nie istnieje - w branży komputerowej toczy się solidna debata na temat tego, jak ją stworzyć i czy w ogóle można ją stworzyć" - napisał Gates. "Teraz, wraz z nadejściem uczenia maszynowego i dużych ilości mocy obliczeniowej, wyrafinowane AI są rzeczywistością i będą stawać się lepsze bardzo szybko".

Muddu Sudhakar, CEO Aisera, firmy zajmującej się generatywną AI dla przedsiębiorstw, powiedział, że istnieje tylko garstka firm skupionych na AGI, takich jak OpenAI i DeepMind (wspierane przez Google), choć mają one "ogromne zasoby finansowe i techniczne".

Mimo to, mają przed sobą długą drogę, aby dojść do AGI.

"Jest tak wiele zadań, których systemy AI nie mogą wykonać, a które ludzie mogą wykonać naturalnie, jak rozumowanie zdroworozsądkowe, wiedza o tym, czym jest fakt i zrozumienie abstrakcyjnych pojęć (takich jak sprawiedliwość, polityka i filozofia)" - powiedział Sudhakar w mailu do Computerworld. "Dla AGI będzie musiało nastąpić wiele przełomów i innowacji. Ale jeśli uda się to osiągnąć, wydaje się, że system ten w większości zastąpiłby człowieka".

"To z pewnością byłoby destrukcyjne i musiałoby być wiele barier ochronnych, aby zapobiec przejęciu pełnej kontroli przez AGI" - powiedział Sudhakar. "Ale na razie jest to prawdopodobnie w odległej przyszłości. Jest to raczej w sferze science fiction".

Nie wszyscy się z tym zgadzają.

Technologia AI i asystenci chatbot mają i będą nadal wprowadzać zmiany w prawie każdej branży. Technologia może zwiększać wydajność i przejmować powtarzalne zadania, pozwalając pracownikom skoncentrować się na ważniejszych zadaniach.

Na przykład duże modele językowe (LLM) - algorytmy zasilające chatboty - mogą przesiać miliony powiadomień, czatów online i wiadomości e-mail, a także znaleźć strony internetowe służące do wyłudzania informacji i potencjalnie złośliwe pliki wykonawcze. Chatboty zasilane LLM mogą pisać eseje, tworzyć kampanie marketingowe i sugerować kod komputerowy, a wszystko to na podstawie prostych podpowiedzi (sugestii) użytkownika.

Chatboty zasilane przez LLM są procesorami języka naturalnego, które w zasadzie przewidują następne słowa po podpowiedzi przez pytanie użytkownika. Tak więc, jeśli użytkownik poprosiłby chatbota o stworzenie wiersza o osobie siedzącej na plaży w Nantucket, AI po prostu połączyłaby słowa, zdania i akapity, które są najlepszymi odpowiedziami na podstawie wcześniejszego szkolenia przez programistów.

Jednak LLM popełnia również wyraźne błędy i może produkować absurdy, w których silniki generujące kolejne słowa schodzą z torów i produkują dziwaczne odpowiedzi.

Jeśli AI oparta na LLM z miliardami regulowanych parametrów może zbłądzić, to o ile większe będzie ryzyko, gdy AI nie będzie już potrzebowała ludzi do uczenia jej i będzie mogła myśleć samodzielnie? Odpowiedź jest bardzo poważna, według Avivah Litan, wiceprezeski i analityczki w Gartner Research.

Litan uważa, że laboratoria zajmujące się rozwojem AI pędzą naprzód z ogromną prędkością bez żadnego nadzoru, co może spowodować, że AGI stanie się niekontrolowana.

Laboratoria AI, jak twierdzi, "ścigają się bez wprowadzenia odpowiednich narzędzi dla użytkowników, aby mogli monitorować, co się dzieje. Myślę, że dzieje się to znacznie szybciej, niż ktokolwiek kiedykolwiek się spodziewał" - powiedziała.

Obecne obawy dotyczą tego, że technologia AI do użytku przez korporacje jest wypuszczana bez narzędzi, których potrzebują użytkownicy, aby określić, czy technologia generuje dokładne lub niedokładne informacje.

"W tej chwili mówimy o wszystkich dobrych postaciach, którzy mają wszystkie te innowacyjne możliwości, ale czarne charaktery też je mają" - powiedziała Litan. "Więc musimy mieć systemy kontrolne i wiedzieć, co jest prawdziwe, a co syntetyczne. I nie możemy polegać na wykrywaniu, musimy mieć uwierzytelnianie treści. W przeciwnym razie dezinformacja będzie się rozprzestrzeniać jak dziki ogień".

Na przykład Microsoft w tym tygodniu uruchomił Security Copilot, który jest oparty na dużym modelu językowym GPT-4 firmy OpenAI. Narzędzie jest chatbotem AI dla ekspertów ds. cyberbezpieczeństwa, który ma im pomóc w szybkim wykrywaniu i reagowaniu na zagrożenia oraz lepszym zrozumieniu ogólnego krajobrazu zagrożeń.

Problem polega na tym, że "ty jako użytkownik musisz wejść i zidentyfikować wszelkie błędy, które popełnia", powiedział Litan. "To jest nie do przyjęcia. Powinni mieć jakiś system punktacji, który mówi, że to wyjście jest prawdopodobnie w 95% prawdziwe, a więc ma 5% szans na błąd. A to ma 10% szansy na błąd. Nie dają ci żadnego wglądu w wydajność, aby zobaczyć, czy jest to coś, czemu możesz zaufać, czy nie".

Większym problemem w niedalekiej przyszłości będzie to, że twórca GPT-4, OpenAI, wypuści wersję obsługującą AGI. W tym momencie może być już za późno na powstrzymanie tej technologii.

Jednym z możliwych rozwiązań, zasugerowała Litan, jest wydanie dwóch modeli dla każdego narzędzia generatywnego AI - jeden do generowania odpowiedzi, drugi do sprawdzania dokładności pierwszego.

"To mogłoby zrobić naprawdę dobrą robotę przy zapewnieniu, czy model wystawia coś, czemu można zaufać", powiedziała. "Nie można oczekiwać, że człowiek przejdzie przez wszystkie te treści i zdecyduje, co jest prawdą, a co nie, ale jeśli dasz im inne modele, które sprawdzają ..., to pozwoliłoby to użytkownikom monitorować wydajność".

W 2022 roku Time doniósł, że OpenAI zlecił usługi niskopłatnym pracownikom w Kenii, aby określić, czy jego GPT LLM produkuje bezpieczne informacje. Pracownicy wynajęci przez Sama, firmę z San Francisco, byli podobno opłacani wynagrodzeniem w wysokości 2 dolarów za godzinę i zobowiązani do przesiania odpowiedzi aplikacji GPT, "które były skłonne do rozprzestrzeniania brutalnych, seksistowskich, a nawet rasistowskich uwag".

"I w ten sposób nas chronicie? Płacąc ludziom 2 dolary za godzinę. To całkowicie nieefektywne i całkowicie niemoralne" - powiedziała Litan.

"Twórcy AI muszą współpracować z politykami, a ci powinni przynajmniej uwzględnić nowe kompetentne organy regulacyjne" - kontynuowała Litan.

Shubham Mishra, współzałożyciel i globalny dyrektor generalny start-upu AI Pixis, uważa, że podczas gdy postęp w jego dziedzinie "nie może i nie powinien się zatrzymać", wezwanie do wstrzymania rozwoju AI jest uzasadnione. Generatywna AI, powiedział, ma moc dezorientowania mas poprzez wprowadzanie propagandy lub "trudnych do rozróżnienia" informacji do domeny publicznej.

Artykuł pochodzi z Computerworld.com

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200