Sztuczna inteligencja w naszym życiu – pytania i odpowiedzi

Na konferencji w MIT Tom Siebel przyznaje, że dostrzega „przerażające” konsekwencje korzystania ze sztucznej inteligencji. Przyznał też, że został poproszony przez urzędników państwowych i wojskowych o stworzenie sztucznej inteligencji do celów, które uważa za nieetyczne. „Myślę, że prowadzimy otwartą, wrogą wojnę z Chinami w zakresie sztucznej inteligencji i nie jestem pewien, czy wygramy”, powiedział.

Tom Siebel na konferencji MIT. Źródło: MIT

Prelegenci, od deweloperów sztucznej inteligencji po kancelarie prawne, zmagali się w tym tygodniu z pytaniami o skuteczność i etykę AI podczas konferencji EmTech Digital organizowanej przez MIT Technology Review. Wśród tych, którzy mieli nieco alarmistyczny pogląd na technologię (i wysiłki regulacyjne mające na celu jej powstrzymanie) był Tom Siebel, CEO C3 AI i założyciel dostawcy CRM Siebel Systems.

Choć wydawałoby się, że Siebel będzie rormawiać o tym, jak firmy mogą przygotować się na nadchodzącą falę przepisów dotyczących sztucznej inteligencji, w swoich wtorkowych komentarzach poruszył różne aspekty debaty na temat generatywnej sztucznej inteligencji, w tym etykę jej używania, jak może ewoluować i dlaczego może być niebezpieczna. Przez około 30 minut redaktor naczelny MIT Technology Review Mat Honan i kilku uczestników konferencji zadawało Siebelowi pytania, zaczynając od tego, jakie są etyczne i nieetyczne zastosowania sztucznej inteligencji. Rozmowa szybko zeszła na temat potencjału sztucznej inteligencji do wyrządzania szkód w skali globalnej, a także prawie niemożliwego zadania ustanowienia barier ochronnych przed jej wykorzystaniem do niezamierzonych i zamierzonych nikczemnych celów.

Zobacz również:

  • Blaski i cienie AI
  • Sztuczna inteligencja wkroczyła do aplikacji Speaking Practice
  • Bing wkroczy do kolejnych przeglądarek

Poniżej publikujemy zredagowane fragmenty tej rozmowy.

[Honan] Czym jest etyczna sztuczna inteligencja, jakie są etyczne zastosowania sztucznej inteligencji, a nawet nieetyczne zastosowania sztucznej inteligencji?

„W ciągu ostatnich 15 lat wydaliśmy kilka miliardów dolarów na zbudowanie stosu oprogramowania, którego używaliśmy do projektowania, rozwijania, dostarczania i obsługi na masową skalę aplikacji do analizy predykcyjnej dla przedsiębiorstw. Jakie są więc zastosowania tych technologii, w których nie sądzę, abyśmy musieli radzić sobie z uprzedzeniami i nie mamy kwestii etycznych?”

„Myślę, że za każdym razem, gdy mamy do czynienia z systemami fizycznymi, mamy do czynienia z ciśnieniem, temperaturą, prędkością, momentem obrotowym, prędkością obrotową. Nie sądzę, byśmy mieli problem z etyką. Na przykład... używamy go w jednym z największych komercyjnych zastosowań sztucznej inteligencji, w obszarze konserwacji predykcyjnej”.

„Niezależnie od tego, czy chodzi o wytwarzanie i dystrybucję energii w sieci energetycznej, czy o konserwację predykcyjną morskich platform wiertniczych, gdzie dane są niezwykle dużymi zbiorami danych, do których docieramy z bardzo dużą prędkością, ... budujemy modele uczenia maszynowego, które będą identyfikować awarie urządzeń, zanim do nich dojdzie - unikając awarii, powiedzmy, morskiej platformy wiertniczej Shell. Koszt tego byłby nieobliczalny. Nie sądzę, by istniały jakiekolwiek kwestie etyczne w takich przypadkach”.

„Za każdym razem, gdy dochodzimy do skrzyżowania sztucznej inteligencji i socjologii, robi się dość ślisko. To jest miejsce, w którym utrwalamy uprzedzenia kulturowe. Mogę podać konkretne przykłady, ale wydaje się, że to było wczoraj - na początku tego roku - że ten biznes wyszedł z generatywnej sztucznej inteligencji. Czy generatywna sztuczna inteligencja jest interesującą technologią? To naprawdę interesująca technologia. Czy te duże modele językowe są ważne? Są niezwykle ważne”.

„Teraz nagle ktoś się obudził i stwierdził, że istnieją sytuacje etyczne związane ze sztuczną inteligencją. To znaczy, ludzie, mieliśmy sytuacje etyczne związane ze sztuczną inteligencją od wielu, wielu lat. Tak się składa, że nie mam w kieszeni smartfona, bo zabrali mi go po drodze, ale co z mediami społecznościowymi? Media społecznościowe mogą być najbardziej destrukcyjnym wynalazkiem w historii ludzkości. I wszyscy o tym wiedzą. Nie potrzebujemy do tego ChatGPT.

Uważam więc, że jest to absolutnie nieetyczne zastosowanie sztucznej inteligencji. Chodzi mi o to, że używamy tych smartfonów w kieszeni każdego, aby manipulować dwoma do trzech miliardów ludzi na poziomie mózgu, gdzie używamy tego do regulowania uwalniania dopaminy. Mamy ludzi uzależnionych od tych technologii. Wiemy, że powoduje to ogromny problem zdrowotny, szczególnie wśród młodych kobiet. Wiemy, że powoduje to samobójstwa, depresję, samotność, problemy z wizerunkiem ciała - udokumentowane. Wiemy, że systemy te są głównym środkiem wymiany w handlu niewolnikami na Bliskim Wschodzie i w Azji. Systemy te kwestionują naszą zdolność do prowadzenia wolnego i otwartego społeczeństwa demokratycznego. Czy ktoś ma z tym problem etyczny? I to są stare rzeczy. Teraz przechodzimy do nowych rzeczy”.

Siebel mówił także o rządowych żądaniach kierowanych do jego firmy. „Gdzie [widziałem] problemy, które zostały nam postawione? OK. Jestem w Waszyngtonie i nie powiem, w czyim biurze ani w jakiej administracji, ale to duże biuro. Wykonujemy dużo pracy w Beltway, w takich kwestiach jak logistyka sporna, konserwacja predykcyjna AI dla aktywów w Siłach Powietrznych Stanów Zjednoczonych, pulpity nawigacyjne dowodzenia i kontroli, co masz, dla SOCOM [Dowództwo Operacji Specjalnych], TransCom [Dowództwo Transportu], Gwardii Narodowej, tego typu rzeczy. I jestem w tym ważnym biurze, a ta osoba przekazuje swoje biuro swojemu cywilnemu doradcy, który jest doktorem psychologii behawioralnej... i zaczyna zadawać mi te coraz bardziej niewygodne pytania. Trzecie pytanie brzmiało: „Tom, czy możemy użyć twojego systemu do identyfikacji ekstremistów w populacji Stanów Zjednoczonych”. Osłupiałem, ‘co to znaczy ekstremista? Może biały chrześcijanin? Powiedziałem więctylko: „Przykro mi, nie czuję się komfortowo z tą rozmową. Rozmawiasz z niewłaściwymi ludźmi. I to nie jest rozmowa, którą chcę prowadzić”. Teraz mam konkurenta, który dokona takiej transakcji w mgnieniu oka”.

„Obecnie, w zakresie, w jakim mamy możliwość wykonywania pracy dla rządu Stanów Zjednoczonych, robimy to. Jestem na spotkaniu - nie z tą administracją - ale z podsekretarzem armii w Kalifornii, a on mówi: „Tom, chcemy użyć twojego systemu do zbudowania opartego na sztucznej inteligencji systemu zasobów ludzkich dla Departamentu Armii”. Powiedziałem: „OK, powiedz mi, jaka jest skala tego systemu”. Sam Departament Armii to około półtora miliona ludzi, a są jeszcze przecież rezerwy. Zapytałem: „Do czego ma służyć ten system?” Powiedział, że będziemy podejmować decyzje o tym, kogo przydzielić do kęsa, a kogo awansować. Odpowiedziałem: „Panie sekretarzu, to naprawdę zły pomysł. Problem polega na tym, że tak, możemy zbudować system i tak, możemy go mieć w skali Departamentu Armii, powiedzmy w ciągu sześciu miesięcy. Problem polega na tym, że w danych mamy coś, co nazywa się uprzedzeniami kulturowymi. Problem polega na tym, że bez względu na to, jakie jest pytanie, odpowiedź będzie brzmiała: biały, mężczyzna, poszedł do West Point”. „W 2020 lub 2021 roku - cokolwiek to było - to po prostu nie będzie działać. Potem będziemy musieli przeczytać o sobie na pierwszej stronie „The New York Times”; potem będziemy musieli zostać zaciągnięci przed Kongres, aby zeznawać, a ja nie pójdę z Tobą”.

„Więc to jest to, co opisałbym jako nieetyczne wykorzystanie sztucznej inteligencji”.

Siebel mówił również o zastosowaniu sztucznej inteligencji w predykcyjnej opiece zdrowotnej. „Porozmawiajmy o jednym, o który jestem szczególnie zaniepokojony. Największym komercyjnym zastosowaniem sztucznej inteligencji – uwaga! - będzie predykcyjna opieka zdrowotna. Nie ma co do tego wątpliwości. W Wielkiej Brytanii realizowany jest obecnie duży projekt, którego wartość może sięgać 400 milionów funtów. W Veterans Administration [USA] realizowany jest projekt o wartości miliarda dolarów. Przykładem medycyny predykcyjnej ... [byłoby] zagregowanie sekwencji genomu i dokumentacji medycznej populacji Wielkiej Brytanii, Stanów Zjednoczonych, Francji lub jakiegokolwiek innego kraju, a następnie zbudowanie modeli uczenia maszynowego, które będą przewidywać z bardzo wysokim poziomem precyzji i przypominać, kto zostanie zdiagnozowany z jaką chorobą w ciągu najbliższych pięciu lat.

„To nie jest tak naprawdę wykrywanie choroby; to jest przewidywanie choroby. Daje nam to możliwość interwencji klinicznej i uniknięcia diagnozy. Co może pójść nie tak? Następnie łączymy to z telefonem komórkowym, dzięki któremu możemy dotrzeć do wcześniej niedocenianych społeczności, a w przyszłości każdy z nas i ile osób ma urządzenia emitujące telemetrię? Arytmia serca, puls, poziom glukozy we krwi, chemikalia we krwi, cokolwiek to może być.

„Mamy te urządzenia dzisiaj i będziemy mieć ich więcej w przyszłości. Będziemy w stanie zapewnić opiekę medyczną w dużej mierze niedocenianym [ludziom]..., więc netto mamy zdrowszą populację, dostarczamy skuteczniejsze leki... po niższych kosztach dla większej populacji. Co może pójść nie tak? Zastanówmy się nad tym. „Kogo obchodzą wcześniej istniejące schorzenia, skoro wiemy, co zostanie zdiagnozowane w ciągu najbliższych pięciu lat. Pomysł, że nie zostanie on wykorzystany do ustalenia stawek - pogódź się z tym, bo tak się stanie.

„Co gorsza, nie ma znaczenia, po której stronie płotu się znajdujesz. Niezależnie od tego, czy wierzysz w jednego dostawcę usług medycznych, czy w quasi-wolnorynkowy system, jaki mamy w Stanach Zjednoczonych. Pomysł, że ten podmiot rządowy lub ta firma z sektora prywatnego będą działać korzystnie, można przezwyciężyć, ponieważ nie będą działać korzystnie. Systemy te będą wykorzystywane do racjonowania opieki zdrowotnej. Będą używane w Stanach Zjednoczonych; będą używane w Wielkiej Brytanii; będą używane w Veterans Administration. Nie wiem, czy uważasz to za niepokojące, ale ja tak”.

„Obecnie racjonujemy opiekę zdrowotną... być może w równie okropny sposób, ale to wydaje mi się szczególnie okropnym zastosowaniem sztucznej inteligencji”.

[Honan] Istnieje projekt ustawy [w Kalifornii], który miałby na celu zwalczanie dyskryminacji algorytmicznej, informowanie konsumentów o tym, że sztuczna inteligencja została wykorzystana w procesie decyzyjnym. W Europie dzieją się też inne rzeczy związane z gromadzeniem danych. Ludzie od dawna mówią o uprzedzeniach algorytmicznych. Czy myślisz, że te kwestie zostaną skutecznie uregulowane, czy też po prostu pozostaną na wolności? Te rzeczy nadchodzą, ale czy uważasz, że nie powinny być regulowane?

„Myślę, że kiedy mamy do czynienia ze sztuczną inteligencją, gdzie jest dzisiaj i dokąd zmierza, mamy do czynienia z czymś niezwykle potężnym. To coś potężniejszego niż silnik parowy. Pamiętajmy, że silnik parowy przyniósł nam rewolucję przemysłową, przyniósł nam I wojnę światową, II wojnę światową, komunizm”.

Generatywna sztuczna inteligencja to naprawdę coś przełomowego. A szkodliwe konsekwencje tego są po prostu przerażające. To sprawia, że orwellowska przyszłość wygląda jak rajski ogród w porównaniu z tym, co może się wydarzyć.

Musimy przedyskutować, jakie są tego konsekwencje. Musimy poradzić sobie z konsekwencjami dla prywatności. Chodzi mi o to, że wkrótce niemożliwe będzie określenie różnicy między fałszywymi wiadomościami a prawdziwymi wiadomościami.

Prowadzenie wolnego i otwartego społeczeństwa demokratycznego może być bardzo trudne. Należy to omówić. Należy to omówić w akademii. Należy to omówić w rządzie.

Propozycje regulacyjne, które widziałem, są trochę szalone. Mamy obecną propozycję, o której wszyscy wiedzą, od starszego senatora z Nowego Jorku [lidera większości w Senacie Chucka Schumera, D-NY], w której zasadniczo utworzymy agencję regulacyjną, która będzie zatwierdzać i regulować algorytmy [AI], zanim zostaną opublikowane. Niech ktoś mi powie w tym pokoju, gdzie wyznaczamy granicę między sztuczną inteligencją a nie sztuczną inteligencją. Nie sądzę, by było nas dwóch, którzy się zgodzą.

Zamierzamy utworzyć coś w rodzaju federalnego stowarzyszenia algorytmów, któremu będziemy przedkładać nasze algorytmy do zatwierdzenia? Ile milionów algorytmów - setki milionów? - jest generowanych w Stanach Zjednoczonych każdego dnia. Zasadniczo zamierzamy kryminalizować naukę. Albo zmusimy całą naukę do opuszczenia Stanów Zjednoczonych. To po prostu porąbane.

Innymi alternatywami są - i nie chcę robić żadnych zdjęć temu facetowi, ponieważ uważam, że może być jednym z najmądrzejszych ludzi na świecie - ale ten pomysł, że zatrzymamy badania na sześć miesięcy? Daj spokój. Zamierzasz wstrzymać badania na MIT na sześć miesięcy? Nie sądzę. Zamierzasz wstrzymać badania w Szanghaju - w Pekinie - na sześć miesięcy? Nie ma mowy.

Po prostu nie słyszałem niczego, co miałoby jakikolwiek sens. Czy musimy prowadzić dialog? Czy te dialogi, które tu prowadzimy, są ważne? Są niezwykle ważne. Musimy wejść do pokoju i musimy się zgodzić; musimy się nie zgodzić; musimy walczyć. Jakiekolwiek są rozwiązania, nie są one łatwe.

(…) czy istnieje powód, dla którego branża powinna przewodzić regulacjom? "Jest taki przypadek, ale obawiam się, że nie mamy zbyt dobrych osiągnięć w tym zakresie; szczegóły można znaleźć na Facebooku. Chciałbym wierzyć, że samoregulacja zadziała, ale władza korumpuje, a władza absolutna korumpuje absolutnie.

To, co wydarzyło się w mediach społecznościowych w ciągu ostatniej dekady, to fakt, że firmy te nie poddały się samoregulacji. Wyrządziły ogromne szkody miliardom ludzi na całym świecie.

Pracuję w służbie zdrowia od dłuższego czasu. Wspomniałeś o przepisach dotyczących sztucznej inteligencji. Różne instytucje opieki zdrowotnej nie rozumieją nawet HIPPA [The Health Insurance Portability and Accountability Act, 1996; prawo federalne w USA]. Jak zamierzamy przenieść regulacje dotyczące sztucznej inteligencji w opiece zdrowotnej?

„Możemy chronić dane. HIPPA była jedną z najlepszych ustaw o ochronie danych. To nie jest trudny problem - być zgodnym z HIPPA”.

[Czy przewidujesz, że C3 AI wdroży generatywną sztuczną inteligencję na... następnej [aplikacji korporacyjnej], która się pojawi i jak to rozwiązać? "Używamy generatywnej sztucznej inteligencji do wstępnie wytrenowanych transformatorów generatywnych i tych dużych modeli językowych do nieoczywistych zastosowań. Używamy jej do fundamentalnej zmiany charakteru interfejsu człowiek-komputer w oprogramowaniu aplikacyjnym dla przedsiębiorstw”.

„W ciągu ostatnich 50 lat, od kart hologramowych IBM po Fortran... przez urządzenia z systemem Windows po komputery PC, jeśli spojrzeć na model iteracji człowiek-komputer dla systemów ERP, systemów CRM, systemów produkcyjnych..., wszystkie są równie okropne i bezużyteczne. Obecnie istnieje interfejs użytkownika, z którego korzysta około trzech miliardów ludzi, a jest nim przeglądarka internetowa. Po raz pierwszy pojawiła się na Uniwersytecie Illinois, a jej najnowszym potomkiem jest strona Google. Każdy wie, jak z niej korzystać. Możemy więc połączyć przeglądarkę internetową z przetwarzaniem języka naturalnego, uczeniem wzmacniającym i generatywną sztuczną inteligencją, aby zasadniczo zmienić naturę modelu interakcji człowiek-komputer dla tych aplikacji korporacyjnych, w których albo wpisujesz, albo ustnie zadajesz pytanie, a ono daje ci odpowiedź. W ten sposób wykorzystujemy generatywną sztuczną inteligencję we wszystkich naszych rozwiązaniach na całym świecie”.

[Honan] Czy masz jakieś poglądy na temat unijnej ustawy o sztucznej inteligencji i chcę pójść jeszcze szerzej. Chiny mają swój własny zestaw przepisów dotyczących sztucznej inteligencji. Jeśli Europa ma swój własny zestaw przepisów, Chiny mają inny. Pensylwania ma inny, Kalifornia również. Jak, jako osoba prowadząca firmę zajmującą się sztuczną inteligencją, próbujesz działać w całym kraju i na arenie międzynarodowej z tą mozaiką [przepisów]?

„Chiny to bardzo prosta kwestia. Nie prowadzimy interesów w Chinach. Kiedy nasze biura zostały oblężone przez chińskie SOE z ich kamerami w 2014, 2015 roku, zdecydowaliśmy się po prostu uciekać, a nie chodzić. Prowadziłem wiele interesów w Chinach w poprzednim życiu i zdecydowałem, że czuję się bardzo komfortowo z tą decyzją. Prowadzę wiele interesów w Europie. Naszym największym klientem jest Shell. Shell realizuje, jak sądzę, około 2 miliardów dolarów rocznie dzięki naszej aplikacji w całym swoim łańcuchu wartości, w tym integracji odnawialnych źródeł energii. Ta konkretna unijna ustawa o sztucznej inteligencji, do której się odnosisz, nie jest mi znana, ale z pewnością znam RODO, z którym jesteśmy zgodni.

[RODO] już powoduje problemy dla OpenAI. Myślę, że we Włoszech wykorzystali to, aby skłonić OpenAI do ustępstw pod względem uzyskiwania informacji z ich systemów. Spójrzmy na suwerenność danych. Niektóre z tych przepisów po prostu kryminalizują zachowanie. W Niemczech obowiązuje ustawa o suwerenności danych. (…) Na przykład Shell [i] nasi europejscy klienci stawiają sprawę bardzo jasno: mówią nam, jakich przepisów mają przestrzegać, a my się do nich stosujemy”.

[Czy myślisz o tym, w jaki sposób możesz wzmocnić pozycję innych osób, które mogą znajdować się w innych pokojach [poza C-suite] i mogą mieć mniejsze doświadczenie, ale lepszą perspektywę niż ty w zakresie etycznej sztucznej inteligencji?

„To bardzo ważne pytanie. Dziś moja firma zatrudnia 1000 osób. Wkrótce będzie ich 10 000 - w Madrycie, Monachium, Muncie i Moline. Zanim zrealizujemy jakikolwiek projekt, siadamy z CEO, CTO, dyrektorem ds. danych oraz przedstawicielem klienta i prowadzimy dyskusję. Czy jest to wykonalne? Czy możemy to rozwiązać? Czy jest to etyczne? Czy istnieje propozycja o wysokiej wartości? Robimy to centralnie. Teraz, gdy mamy 10 000 osób w 29 krajach, nie będziemy w stanie tego zrobić. Jak więc możemy rozdzielić ten proces decyzyjny i nie skończyć z sytuacją, która była swego rodzaju katastrofą, jak Watson [IBM], jeśli to pamiętasz? Miałeś grupę klientów, którzy nie wiedzieli, o co pytają, lub grupę sprzedawców, którzy twierdzili, że bez względu na pytanie odpowiedź brzmi „tak”. I mieli 800 niedziałających systemów na całym świecie. To jest pytanie, przed którym naprawdę stoję, jeśli chodzi o skalowanie mojego przedsiębiorstwa, i jeszcze tego nie rozgryzłem”.

[Omówiłeś wady proponowanych przepisów dotyczących sztucznej inteligencji. Czy znasz jakieś, które byłyby skuteczne? Jak według ciebie wyglądałyby dobre regulacje?

„Myślę, że prawo do bycia zapomnianym to naprawdę dobre miejsce do rozpoczęcia. To wygląda na oczywiste”.

[Mówiłeś o interakcji człowiek-komputer z przeglądarką. Tę samą koncepcję można rozszerzyć na Alexę, Siri i Hi Google w tym sensie, że może to być warstwa głosowo-tekstowa, która zasila, być może, silnik ChatGPT w tle. Jakie jest twoje zdanie na ten temat?

„Mogliśmy to zrobić z naszą pierwszą generacją systemów. Po prostu wyszłoby to trochę hokejowo ze wszystkimi reklamami Alexy. Tak, wiele z nich będzie głosowych. Ale w naszej pierwszej generacji zdecydowaliśmy się... używać tekstu, ponieważ nie było to tak hokejowe. Ale bez wątpienia głos będzie kluczowy”.

Jestem z Presidio Ventures, jesteśmy firmą venture capital. W branży ubezpieczeniowej widzimy, jak wiele przepisów zaczyna się kształtować - w większości są to stosunkowo proste ramy koncentrujące się głównie na przejrzystości - próbując pokazać, w jaki sposób algorytmy obliczyły polisę. Inną rzeczą, którą obserwujemy na poziomie międzynarodowym, jest tworzenie się kilku światów. Dostęp do sztucznej inteligencji związany z Chinami, a następnie dostęp spoza Chin. Widzimy wyłaniający się podobny świat, w którym sztuczna inteligencja jest przedstawiana jako pole bitwy. Widzimy więc naturalną i nienaturalną stymulację do regulacji. Jaki jest twój komentarz na ten temat?

„Rozwijamy dwa różne światy. Myślę, że prowadzimy otwartą, wrogą wojnę z Chinami w zakresie sztucznej inteligencji i nie jestem pewien, czy wygramy. Jeśli chodzi o te oświadczenia dotyczące etycznej sztucznej inteligencji, widzimy na wewnętrznych okładkach wszystkich tych firm, które pozostaną nienazwane... i które [twierdzą, że] nie utrwalają uprzedzeń kulturowych. A potem kolejną rzeczą, którą widzimy w ich produktach, są sieci neuronowe i głębokie uczenie się. Hej chłopaki, oni kłamią. Po prostu kłamią przez zęby i wiedzą, że kłamią na wewnętrznej stronie okładki swojego raportu rocznego. Nie ma nic wytłumaczalnego w deep learning, nic wytłumaczalnego w sieciach neuronowych i nic wytłumaczalnego, gdy... wchodzimy w generatywną sztuczną inteligencję i te duże modele językowe i wstępnie wytrenowane transformatory generatywne. Myślę, że większość tych etycznych stwierdzeń to stek kłamstw”.

Źródło: Computerworld.com

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200