Czy prawo ograniczy rozwój sztucznej inteligencji?

W miarę jak generatywna sztuczna inteligencja zaczyna rewolucjonizować przemysł i technologie, rządy na całym świecie próbują opracować regulacje prawne, które umożliwią czerpanie z niej korzyści, ale jednocześnie zminimalizują zagrożenia.

Źródło: Pexels.com, Cottonbro Studio.

Wraz z pojawieniem się na rynku ChatGPT pod koniec 2022 roku gwałtownie zaczęła rosnąć liczba doniesień o wykorzystaniu mechanizmów generatywnej sztucznej inteligencji w praktycznych zastosowaniach. Narzędzia opracowane przez firmę OpenAI zostały powszechnie udostępnione w internecie przez Microsoft. A to dopiero początek, bo podobne usługi wprowadził już Google, a w planach mają je też inne firmy.

Jednocześnie pojawia się coraz więcej niepokojących informacji o możliwościach nieetycznego wykorzystania technologii na przykład do generowania fałszywych informacji wyglądających bardzo prawdopodobnie, prezentowania użytkownikom etycznie wątpliwych sugestii lub działań naruszających prawa autorskie i własności intelektualne.

Zobacz również:

  • Sztuczna inteligencja wkroczyła do aplikacji Speaking Practice
  • Cyfrowa transformacja z AI - co nowego na Google Cloud Next 24
  • Sztuczna inteligencja od Apple wymagać może nowych procesorów

Dlatego też organizacja Future of Life Institute opublikowała list otwarty wzywający do przerwania na jakiś czas rozwoju ChatGPT. List, podpisany obecnie przez ponad 31 000 osób, podkreśla, że potężne systemy sztucznej inteligencji powinny być rozwijane tylko wtedy, gdy można zarządzać ich ryzykiem. "Czy powinniśmy rozwijać nie-ludzkie umysły, a sztuczną inteligencję, która ostatecznie może nas zdominować, przechytrzyć i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?" - zapytano w liście.

Inna organizacja non=profit, Center for AI Safety opublikowała podobny list otwarty, w którym napisano, że sztuczna inteligencja stwarza globalne ryzyko wyginięcia ludzkości na równi z pandemiami i wojną nuklearną. Wśród jego sygnatariuszy znalazło się wielu naukowców i menedżerów zajmujących się sztuczną inteligencją.

W efekcie w wielu krajach pojawiły się inicjatywy mające na celu prawne uregulowanie zasad i wymagań, które powinni spełniać twórcy i dostawcy narzędzi oraz algorytmów sztucznej inteligencji.

Zagrożenia, które już widzimy

Generatywna sztuczna inteligencja to ogólny termin określający zautomatyzowane procesy, które wykorzystują algorytmy do tworzenia, manipulowania lub syntetyzowania danych. Powstają wówczas nie istniejące wcześniej obrazy, teksty lub inne obiekty. Określenie generatywna nawiązuje do biologii, gdzie używane jest w nawiązaniu do rozmnażania.

Jej pojawienie się w domenie publicznej pozwoliło ludziom, którzy wcześniej nie mieli łatwego dostępu do takiej technologii, tworzyć zaawansowanych treści na praktycznie dowolny temat. Ostrzeżenia o zagrożeniach, jakie stwarza rozwój sztucznej inteligencji pojawiają się już od kilkunastu lat, ale dopiero ostatnio nabrały szerokiego rozgłosu. Teraz bowiem nie są tylko futurystycznymi prognozami, a całkiem realną groźbą.

Eksperci zwracają uwagę na zdolność generatywnej sztucznej inteligencji do wzmacniania cyberprzestępczych ataków, możliwość naruszania praw autorskich, prywatności danych, szerzenia dezinformacji i działań prowadzących do dyskryminacji, bo ludzie mogą kodować w algorytmach własne uprzedzenia. Dużym zagrożeniem dla społeczeństwa, jest łatwość, z jaką można tworzyć treści prezentujące fałszywe informacje.

W marcu tego roku firma Goldman Sachs opublikowała raport szacujący, że generatywna sztuczna inteligencja i jej zdolności do automatyzacji zadań może spowodować zniknięcie 300 milionów miejsc pracy na całym świecie. A według raportu Bloomberga, w ciągu pięciu lat trzy na 10 stanowisk pracy w biurach zostanie zastąpione przez sztuczną inteligencję.

Ale prawdopodobnie największym powodem do niepokoju może być to, że generatywna sztuczna inteligencja wykorzystuje mechanizmy samouczenia się, co powoduje, że w miarę pozyskiwania danych ma coraz większe możliwości, a jej twórcy nie wiedzą dokładnie, co się dzieje w systemie. Stąd pojawiają się radykalne opinie, że ludzkość może być tylko przejściową fazą w ewolucji, a systemy sztucznej inteligencji mogą zacząć opracowywać i realizować własne cele, o których ludzie nic obecnie nie wiedzą.

Czy uda się kontrolować rozwój technologii

Niektóre rządy lub organizacje takie, jak Unia Europejska zaczęły przygotowywać przepisy, które mają zapobiec negatywnym skutkom wykorzystania sztucznej inteligencji oraz stworzyć ramy zapewniające, że rozwój technologii będzie kontrolowany.

Istnieją różne podejścia do takich regulacji wynikające z odmiennej polityki, etyki i kultury społeczeństw. Na przykład w USA istnieje niechęć do zbyt daleko idących regulacji, a w Europie jest znacznie silniejsze przekonanie, że dla wspólnego dobra warto wprowadzać nawet restrykcyjne przepisy prawne.

W przypadku regulacji związanych z technologiami, mimo, że prawie każdy kraj może tworzyć własne zasady, to dotąd następowała pewna harmonizacja przepisów głównie między USA, Unią Europejską i większością innych krajów zachodnich. Rzadko zdarzało się, by jakiś element regulacji był sprzeczny z ustawodawstwem innych krajów. Czy uda się utrzymać taką zgodność w przypadku AI?

Jeśli chodzi o regulacje prawne to Stany Zjednoczone wciąż wydają się być na etapie ustalania faktów dotyczących potencjalnych zagrożeń związanych z AI i na razie trudno przewidzieć, kiedy w tym kraju pojawią się odpowiednie regulacje.

Natomiast w Komisji Europejskiej pierwsze dyskusje na temat ustawy regulacyjnej dotyczącej sztucznej inteligencji rozpoczęły się w 2019 r. Od tego czasu opublikowano pierwszy jaj projekt, który zawiera wymogi dotyczące generatywnych modeli sztucznej inteligencji, które mają na celu złagodzenie przewidywalnych zagrożeń dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska oraz demokracji i praworządności.

Proponowane przepisy zabraniają korzystania ze sztucznej inteligencji, gdy mogłaby ona stanowić zagrożenie dla bezpieczeństwa, źródeł utrzymania lub praw człowieka. Poziom restrykcji dotyczących korzystania z technologii jest jednak uzależniony od ryzyka, jakie może ona stanowić dla osób wchodzących z nią w kontakt. Europejska ustawa wejdzie w życie najprawdopodobniej dopiero w 2026 roku.

Z kolei rząd Wielkiej Brytanii zapowiedział, że nie chce się tłumić innowacji i dlatego zamierza wprowadzić regulacje oparte w dużej mierze na istniejących już przepisach i będące mniej rygorystycznymi niż planowana unijna ustawa o sztucznej inteligencji. Ma to na celu zapewnienie Wielkiej Brytanii uzyskanie przewagi konkurencyjnej, ale najprawdopodobniej kosztem poziomu ochrony danych osobowych.

Pierwszym na świecie krajem w którym obowiązują już przepisy dotyczące sztucznej inteligencji są Chiny. Według już wprowadzonych regulacji, firmy zajmujące się sztuczną inteligencją są zobowiązane do przedłożenia rządowi ocen bezpieczeństwa jeszcze przed publicznym udostępnieniem narzędzi, a wszelkie treści generowane przez generatywną sztuczną inteligencję muszą być zgodne z “podstawowymi wartościami” obowiązującymi w tym kraju. Za nieprzestrzeganie przepisów grozi kara grzywny, zawieszenie możliwości świadczenia usług lub wszczęcie postępowania karnego. Chińskie regulacje zostały bardzo krytycznie ocenione, jako zupełnie nie pasujące do standardów obowiązujących w krajach zachodnich.

Niezależnie od tego, jak będą wyglądać ostateczne przepisy prawne, trzeba działać już teraz, bo wraz z rozwojem technologii może się okazać, że nie jesteśmy w stanie wygrać bitwy z zagrożeniami jakie niesie wykorzystanie sztucznej inteligencji do szkodliwych celów.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200