Firmy zajmujące się AI podpisują nowe dobrowolne zobowiązania. Chodzi o bezpieczeństwo

Najpierw duże firmy AI wykazały, jak nieodpowiedzialnie i bezwzględnie mogą wykorzystywać algorytmy uczenia maszynowego do generowania zysków finansowych dla członków zarządu i akcjonariuszy. Teraz te same firmy proszą cały świat technologiczny o zaufanie, że będą działać odpowiedzialnie, gdy ostatecznie stworzą faktycznie niebezpieczne modele AI.

AI ma być lepiej zabezpieczona / Fot. Shutterstock.com

AI ma być lepiej zabezpieczona / Fot. Shutterstock.com

Niektóre z najważniejszych firm pracujących z algorytmami i usługami AI podpisały nowe dobrowolne porozumienie, mające na celu promowanie bezpieczeństwa AI, czyniąc ich operacje bardziej przejrzystymi i godnymi zaufania. Porozumienie, wprowadzone przed niedawnym szczytem AI w Seulu, nie zawiera egzekwowalnych środków kontroli nad niebezpiecznymi usługami AI, ale wydaje się wystarczająco dobre, aby zadowolić rządy Wielkiej Brytanii i Korei Południowej.

Porozumienie w sprawie AI

Nowe porozumienie objęło gigantów technologicznych i AI takich jak Microsoft, OpenAI, xAI (Elon Musk i jego przedsięwzięcie Grok), Google, Amazon, Meta oraz chińską firmę Zhipu AI. Wszystkie strony przedstawią i opublikują swoje plany klasyfikacji ryzyka związanego z AI i wydają się gotowe na to, aby powstrzymać się od opracowywania modeli, które mogłyby mieć poważne skutki dla społeczeństwa.

Zobacz również:

Porozumienie stanowi kontynuację wcześniejszych zobowiązań dotyczących bezpieczeństwa AI, zatwierdzonych przez organizacje międzynarodowe i 28 krajów podczas szczytu bezpieczeństwa AI organizowanego przez Wielką Brytanię w listopadzie 2023 r. Te zobowiązania, znane jako Deklaracja z Bletchley, wzywały do międzynarodowej współpracy w zarządzaniu ryzykiem związanym z AI oraz potencjalnej regulacji najpotężniejszych systemów AI (Frontier AI).

Według premiera Wielkiej Brytanii, Rishi Sunaka, nowe zobowiązania powinny zapewnić światu, że największe firmy AI "zapewnią przejrzystość i odpowiedzialność" w swoich planach tworzenia bezpiecznych algorytmów AI. Sunak stwierdził, że porozumienie mogłoby służyć jako nowy globalny standard dla bezpieczeństwa AI, pokazując drogę do czerpania korzyści z tej potężnej, "transformacyjnej technologii".

Firmy AI powinny teraz ustalić progi, po przekroczeniu których systemy Frontier AI mogą stanowić ryzyko, o ile nie zostaną wdrożone odpowiednie środki zaradcze, i opisać, jak te środki zostaną zaimplementowane. Porozumienia podkreślają współpracę i przejrzystość. Według przedstawicieli Wielkiej Brytanii, Deklaracja z Bletchley, która wzywa do międzynarodowej współpracy w zarządzaniu ryzykiem związanym z AI, sprawdziła się dotychczas dobrze, a nowe zobowiązania będą nadal przynosić korzyści.

Aby AI nie wymknęła się spod kontroli

Firmy, którym powierzono ochronę świata przed ryzykiem związanym z AI, to te same organizacje, które wielokrotnie udowodniły, że w ogóle nie powinno się im ufać. Dla przykładu OpenAI, wspierana przez Microsoft, poprosiła aktorkę Scarlett Johansson o pozwolenie na użycie jej głosu dla najnowszego bota ChatGPT, a następnie i tak użyła jej głosu, gdy ta odmówiła.

Badacze również wykazali, że chatboty są niezwykle potężnymi maszynami do rozprzestrzeniania złośliwego oprogramowania, nawet bez modeli "Frontier AI".

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200