Europarlament przyjął Akt o Sztucznej Inteligencji (AI Act)

14 czerwca w UE uchwalono pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji. To element unijnej strategii cyfrowej UE. Celem są lepsze warunki dla rozwoju i wykorzystania tej innowacyjnej technologii oraz ochrona praw i danych Europejczyków. Przepisy mają zostać zatwierdzone do końca tego roku.

Gerd Altmann/ Pixabay

W ciągu ostatnich kilku lat nastąpił niezwykle przyspieszony rozwój technologii sztucznej inteligencji (przełomem był rok 2017 – początek sieci typu Transformer). Na początku grudnia ub. roku OpenAI wywróciła stolik, udostępniając każdemu i za darmo dostęp do generatywnej sztucznej inteligencji – ChatGPT. Wiemy, że sztuczna inteligencja może przynieść wiele korzyści, takich jak lepsza opieka zdrowotna, bezpieczniejszy i czystszy transport, wydajniejsza produkcja oraz tańsza i bardziej zrównoważona energia, odciążyć nas w pracy, etc. Z drugiej strony, co nie zaskakuje, jej potencjał dostrzegli też przestępcy i ludzie o złych intencjach (są sposoby, by krzywdzić, nie łamiąc prawa). ChatGPT spotkał się z różnymi reakcjami, a we Włoszech np. został zakazany. Jednym z głównych zarzutów wobec chatbota jest naruszanie przez niego praw autorskich. W Polsce badacze z Politechniki Wrocławskiej rozpoczęli projekt Clarin-Pl, będący odpowiedzią na ChatGPT – ma powstać generatywna sztuczna inteligencja dostosowana do języka polskiego. Microsoft, który niedawno zaprezentował rozwiązanie genAI Copilot, podkreśla skupienie na etycznej oraz przestrzegającej prawa stronie rozwiązań sztucznej inteligencji.

Parlament Europejski przyjął projekt „AI Act” stosunkiem głosów 499 za do 28 przeciw (93 osoby się wstrzymały). Odrzucił zaproponowane w ostatniej chwili poprawki Europejskiej Partii Ludowej (EPP), mające dać uprawnienie służbom do prowadzenia inwigilacji biometrycznej z wykorzystaniem sztucznej inteligencji (to coś jak w filmie „Raport mniejszości”). Przedstawiciele EPP chcieli, by możliwe było stosowanie systemów rozpoznających twarze na żywo – na przykład w celu zapobiegania atakom terrorystycznym, ale i represjonowania osób na demonstracjach (z jednej strony tylko w wyjątkowych sytuacjach, z drugiej – na mocy decyzji administracyjnej, a więc bez zgody sądu). Parlament Europejski nie zgodził się na takie działania. Przypomnijmy, ile kontrowersji wzbudzają pojawiające się doniesienia, że stosowane w Chinach systemy AI do rozpoznawania twarzy trenowane są na twarzach represjonowanej mniejszości ujgurskiej.

Zobacz również:

  • Francja chce być championem AI. 500 mln euro na rozwój sektora ML
  • Blaski i cienie AI
  • Duża zmiana - Apple zezwala na tworzenie emulatorów gier

Parlament Europejski chce również ustanowić neutralną technologicznie, jednolitą definicję sztucznej inteligencji, którą można by zastosować do przyszłych systemów sztucznej inteligencji.

W przedmowie przyjętego 14 czerwca Aktu o Sztucznej Inteligencji czytamy: „Sztuczna inteligencja (AI) to szybko rozwijająca się grupa technologii, które mogą przynosić wiele różnych korzyści społeczno-ekonomicznych we wszystkich branżach i obszarach działalności społecznej. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację świadczonych usług, dzięki czemu osiągane wyniki są korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, a przedsiębiorstwa i europejska gospodarka zyskują kluczową przewagę konkurencyjną. Takie działania są szczególnie potrzebne w sektorach o dużym wpływie, w tym w obszarze zmiany klimatu oraz ochrony środowiska i zdrowia, w sektorze publicznym, w obszarze finansów, mobilności, spraw wewnętrznych i rolnictwie. Te same elementy i techniki, które przynoszą korzyści społeczno-ekonomiczne wynikające ze stosowania sztucznej inteligencji, jednocześnie wiążą się również jednak z nowymi rodzajami ryzyka lub niekorzystnymi konsekwencjami odczuwanymi przez osoby fizyczne lub społeczeństwo. W związku z tempem zachodzących zmian technologicznych i w świetle potencjalnych wyzwań UE dąży do wypracowania odpowiednio wyważonego podejścia. W interesie Unii leży utrzymanie wiodącej pozycji UE w zakresie technologii i zapewnienie, aby Europejczycy mogli korzystać z nowych technologii opracowanych i funkcjonujących zgodnie z unijnymi wartościami, prawami podstawowymi i zasadami”.

Priorytetem Parlamentu jest upewnienie się, że systemy sztucznej inteligencji stosowane w UE są bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska. Systemy sztucznej inteligencji powinny być nadzorowane przez ludzi, a nie przez automatyzację, aby zapobiec szkodliwym skutkom.

Teraz rozpoczną się rozmowy z krajami UE w Radzie na temat ostatecznego kształtu ustawy, zanim zacznie ona obowiązywać. Celem jest osiągnięcie porozumienia do końca tego roku. Nie wiadomo, oczywiście, jak do sprawy odniesie się Polska. Tak regulacje unijne komentuje profesor Tomasz Trzciński z IDEAS NCBR, "Regulowanie “rozpędzonego pociągu” ma tę zaletę, że minimalizujemy ryzyko jego rozbicia, ale z drugiej strony będzie poruszał się wolniej niż konkurencyjne połączenia. Wydaje mi się, że kierunek jest dobry, ale ryzyko spowolnienia rozwoju AI w Europie jest znaczące i należy obie te kwestie brać pod uwagę przy wprowadzaniu ewentualnych regulacji. Widać też, że UE nie zamierza uregulować wszystkiego raz na zawsze, bo chce powołać Europejski Urząd ds. Sztucznej Inteligencji na bieżąco śledzący rozwój tej technologii. Mam nadzieję że nie stanie się on “policją AI”, bo taka funkcja byłaby po prostu niemożliwa do zrealizowania - dostęp do modeli i danych jest zbyt rozproszony. Sensownym scenariuszem jest, by urząd sprawował rolę think thanku będącego ciałem doradczym dla rządów".

Już ponad dwa lata temu, w kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze unijne ramy regulacyjne dotyczące sztucznej inteligencji. Zgodnie z nimi systemy sztucznej inteligencji, które mogą być wykorzystywane w różnych zastosowaniach, są analizowane i klasyfikowane zgodnie z poziomem ryzyka, jakie stwarzają dla użytkowników.

W AI Act zaproponowano następującą klasyfikację ryzyka stwarzanego przez AI:

Niedopuszczalne ryzyko - systemy AI o niedopuszczalnym ryzyku to systemy uważane za zagrożenie dla ludzi i będą zakazane. Tutaj należą:

• Kognitywna manipulacja behawioralna ludźmi lub konkretnymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań;

• Ocena społeczna: klasyfikowanie ludzi na podstawie zachowania, statusu społeczno-ekonomicznego lub cech osobistych;

• Systemy identyfikacji biometrycznej w czasie rzeczywistym i na odległość, takie jak rozpoznawanie twarzy.

Niewykluczone, że zostaną dopuszczone wyjątki, np. zdalne systemy identyfikacji biometrycznej „po”, w których identyfikacja następuje po znacznym opóźnieniu, będą dozwolone do ścigania poważnych przestępstw, ale tylko po zatwierdzeniu przez sąd.

Wysokie ryzyko - systemy sztucznej inteligencji, które negatywnie wpływają na bezpieczeństwo lub prawa podstawowe, będą uznawane za obarczone wysokim ryzykiem i zostaną podzielone na dwie kategorie:

1) systemy AI wykorzystywane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. Obejmuje to zabawki, lotnictwo, samochody, urządzenia medyczne i windy.

2) systemy AI należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w bazie danych UE:

• identyfikacja biometryczna i kategoryzacja osób fizycznych

• zarządzanie i obsługa infrastruktury krytycznej

• edukacja i szkolenia zawodowe

• zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia

• dostęp do podstawowych usług prywatnych i publicznych oraz korzystanie z nich

• egzekwowanie prawa

• zarządzanie migracją, azylem i kontrolą graniczną

• pomoc w interpretacji prawnej i stosowaniu prawa.

Wszystkie systemy AI wysokiego ryzyka będą oceniane przed wprowadzeniem na rynek, a także przez cały cykl ich życia.

Ograniczone ryzyko

Systemy AI o ograniczonym ryzyku powinny spełniać minimalne wymagania dotyczące przejrzystości, które pozwoliłyby użytkownikom na podejmowanie świadomych decyzji. Po interakcji z aplikacjami użytkownik może zdecydować, czy chce nadal z nich korzystać. Użytkownicy powinni być świadomi, kiedy wchodzą w interakcję ze sztuczną inteligencją. Obejmuje to systemy sztucznej inteligencji, które generują lub manipulują treściami graficznymi, audio lub wideo, na przykład deepfake.

Wymagania wobec generatywnej sztucznej inteligencji

Generatywna sztuczna inteligencja, taka jak ChatGPT, musiałaby spełniać wymogi przejrzystości:

• Ujawnianie, że treść została wygenerowana przez sztuczną inteligencję.

• zaprojektowanie modelu w taki sposób, aby zapobiec generowaniu nielegalnych treści

• Publikowanie podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia.

Źródło informacji: Parlament Europejski - https://www.europarl.europa.eu/

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200