UE chce wprowadzić kary za nadużywanie sztucznej inteligencji

Kary byłyby podobne do tych, które dotyczą RODO. Unia Europejska chce, aby wykorzystywanie sztucznej inteligencji było zabronione w celu masowej inwigilacji lub do oceniania zachowań społecznych.

UE chce zapewnić większą prywatność użytkownikom. Tym razem chodzi o AI / Fot. Unsplash.com

UE chce zapewnić większą prywatność użytkownikom. Tym razem chodzi o AI / Fot. Unsplash.com

Unia Europejska zaproponuje nowy zestaw możliwych do wyegzekwowania przepisów. Te ograniczą korzystanie z systemów sztucznej inteligencji (AI), pod groźbą nałożenia wysokich kar, podobnych do tych za naruszenia RODO.

Sprawdź: Python podstawy

Zobacz również:

Zgodnie z propozycjami Komisji Europejskiej, organizacje działające na terenie UE nie będą mogły wykorzystywać AI do masowego nadzoru lub analizowania zachowań społecznych. Systemy stosowane do manipulowania ludzkim zachowaniem, czy wykorzystywania informacji o osobach lub wybranych grupach społecznych również będą zablokowane.

Nowe przepisy miałyby również sprawić, że firmy wykorzystujące systemy identyfikacji biometrycznej będą musiały uzyskać specjalne zezwolenia, jeśli te działają w domenie publicznej. Z kolei aplikacje AI wysokiego ryzyka będą musiały zostać poddane dokładnej inspekcji przed ich wdrożeniem. Przez "aplikacje wysokiego ryzyka" UE rozumie rozwiązania wykorzystujące technologię rozpoznawania twarzy, ale też takie, które stosowane są w sektorze opieki zdrowotnej, transporcie i energetyce.

Jeśli nowe prawo wejdzie w życie, będziemy mieć drugie RODO, ale oczywiście na mniejszą skalę. Państwa członkowskie będą musiały też wyznaczyć organy ocieniające, które zajmą się sprawdzaniem czy poszczególne systemy są odpowiednio zabezpieczone i spełniają wszelkie wymogi (w tym wystarczająco nadzór ludzki). Systemy, które uzyskają zgody, będą odpowiednio oznaczone i otrzymają certyfikat. Certyfikat będzie ważny do 5 lat.

Niezastosowanie się do warunków określonych przez UE będzie skutkować szeregiem kar, w tym kar finansowych do maksymalnie 4% globalnych przychodów przedsiębiorstwa. To właśnie tutaj widoczne jest podobieństwo do RODO.

Zobacz: Home office

Ustawodawcy przewidują też pewne wyjątki. Dotyczą one systemów AI wykorzystywanych do ochrony bezpieczeństwa publicznego, a także tych, które są stosowane wyłącznie do celów wojskowych.


TOP 200