Sztuczna inteligencja i deficyt zaufania

Firmy opracowujące technologie bazujące na sztucznej inteligencji zapewniają, że na ich rozwiązaniach skorzystają klienci i społeczeństwo. Przedstawiciele organów władzy legislacyjnej i urzędów regulacyjnych nie wierzą w te zapewnienia. To wnioski z badania „AI Ethics Study”, przeprowadzonego przez EY i The Future Society.

Badanie przeprowadzono na przełomie 2019 i 2020 r. w 55 krajach, wśród 71 legislatorów, regulatorów i doradców w zakresie sztucznej inteligencji oraz 284 firm wykorzystujących tę technologię. EY i The Future Society poprosiły ankietowanych o wskazanie i uporządkowanie najważniejszych zagadnień etycznych w odniesieniu do 12 rozwiązań technologicznych wykorzystujących sztuczną inteligencję.

Jednym z najciekawszych wniosków z badania jest rozdźwięk między postrzeganiem rozwiązań sztucznej inteligencji przez biznes a administrację i organy nadzorcze. 72% firm uczestniczących w badaniu zadeklarowało wykorzystywanie sztucznej inteligencji z korzyścią dla konsumentów i społeczeństwa. Ale druga strona w te zapewnienia w większości nie wierzy – z biznesem zgodziło się tylko 44% przedstawicieli władzy ustawodawczej i urzędów regulacyjnych.

Zobacz również:

„Rozdźwięk między ryzykami dostrzeganymi przez legislatorów i regulatorów a firmami wynika przede wszystkim z innej perspektywy postrzeganych wyzwań” – komentuje Justyna Wilczyńska-Baraniak, lider Zespołu Własności Intelektualnej, Technologii i Danych Osobowych w Kancelaria EY Law. Firmy opracowujące technologie SI koncentrują się przede wszystkich na efektywności i wartości, które niosą dla użytkowników końcowych – im te wskaźniki wyższe, tym lepsza konkurencyjność firmy. A to już bezpośrednio przekłada się na zyski. Administracja i urzędy nie dość, że kierują się w swoich ocenach interesami szerszej grupy odbiorców, a nie tylko biznesu czy branży, to jeszcze w szerszym horyzoncie czasowym. Biznes szuka rozwiązań odpowiadających na obecne wyzwania.

55% przedsiębiorców z firm stosujących technologie sztucznej inteligencji oczekuje powstania jednego zestaw uniwersalnych zasad, na który zgodzi się większość krajów i który będzie łatwy do zaimplementowania, niezależnie od jurysdykcji. Ci, którzy takie ramy mieliby opracować, są sceptyczni – jedynie 21% decydentów oceniło, że takie rozwiązanie mogłoby powstać. Zdecydowana większość, 66%, spodziewa się, że taki zbiór zasad, gdy już powstanie, będzie implementowany w różny sposób przez różne państwa, w zależności od lokalnych uwarunkowań.

60% ankietowanych przedstawicieli sektora prywatnego za znacznie bardziej korzystne uznało stworzenie tych zasad przez samych zainteresowanych, tj. firmy i branże, gdzie technologie sztucznej inteligencji stosowane są na co dzień. Takie podejście okazało się akceptowalne jedynie dla co czwartego ankietowanego z grupy legislatorów i regulatorów. Pokutuje powszechne w biznesie przekonanie, że prawo nie nadąża za rozwojem nowoczesnych technologii, a sztuczna inteligencja jest w tym kontekście zagadnieniem szczególnie trudnym do uregulowania. Jak wynika z badania, 66% decydentów uważa, że regulatorzy nie rozumieją złożoności technologii opartej na sztucznej inteligencji i związanych z nią wyzwań biznesowych.

„Wymarzonym rozwiązaniem byłoby wspólne wypracowywanie rozwiązań zabezpieczających jak najszerszą grupę interesariuszy i beneficjentów sztucznej inteligencji, mających na uwadze potrzeby każdej z nich” – komentuje Justyna Wilczyńska-Baraniak.

Niestety, nawet jeżeli biznes i decydenci zgadzają się co do konieczności wielostronnego podejścia do problematyki sztucznej inteligencji, to tej zgodności brak, gdy trzeba wskazać liderów prac. 38% ankietowanych firm spodziewa się, że będzie to sektor prywatny. Pogląd ten podzieliło zaledwie 6% decydentów.


TOP 200