SI budzi coraz więcej obaw

Do grupy osób i organizacji krytykujących sztuczną inteligencję czy też wręcz nawołujących do tego, aby zabronić stosowania tej technologii przynajmniej w niektórych obszarach, dołączyła ostatnio Organizacja Narodów Zjednoczonych. Krytyczny głos zabrała ostatnio w tej sprawie Michelle Bachelet, która została w 2018 roku powołana na stanowisko Wysokiego Komisarza Narodów Zjednoczonych do spraw Praw Człowieka.

Źródło: Tara Winstead/Pexels

Wzywa ona kraje należące do ONZ do podjęcia kroków mających powstrzymać niekontrolowaną przed nikogo ekspansję tej technologii. Michelle Bachelet uważa iż wszędzie tam, gdzie SI wchodzi w kolizję z uniwersalnymi prawami człowieka, nie powinna być stosowana. Będzie to możliwe według niej dopiero wtedy, gdy pojawią zabezpieczenia przeciwdziałające nadużywaniu SI np. do celów politycznych czy działań dyskryminujących niektóre osoby czy całe grupy społeczne.

Mówiąc o zabezpieczeniach Michelle Bachelet ma na myśli kontrolę nad algorytmami, które są wykorzystywane przez SI do podejmowania decyzji. Algorytmy te są obecnie tak skonstruowane, że nie biorą pod uwagę praw człowieka i w efekcie sztuczna inteligencja podejmuje niejednokrotnie bardzo wątpliwe decyzje, powodując więcej szkód dla obywateli niż korzyści.

Zobacz również:

  • Ponad pół miliona kont Roku w niebezpieczeństwie po ataku
  • ONZ rekrutuje roboty, aby osiągnąć globalne cele rozwoju
  • Musk ostrzega, że ludzkość nie docenia sztucznej inteligencji

Raport opracowany przez ONZ wskazuje, jak SI może wpływać na postrzegania praw człowieka, szczególnie w takich obszarach, jak prywatność, zdrowie, edukacja, swoboda przemieszczania się czy wolność wypowiedzi. Stosowane obecnie algorytmy mogą zagrażać prywatności użytkowników.

Według raportu istnieje kilka sektorów, w których korzystanie z systemów sztucznej inteligencji jest szczególnie niepokojące. SI może np. wpływać na decyzje podejmowane przez organy ścigania, takie jak wydawanie nakazów aresztowania bez uwzględnienia wielu istotnych aspektów, które algorytm nie bierze pod uwagę.

Z kolei w internecie systemy sztucznej inteligencji mogą być wykorzystywane do wspomagania decyzji dotyczących zarządzania treścią, co jest bardzo niebezpieczne ze względu na wolność słowa i wypowiadania się. Istnieje sporo dowodów na to, że wiele modeli SI podejmuje w tej kwestii błędne decyzje, które mogą mieć fatalne skutki. Dlatego istnieje potrzeba systematycznego monitorowania takich wydarzeń.

W raporcie ONZ zwrócono również uwagę w na wykorzystywanie przez państwa algorytmów SI do inwigilowania obywateli. Dlatego należy się zastanowić czy nie należałoby wprowadzić moratorium na stosowanie technologii biometrycznych w przestrzeni publicznej do czasu, gdy pojawią się rozwiązania prawne, które pozwolą weryfikować takie poczynania.

Komisja Europejska opracowała już na początku tego roku stosowny projekt przepisów, które oceniają aplikacje AI, biorąc pod uwagę różne, niesione przez nie poziomy ryzyka. Na pierwszych miejscach tej listy znajdują się aplikacje, których działanie może naruszać podstawowe prawa człowieka i dlatego powinny być zakazane. Wśród tych aplikacji znalazły się te, które identyfikują osoby pojawiające w przestrzeni publicznej, wykorzystujące do tego celu technologie rozpoznawania twarzy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200