Sophos sprawdziło, czy Polacy boją się sztucznej inteligencji

Jak wynika z badania firmy Sophos, 31% polskich użytkowników mediów społecznościowych używało już takich narzędzi jak ChatGPT i DALL·E 2. 2/3 Polaków uważa, że dane wprowadzane do programów AI mogą zostać niewłaściwie wykorzystane przez właścicieli aplikacji lub cyberprzestępców. Podobny odsetek użytkowników obawia się, że nie będzie w stanie odróżnić treści stworzonych przez człowieka od tych, których autorami są algorytmy.

Źrodło: Sophos

Badanie „Postawy wobec prywatności danych i cyberbezpieczeństwa w odniesieniu do mediów społecznościowych i aktywności w sieci” zostało przeprowadzone przez niezależną agencję badawczą UCE Research w czerwcu 2023 r. na grupie 1000 respondentów. Identyczne badanie na zlecenie firmy Sophos zrealizowano na terenie Czech i Węgier.

Blisko jeden na trzech z badanych Polaków (35% mężczyzn i 28% kobiet) miał styczność z modelem językowym ChatGPT lub generatorem obrazów DALL·E 2. To wynik wyższy niż wśród respondentów z Czech (25%) i Węgier (zaledwie 13%). Blisko połowa respondentów z grupy wiekowej od 18 do 24 lat używała narzędzi AI. Najczęściej korzystają z nich osoby z wyższym wykształceniem (38%), mieszkające w największych polskich miastach (40%) oraz te pracujące w IT (54%), mediach i reklamie (50%), a także kulturze (46%). Wśród najstarszych ankietowanych, mających 55 i więcej lat, 13% posługiwało się sztuczną inteligencją.

Zobacz również:

  • Polacy bezrefleksyjnie ufają technologii?
  • Pishing metodą na e-TOLL. MF i KAS ostrzegają przed próbą wyłudzenia

Badanie jednoznacznie wskazuje, że wraz z wiekiem maleje zainteresowanie tą technologią, rosną za to związane z nią obawy. Aż 67% Polaków korzystających z mediów społecznościowych (75% z najstarszej grupy badanych) niepokoi się, że dane wprowadzane do korzystających z AI aplikacji mogą wpaść w niepowołane ręce. Na takie niebezpieczeństwo wskazują zwłaszcza osoby zatrudnione w administracji publicznej (85%), opiece zdrowotnej (74%), szkolnictwie (74%) oraz finansach i bankowości (72%). Zagrożenia związane z przetwarzaniem przez sztuczną inteligencję poufnych informacji użytkowników dostrzega też 57% ankietowanych Czechów i 44% Węgrów.

„Tworzenie tekstowych wiadomości do złudzenia przypominających te napisane przez człowieka, to tylko jedna z możliwości, jakie oszustom daje sztuczna inteligencja”, – mówi Chester Wisniewski, dyrektor ds. technologii w firmie Sophos. „Należy być podejrzliwym i sprawdzać wszystkie SMS-y i maile, zwłaszcza te z prośbami o dane logowania czy na temat kwestii finansowych. Warto poświęcić kilka chwil, aby upewnić się, z czym faktycznie ma się do czynienia, a w razie wątpliwości prosić o pomoc. To nie paranoja – naprawdę jesteśmy na celowniku cyberprzestępców”.

Człowiek czy AI? Najtrudniejsze pytanie nadchodzących lat

37% respondentów z Polski uważa, że w ciągu najbliższych trzech lat będą w stanie odróżnić dzieło człowieka od treści wygenerowanej przez sztuczną inteligencję. Najbardziej pewni swoich osądów są ankietowani w przedziale wiekowym od 18 do 34 lat (średnio 41%) i pracownicy branży medialnej oraz IT (średnio 51%). Wśród badanych mających powyżej 55 lat takie przekonanie ma tylko co czwarta osoba.

Dla porównania zaledwie 13% wszystkich użytkowników mediów społecznościowych w Czechach wierzy, że w niedalekiej przyszłości dostrzeże różnice między wytworem człowieka a rezultatem pracy AI. Wśród ankietowanych Węgrów odsetek ten wynosi 34%.

Rozmowa z botem

Formą sztucznej inteligencji, z którą często spotykają się Polacy, są również boty-sprzedawcy, z których korzystają m.in. firmy telemarketerskie. Ponad 61% uczestników badania przeprowadzonego przez firmę Sophos twierdzi, że rozpoznało dzwoniący do nich automat. Najczęściej (67%) deklarują to ankietowani w wieku od 18 do 24 lat oraz osoby z wyższym wykształceniem (65%), najrzadziej osoby starsze (54%) i gorzej wykształcone (50%).

Prawie połowa ankietowanych Czechów (48%) i co trzeci Węgier (36%) również deklaruje, że są w stanie poprawnie zidentyfikować, czy rozmawiają z człowiekiem, czy też z botem.

53% respondentów z Polski uważa, że w najbliższej przyszłości wciąż będzie umieć wskazać kto naprawdę znajduje się po drugiej stronie słuchawki. Odpowiedzi „nie wiem” udziela 34% badanych.

„Szybki skok popularności narzędzi AI, w tym chatbotów, wynikać może z ich wysokiej użyteczności i prostoty użycia. Należy jednak pamiętać, że są to technologie stworzone w celu imitowania rozmowy z człowiekiem, a nie dostarczania zweryfikowanej wiedzy. Poczucie obcowania z żywą osobą bywa tak przemożne, szczególnie w połączeniu ze skłonnością niektórych osób do antropomorfizacji (uczłowieczania) sztucznych bytów, że co piąty badany słusznie podaje w wątpliwość swoje możliwości odróżnienia człowieka od bota”, tłumaczy dr Damian Gałuszka, socjolog, adiunkt na Wydziale Humanistycznym AGH, a także członek Laboratorium EduVRLab.

Ekspert badający wpływ technologii cyfrowych na życie społeczne ostrzega też, że gwałtowny rozwój technologii AI ma również ogromny potencjał dezinformacyjny. Dodaje, że najbardziej podatni na nieprawdziwe treści wygenerowane przez AI mogą być ci, którzy deklarują, że bez większych problemów odróżniają boty od ludzi.

Źródło: Sophos

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200