Generatywna sztuczna inteligencja przeraża CISO. Mimo to jej wdrażanie nie zwalnia tempa

Uwzględnienie kwestii bezpieczeństwa na początku każdej dyskusji na temat przyjęcia generatywnej sztucznej inteligencji jest kluczowe, ale dobrą wiadomością jest to, że budżety na wdrożenie AI w cyberbezpieczeństwie rosną.

Shutterstock

Triumfalny marsz generatywnej sztucznej inteligencji nie jest pozbawiony negatywnych konsekwencji, a CISO są szczególnie zaniepokojeni wadami świata opartego na sztucznej inteligencji – takie wnioski płyną z badania opublikowanym w tym tygodniu przez IBM.

Oczekuje się, że generatywna sztuczna inteligencja stworzy szeroką gamę nowych cyberataków w ciągu najbliższych sześciu do 12 miesięcy, twierdzą analitycy IBM, a wyrafinowani źli aktorzy wykorzystają tę technologię do poprawy szybkości, precyzji i skali prób włamań. Eksperci uważają, że największym zagrożeniem są autonomicznie generowane ataki przeprowadzane na dużą skalę, a w dalszej kolejności podszywanie się pod zaufanych użytkowników z wykorzystaniem sztucznej inteligencji i zautomatyzowane tworzenie złośliwego oprogramowania.

Zobacz również:

  • Grupa Medusa zwiększa aktywność ransomware
  • AI w walce z przestępstwami finansowymi

Raport IBM zawiera dane z czterech różnych ankiet związanych ze sztuczną inteligencją, w których wzięło udział 200 dyrektorów biznesowych z USA, pytanych konkretnie o cyberbezpieczeństwo. Prawie połowa z nich - 47% - obawia się, że zastosowanie generatywnej sztucznej inteligencji przez ich firmy doprowadzi do nowych pułapek bezpieczeństwa, podczas gdy praktycznie wszyscy twierdzą, że zwiększa to prawdopodobieństwo naruszenia bezpieczeństwa. Przynajmniej to spowodowało, że budżety na cyberbezpieczeństwo przeznaczone na sztuczną inteligencję wzrosły średnio o 51% w ciągu ostatnich dwóch lat, a według raportu spodziewany jest dalszy wzrost w ciągu najbliższych dwóch lat.

Według Chrisa McCurdy’ego, dyrektora generalnego IBM ds. usług cyberbezpieczeństwa, kontrast między gwałtownym pośpiechem w przyjmowaniu generatywnej sztucznej inteligencji a silnymi obawami dotyczącymi zagrożeń bezpieczeństwa może nie być tak dużym przykładem dysonansu poznawczego, jak niektórzy twierdzą.

Po pierwsze, zauważył, że nie jest to nowy wzorzec - przypomina wczesne dni przetwarzania w chmurze, w których obawy o bezpieczeństwo do pewnego stopnia powstrzymywały adopcję.

„Twierdzę, że istnieje wyraźna różnica, która jest obecnie pomijana, jeśli chodzi o sztuczną inteligencję: z wyjątkiem być może samego Internetu, nigdy wcześniej technologia nie otrzymała takiego poziomu uwagi i kontroli w odniesieniu do bezpieczeństwa”, powiedział McCurdy. Jak podkreślił, na całym świecie powstały think tanki badające implikacje generatywnej sztucznej inteligencji dla bezpieczeństwa IT, i chociaż managerowie najwyższego szczebla muszą się jeszcze wiele nauczyć, organizacje generalnie zmierzają we właściwym kierunku. Innymi słowy, widzimy, że bezpieczeństwo jest kluczową kwestią w tych pierwszych dniach, powiedział McCurdy. Ważne jest, aby zdać sobie sprawę, że pozytywny wpływ generatywnej sztucznej inteligencji na operacje biznesowe może być transformacyjny - dodał. Jeśli bezpieczeństwo, nie mówiąc już o zarządzaniu i zgodności, są częścią rozmowy od samego początku, cyberzagrożenia nie muszą stać na drodze postępu.

„Wiele uwagi poświęca się temu, w jaki sposób sztuczna inteligencja pozytywnie wpłynie na organizacje, ale naszym obowiązkiem jest również rozważenie, jakie zabezpieczenia musimy wprowadzić, aby zapewnić, że modele sztucznej inteligencji, na których polegamy, są godne zaufania i bezpieczne”, powiedział McCurdy.

Źródło: CSO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200