AI jak obosieczny miecz

Krajobraz cyberbezpieczeństwa stale ewoluuje. Ostatnio na ustach całego rynku jest pojawienie się open-source'owych, generatywnych narzędzi sztucznej inteligencji (AI) i potężnych modeli językowych, takich jak ChatGPT i Bard. Technologie sztucznej inteligencji są jednak mieczem obosiecznym – choć mogą pomóc przepracowanym specjalistom ds. cyberbezpieczeństwa poprzez automatyzację i usprawnienie rutynowych zadań, mogą być również wykorzystywane przez cyberprzestępców do automatyzacji i skalowania ataków lub uczynienia ich bardziej przekonującymi.

fot. Pixabay

Spójrzmy najpierw na pozytywny aspekt generatywnego AI i tego, co może wnieść do bezpieczeństwa cyfrowego świata. Przy stale rosnącej liczbie i złożoności cyberzagrożeń narzędzia oparte na sztucznej inteligencji mogą pomóc zespołom ds. cyberbezpieczeństwa.

Jasna strona

„Sztuczna inteligencja może być wykorzystywana do automatyzacji monitorowania i analizy zdarzeń i dzienników związanych z bezpieczeństwem, identyfikowania anomalii w zachowaniu oraz umożliwiania szybszego wykrywania i reagowania na potencjalne zagrożenia. Algorytmy uczenia maszynowego można wyszkolić w celu identyfikowania wzorców wskazujących na złośliwą aktywność, oszczędzając cenny czas specjalistów ds. cyberbezpieczeństwa na badanie i łagodzenie zagrożeń” – mówi Mariusz Politowicz z firmy Marken Systemy Antywirusowe, polskiego dystrybutora oprogramowania Bitdefender.

Zobacz również:

  • Oficjalna premiera modelu Llama 3
  • Sztuczna inteligencja od Apple wymagać może nowych procesorów
  • Blaski i cienie AI

Yihua Liao, szef Działu Sztucznej Inteligencji firmy Netskope zwraca natomiast uwagę, by dobrze zrozumieć, w jaki sposób AI podejmuje decyzje, ponieważ to pozwoli ocenić, czy uzyskiwane wyniki są wiarygodne i spójne. Niektóre modele tworzone przez sztuczną inteligencję mogą być bardzo złożone i trudne do interpretacji, co utrudnia zespołom ds. bezpieczeństwa zrozumienie, w jaki sposób AI dochodzi do swoich wniosków. Wyzwanie to jest jeszcze większe w przypadku generatywnej sztucznej inteligencji, która może tworzyć bardzo złożone i skomplikowane wzorce trudne do zinterpretowania oraz zrozumienia przez człowieka. Jak zaznacza specjalista AI może czasami nieprawidłowo klasyfikować zagrożenia lub anomalne zachowania, co prowadzi do fałszywych alarmów lub przeoczenia prawdziwych zagrożeń. Koszty takich zachowań mogą być znaczne, stanowiąc poważne wyzwanie dla modeli AI. Sztuczna inteligencja ogólnego przeznaczenia, bez specjalnego szkolenia i dostrojenia, może nie spełnić wymaganych standardów dokładności. Systemy AI potrzebują dostępu do dużych ilości danych, aby trenować i ulepszać swoje algorytmy, co rodzi pytania dotyczące prywatności oraz ochrony danych. Jako przykład podał incydent z udziałem pracowników Samsunga, w czasie którego przypadkowo wyciekły tajemnice handlowe za pośrednictwem ChatGPT.

Ciemna strona

Pojawia się coraz więcej głosów wskazujących np. ChatGPT jako „narzędzie chaosu”. Dlaczego? Modele językowe, takie jak ChatGPT, ułatwiły cyberprzestępcom szybkie tworzenie wyrafinowanych, autentycznych wiadomości phishingowych i ataków socjotechnicznych. Ponieważ narzędzia te mogą natychmiast generować konwersacyjny tekst, hakerzy są w stanie w przekonujący sposób naśladować styl komunikacji zaufanych osób lub organizacji, zwiększając w ten sposób skuteczność swoich ataków. Wkrótce cyberprzestępcy prawdopodobnie wykorzystają te modele językowe w połączeniu z obrazami, dźwiękami i klipami wideo generowanymi przez sztuczną inteligencję, aby dalej oszukiwać niczego niepodejrzewających użytkowników sieci, aby udostępniali poufne informacje, zapewniali dostęp do systemów komputerowych lub podejmowali działania, których nie powinni.

„Nie ma wątpliwości, że niektórzy cyberprzestępcy również wykorzystują AI na swoją korzyść. Mogą oni wykorzystywać technologie sztucznej inteligencji do ulepszania swoich strategii ataków i tworzenia bardziej wyrafinowanego złośliwego oprogramowania. Obejmuje to wykorzystanie AI do przyspieszenia procesu wykorzystywania luk w zabezpieczeniach, tworzenia nowego złośliwego oprogramowania i automatyzacji pozyskiwania cennych informacji. Ponadto, cyberprzestępcy mogą wykorzystać narzędzie takie jak ChatGPT do poprawy swoich umiejętności w zakresie socjotechniki. Może ono pomóc im w pisaniu konkretnych tekstów, które byłyby wykorzystywane w e-mailach phishingowych, przekierowując ofiary na złośliwe strony internetowe lub zwabiając je do pobrania załączonego złośliwego oprogramowania. W związku z tym organizacje muszą zachować czujność i przyjąć zaawansowane rozwiązania napędzane przez sztuczną inteligencję, aby wyprzedzić stale ewoluujący krajobraz zagrożeń cybernetycznych” – mówi Yihua Liao z Netskope.

Nie rozpaczać, robić swoje

Generatywne narzędzia sztucznej inteligencji, jak zauważa Mariusz Politowicz z firmy Marken Systemy Antywirusowe umożliwiają cyberprzestępcom skalowanie i automatyzację ataków w stopniu, który wcześniej nie był możliwy. Nawet początkujący cyberprzestępcy mogą korzystać z tych narzędzi, aby ułatwić sobie pisanie złośliwego kodu lub modyfikować istniejące złośliwe oprogramowanie. Chociaż ChatGPT ma pewne zabezpieczenia, aby uniemożliwić użytkownikom generowanie złośliwego oprogramowania lub innych treści w niecnych celach, badacze bezpieczeństwa firmy Bitdefender odkryli, że zabezpieczenia te można stosunkowo łatwo obejść za pomocą odpowiednich technik i wiedzy. Używając generatywnych narzędzi sztucznej inteligencji do usprawniania rozwoju złośliwego oprogramowania i automatyzacji dystrybucji swoich ataków, grupy cyberprzestępcze mogą zwiększyć ich częstotliwość i zarzucić szerszą sieć, aby atakować więcej potencjalnych ofiar.

Kreślenie takich czarnych wizji AI nie ma za zadanie zablokować technologicznego postępu. Nowe zawsze będzie pod uważnym okiem i lupą, będziemy szukać negatywnych aspektów równie intensywnie jak pozytywnych. Ważne, by budować świadomość możliwych scenariuszy i umieć strategię odpowiedzi. „Potencjał sztucznej inteligencji w sferze cyberbezpieczeństwa jest ogromny. Organizacje powinny zaakceptować AI i zainwestować w kompleksowe ramy bezpieczeństwa, które obejmują rozwiązania sztucznej inteligencji. Chociaż sztuczna inteligencja może z pewnością przynieść znaczne korzyści w zakresie bezpieczeństwa cybernetycznego, konieczne jest rozpoznanie i podjęcie potencjalnych wyzwań oraz zagrożeń związanych z jej wykorzystaniem, zwłaszcza w dobie generatywnych rozwiązań, chociażby takich jak ChatGPT” – podsumowuje Yihua Liao.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200