Sztuczna inteligencja w cyberbezpieczeństwie?

Cztery pytania, które warto zadać, zanim dokonamy wyboru systemu bezpieczeństwa IT opartego o uczenie maszynowe

Arseny Togulev / Unsplash

Nie wszystkie rozwiązania, które oferowane są jako sztuczna inteligencja rzeczywiście są na niej oparte. Moda na AI przyczyniła się do wielu nadużyć, a w połączeniu z wciąż niewystarczającą wiedzą o tym, czym właściwie jest AI, sprawiła, że wiele osób ma problem z wyborem najlepszego dla siebie narzędzia zapewniającego bezpieczeństwo. Christian Putz z Vectra AI podpowiada, na co zwracać uwagę, aby wybrać mądrze.

AI ma problem z PR - a właściwie dwa

Pierwszy problem: termin AI jest obecnie nadużywany na rynku, często wręcz bezmyślnie – szczególnie jeśli chodzi o cyberbezpieczeństwo. W rezultacie hasło sztuczna inteligencja jest używane tak często i tak przypadkowo, że traci swoje znaczenie. Moda na AI przyczyniła się do tego, że na każdym kroku spotykamy się z odniesieniami do „wzmocnionych przez sztuczną inteligencję” lub „zasilanych przez sztuczną inteligencję” rozwiązań bezpieczeństwa, które nie są implementacjami sztucznej inteligencji. Często są to jedynie systemy oparte na regułach: przepływy pracy typu „jeśli to, zrób to”.

Zobacz również:

  • Inteligentna chmura danych
  • Kwanty od OVHCloud dla edukacji

Drugi problem: znaczna część opinii publicznej nie rozumie pojęcia sztucznej inteligencji, co w mediach czyni ją pożywką dla wzbudzania sensacji. Na przykład inżynier Google, Blake Lemoine, zwrócił ostatnio uwagę całego świata, gdy twierdził, że wewnętrzny system generujący chatboty stał się świadomy. Twierdził, że ma „osobowość” i zgłasza obawy o własną śmiertelność. I choć Google szybko zdementował jego twierdzenie, opowieść inżyniera trafiła na podatny grunt wśród wielu osób nie będących ekspertami.

Potęga AI w wykrywaniu zagrożeń

W przypadku cyberbezpieczeństwa, sztuczna inteligencja z pewnością nie jest przystosowana do podejmowania wrogiego działania. Zapewnia natomiast znacznie większą użyteczność niż standardowy prosty, oparty na regułach cyfrowy strażnik. Ten ostatni automatycznie sygnalizuje anomalie bez kontekstu, to znaczy bez świadomości zachodzących wydarzeń poprzedzających lub równoległych.

– Obecnie potrzebujemy uogólnionych możliwości wykrywania zagrożeń, które wykraczają poza wąskie reguły oparte na znanych metodach ataku, potrafiące wydedukować cele atakującego. Potrzebujemy rozwiązań, które skalują się bez utraty wydajności i mogą przygotować się na nieznane jeszcze formy cyberagresji. Sztuczna inteligencja jest niezbędnym narzędziem obronnym w dzisiejszym zestawie narzędzi bezpieczeństwa. – mówi Christian Putz, Country Manager w Vectra AI.

4 pytania, które ujawniają prawdziwą jakość AI

Jak odróżnić dobrą propozycję od złej? Poniższe cztery pytania pomogą zorientować się, ile warta jest propozycja dotycząca AI.

1. Czy oferowana AI skupia się na wykrywaniu nietypowych zachowań czy na wskazywaniu problemów bezpieczeństwa? Produkt, który zajmuje się wykrywaniem ogólnych informacji o anomaliach nie przechodzi testu: nie każda anomalia jest zagrożeniem. Co więcej, nie każde prawdziwe zagrożenie objawia się jako nietypowe zachowanie.

2. Jak i gdzie dostawca wdraża sztuczną inteligencję? Niektórzy wykorzystują sztuczną inteligencję do rozwiązywania problemów peryferyjnych, ale nadal pozostają zależni od starszych technologii, jeśli chodzi o podstawowe funkcje. Im bardziej centralną rolę odgrywa AI, tym większą wartość może zapewnić, np. wykryć operacje atakującego, priorytetyzować wieloetapowe ataki i zarządzać systemem.

3. Czy występuje uzupełniający czynnik ludzki? AI jest tak dobra, jak jej twórcy. Może odzwierciedlać ludzkie przeoczenia, uprzedzenia lub inne ograniczenia. Do projektowania AI niezbędne są wydajne zespoły ze spójną wizją i wysokimi umiejętnościami. Ważne, by specjaliści w dziedzinie analizy danych i badań nad bezpieczeństwem wnosili do tworzenia AI różnorodne umiejętności, od neurobiologii po fizykę, od reagowania na realne incydenty po inżynierię wsteczną.

Gdy AI jest wdrażana u klientów, równie ważny pozostaje czynnik ludzki. AI powinniśmy zawsze traktować jedynie jako pomoc i przewodnika - świadoma decyzja w wielu obszarach nadal należy do człowieka.

4. Czy AI jest przedstawiana jako lekarstwo na wszystko? Jako uniwersalny antybiotyk na wszystkie infekcje w cyberprzestrzeni? Prawdziwa AI nie działa w ten sposób. Zmieniająca się, ewoluująca topografia domen sieciowych - czego przykładem są nowe strategie chmur hybrydowych oraz wzrost liczby dostawców SaaS i PaaS - regularnie stawia nowe wyzwania. Należy zachować ostrożność wobec dostawców, którzy mogą przesadzać w obietnicach dotyczących ich produktów.

Kształt przyszłych zagrożeń jest nieznany. Najlepsza obrona przed nieznanym polega na odpowiednim poziomie doświadczenia, zwinności i gotowości do iteracji.

Identyfikowanie prawdziwej sztucznej inteligencji i jej optymalizacja na potrzeby cyberobrony jest zadaniem bardziej złożonym i pełnym niuansów, niż niektórzy by sobie życzyli. Nie zastąpi ona ani tym bardziej nie odrzuca ludzkiej pomysłowości i osądu. Obecnie jest to jednak najlepsze narzędzie do identyfikowania nowych, trwałych wzorców zagrożeń i odróżniania ich od łagodnych anomalii.

Źródło: vectra.ai

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200