Sztuczna inteligencja w służbie hakerów

Eksperci prognozują, że przyszłością wojen cybernetycznych będą starcia między maszynami.

Minie wiele lat albo nawet dekad, nim hakerzy zamienią się rolami z maszynami, ale taka wizja przyszłości staje się coraz bardziej realna. Sztuczna inteligencja – technologia, która ma zrewolucjonizować sektor bezpieczeństwa cybernetycznego – może równie dobrze stać się narzędziem hakowania.

Organizatorzy konkursu Cyber Grand Challenge sponsorowanego przez amerykańską agencję obrony DARPA uchylili rąbka tajemnicy, pokazując możliwości sztucznej inteligencji podczas tegorocznej konferencji. Walka toczona między siedmioma superkomputerami miała udowodnić, że maszyny potrafią skutecznie wyszukiwać, wykorzystywać, ale także naprawiać błędy oprogramowania.

Zobacz również:

Teoretycznie rzecz ujmując, rozwiązania sztucznej inteligencji mogą służyć doskonaleniu praktycznie każdego kodu dzięki umiejętności usuwania jego usterek. A to może być łakomy kąsek dla przeciwników. Co by się stało, gdyby możliwości sztucznej inteligencji zostały użyte do niecnych celów? Czy rozwiązania stanowiące o przyszłości cyberbezpieczeństwa mogą także utorować drogę nowym metodom hakowania?

Możliwe zagrożenia

Firmy zajmujące się cyberbezpieczeństwem korzystają z uczenia maszynowego, aby blokować złośliwe oprogramowanie. Wymaga to konstruowania modeli matematycznych opartych na przykładach złośliwych programów, które szacują, czy określona operacja jest standardowa czy nie.

Jednym z przykładów wykorzystania możliwości sztucznej inteligencji przez cyberprzestępców jest skanowanie oprogramowania pod kątem wcześniej nieznanych wad i wykorzystywanie znalezionych luk w bezpieczeństwie w złej wierze. Sztuczna inteligencja ma tę przewagę nad ludźmi, że wykonuje takie operacje z błyskawiczną prędkością i wydajnością dostępną wyłącznie dla maszyn. W tym koszmarnym scenariuszu przyszłości rozwiązania służące do dokonywania włamań w sieci, do tej pory czasochłonne i często kosztowne, mogą stać się tanim, łatwo dostępnym zasobem.

Eksperci zajmujący się zagadnieniami cyberbezpieczeństwa doskonale zdają sobie sprawę z tego zagrożenia, szczególnie w czasach, w których branża technologiczna produkuje już samojezdne auta, wypuszcza coraz bardziej zaawansowane roboty i prezentuje coraz to nowsze formy automatyzacji. „Rozwój technologii zawsze jest nieco przerażający” – przyznaje David Melski, wiceprezes ds. badań w GrammaTech.

To właśnie jego firma zbudowała jeden z superkomputerów uczestniczących w sierpniowych rozgrywkach Cyber Grand Challenge. Obecnie spółka rozważa wykorzystanie opracowanej technologii, by pomagać dostawcom w eliminowaniu błędów w urządzeniach internetu rzeczy lub zwiększaniu bezpieczeństwa przeglądarek internetowych. „Operacje polegające na wykrywaniu luk i słabych punktów mogą działać jak obosieczny miecz” – przestrzega David Melski.

SeMaFOR – Forum Bezpieczeństwa i Audytu IT

Więcej na temat zagadnień związanych z cyberbezpieczeństwem będzie można dowiedzieć się na dziesiątej, jubileuszowej edycji konferencji SeMaFOR – Forum Bezpieczeństwa i Audytu IT.

Eksperci zajmujący się bezpieczeństwem nie mają raczej trudności z wyobrażeniem sobie ciemnej strony wykorzystania technologii – sytuacji, w której rozwiązania sztucznej inteligencji będą w stanie konstruować lub kontrolować potężną broń cybernetyczną. David Melski przywołuje przykład złośliwego robaka komputerowego o nazwie Stuxnet, którego stworzono w celu zakłócenia irańskiego programu jądrowego. Jeśli wyobrazimy sobie, że taki program jak Stuxnet mógłby działać w pełni automatycznie, w głowie natychmiast zapala się czerwona lampka.

Uwolnienie potencjału

„Nie chciałbym nikomu podsuwać pomysłów, ale uważam, że technologie napędzane sztuczną inteligencją, wynajdujące ewentualne luki bezpieczeństwa w internecie, mogą w przyszłości stać się jednym ze stałych elementów rzeczywistości” – mówi Tomer Weingarten, prezes Sentinel One, firmy zajmującej się bezpieczeństwem.

Przestępczość cybernetyczna staje się coraz prostszą i coraz bardziej dostępną usługą. Już dziś można wynająć usługi hakerskie zarządzane za pomocą zgrabnych interfejsów sieciowych i jasnych poleceń, które służą do określenia celów i parametrów ataku.

Przestępczość cybernetyczna staje się coraz prostszą i coraz bardziej dostępną usługą. Już dziś na czarnym rynku można wynająć usługi hakerskie zarządzane za pomocą zgrabnych interfejsów sieciowych i jasnych poleceń, które służą do określenia celów i parametrów ataku.

Tomer Weingarten twierdzi, że tego typu programy mogą ostatecznie zostać wyposażone w rozwiązania sztucznej inteligencji, które będą w stanie zaprojektować kompleksowe strategie ataku, wprowadzić je, a następnie obliczyć koszt jego realizacji. Ludzie będą tylko liczyć zyski i czekać na owoce pracy wykonywanej przez maszyny.

Warto jednak pamiętać, że sztuczna inteligencja to dość szerokie pojęcie. Firmy technologicznie sporo o niej mówią, ale na razie jeszcze żadna z nich nie stworzyła prawdziwie inteligentnego rozwiązania. Oczywiście, branża technologiczna opracowała rozwiązania, które potrafią ogrywać ludzi w szachy, pełnić rolę cyfrowych asystentów, a nawet diagnozować rzadkie przypadki chorobowe. Takie rozwiązania mają jednak niewiele wspólnego z prawdziwą inteligencją.

Firmy zajmujące się cyberbezpieczeństwem, takie jak chociażby Cylance, korzystają z rozwiązań sztucznej inteligencji, a konkretnie uczenia maszynowego, aby blokować złośliwe oprogramowanie. Wymaga to konstruowania modeli matematycznych opartych na przykładach złośliwych programów, które szacują, czy określona operacja wykonywana na komputerze jest standardowa czy nie.

„Ostatecznym wynikiem jest informacja na temat statystycznego prawdopodobieństwa, że dany plik jest dobry albo zły” – mówi Jon Miller, główny badacz w Cylance. Przez ponad 99% czasu praca uczących się maszyn polega na wykrywaniu oprogramowania. „Ciągle dodajemy nowe dane – przykłady złośliwego oprogramowania do naszego modelu. Im więcej mamy danych, tym dokładniejsze są wyniki operacji” – tłumaczy.

Eskalacja

Wadą tego rozwiązania jest to, że korzystanie z technologii uczenia maszynowego jest ciągle drogie. „Wydajemy pół miliona dolarów na same modele komputerowe. To kwota niezbędna do pokrycia kosztów wynajmu w chmurze Amazona, na której uruchamiane są modele” – wyjaśnia Jon Miller.

Każdy, kto zechce wykorzystać technologie sztucznej inteligencji do niecnych celów, prawdopodobnie napotka tę samą barierę wejścia. Ponadto potrzebny jest dostęp do wysoce utalentowanych programistów, którzy będą w stanie takie rozwiązanie stworzyć. Oczywiście, wraz z upływem czasu, koszty nabycia mocy obliczeniowej będą maleć.

Dzień, w którym hakerzy sięgną po rozwiązania sztucznej inteligencji, nadal wydaje się bardzo odległy. Dlaczego jeszcze nie nadszedł? Po prostu nie jest to konieczne.

Dzień, w którym hakerzy sięgną po rozwiązania sztucznej inteligencji, nadal wydaje się bardzo odległy. Dlaczego jeszcze nie nadszedł? Po prostu nie jest to konieczne. Jeśli chcemy włamać się do czyjegoś komputera, wystarczy znać podstawowe błędy powszechnie występujące praktycznie w każdej technologii. Dotychczas wiele włamań nastąpiło po przesłaniu wiadomości elektronicznej typu phising odsyłającej do złośliwego kodu albo go zawierającej. W innych przypadkach ofiary zabezpieczały dostęp słabymi hasłami lub zapominały o aktualizacji oprogramowania do najnowszej wersji, co zawsze ułatwia pracę hakerom.

„Technologie sztucznej inteligencji, takie jak samouczące się maszyny, wykazały pewien potencjał w wykonywaniu podobnych operacji” – twierdzi Justin Fier, dyrektor ds. inteligencji cybernetycznej w firmie Darktrace zajmującej się bezpieczeństwem. Dlatego może to być tylko kwestią czasu, kiedy hakerzy unowocześnią swój arsenał.

Taki obrót sprawy doprowadziłby do prawdziwej wojny między firmami zajmującymi się cyberbezpieczeństwem a hakerami, przy czym na pierwszej linii frontu znalazłaby się sztuczna inteligencja. Zdaniem ekspertów, wszystko wskazuje na to, że zmierzamy ku przyszłości, w której wojna cybernetyczna przybierze formę starcia między maszynami.