9 sposobów, w jaki hakerzy wykorzystają uczenie maszynowe do przeprowadzania ataków

Algorytmy uczenia maszynowego poprawią rozwiązania bezpieczeństwa, pomagając ludzkim analitykom triażować zagrożenia i szybciej zamykać luki. Z drugiej strony mogą być one również pomocne dla hakerów w przeprowadzaniu większych i bardziej złożonych ataków.

Thinkstock

Uczenie maszynowe i sztuczna inteligencja (AI) stają się podstawową technologią dla niektórych narzędzi wykrywania i reagowania na zagrożenia. Zastosowanie sztucznej inteligencji daje zespołom bezpieczeństwa przewagę.

Jednak niektóre podmioty odpowiedzialne za zagrożenia wykorzystują również uczenie maszynowe i sztuczną inteligencję do zwiększania skali swoich cyberataków, unikania kontroli bezpieczeństwa i znajdowania nowych luk w zabezpieczeniach - wszystko to w niespotykanym dotąd tempie i z niszczycielskimi skutkami. Oto dziewięć najczęstszych sposobów, w jakie napastnicy wykorzystują te technologie.

Zobacz również:

1. Spam, spam, spam, spam

„Obrońcy od dziesięcioleci wykorzystują uczenie maszynowe do wykrywania spamu”, mówi Fernando Montenegro, analityk z firmy Omdia. „Zapobieganie spamowi jest najlepszym początkowym przypadkiem użycia dla uczenia maszynowego”.

Jeśli używany filtr antyspamowy dostarcza powodów, dla których wiadomość e-mail nie przeszła lub generuje jakiś wynik, to atakujący może go wykorzystać do modyfikacji swojego zachowania. Użyliby legalnego narzędzia, aby uczynić swoje własne ataki bardziej skutecznymi. „Jeśli przesyłasz rzeczy wystarczająco często, mógłbyś zrekonstruować, jaki był model, a następnie możesz dopracować swój atak, aby ominąć ten model” – wyjaśnia Montenegro. Nie tylko filtry spamu są podatne na ataki. Każdy dostawca zabezpieczeń, który dostarcza wynik lub jakieś inne dane wyjściowe, może potencjalnie zostać nadużyty. „Nie wszystkie z nich mają ten problem, ale jeśli nie jesteś ostrożny, będą miały użyteczne dane wyjściowe, które ktoś może wykorzystać do złych celów”.

2. Lepsze e-maile phishingowe

Atakujący nie tylko wykorzystują narzędzia bezpieczeństwa uczące się maszynowo, aby sprawdzić, czy ich wiadomości mogą ominąć filtry antyspamowe. Używają również uczenia maszynowego do tworzenia tych e-maili w pierwszej kolejności, mówi Adam Malone, partner EY, Technology Consulting. „Reklamują sprzedaż tych usług na forach przestępczych. Używają ich do generowania lepszych e-maili phishingowych. Do generowania fałszywych person w celu napędzania kampanii oszustw”. Usługi te są w szczególności reklamowane jako wykorzystujące uczenie maszynowe, i prawdopodobnie nie jest to tylko marketing. Zdaniem Malone’a, są zdecydowanie lepsze.

Uczenie maszynowe pozwala atakującym dostosować e-maile phishingowe w kreatywny sposób, tak aby nie pojawiały się one w e-mailach masowych i były zoptymalizowane w celu wywołania zaangażowania -- i kliknięć. Nie zatrzymują się tylko na tekście wiadomości e-mail. AI może być wykorzystana do generowania realistycznie wyglądających zdjęć, profili w mediach społecznościowych i innych materiałów, aby komunikacja wydawała się jak najbardziej uzasadniona.

3. Lepsze odgadywanie haseł

Przestępcy wykorzystują również uczenie maszynowe, aby stać się lepszymi w odgadywaniu haseł, mówi. „Widzieliśmy tego dowody na podstawie częstotliwości i wskaźników sukcesu silników do odgadywania haseł” - mówi Malone. Przestępcy budują lepsze słowniki i włamują się do skradzionych haseł. Wykorzystują również uczenie maszynowe do identyfikacji kontroli bezpieczeństwa, dzięki czemu mogą podejmować mniej prób i odgadywać lepsze hasła oraz zwiększać szanse, że z powodzeniem uzyskają dostęp do systemu.

4. Deep fake

Najbardziej przerażającym zastosowaniem sztucznej inteligencji są narzędzia do deep fake (dosłownie: głębokich podróbek), które mogą generować wideo lub audio trudne do odróżnienia od prawdziwego człowieka. „Możliwość symulowania czyjegoś głosu lub twarzy jest bardzo przydatna przeciwko ludziom” - mówi Montenegro. „Jeśli ktoś udaje, że brzmi jak ja, możesz się na to nabrać”.

W rzeczywistości, w ciągu ostatnich kilku lat upubliczniono kilka głośnych przypadków, w których fałszywe audio kosztowało firmy setki tysięcy - lub miliony - dolarów. „Ludzie otrzymywali telefony od swojego szefa, które były fałszywe” - mówi Murat Kantarcioglu, profesor informatyki na Uniwersytecie w Teksasie.

Coraz częściej oszuści wykorzystują AI do generowania realistycznie wyglądających zdjęć, profili użytkowników i e-maili phishingowych, aby ich wiadomości wydawały się bardziej wiarygodne. To duży biznes. Według FBI, oszustwa typu business email compromise doprowadziły do ponad 43 miliardów dolarów strat od 2016 roku. Jesienią ubiegłego roku w mediach pojawiły się doniesienia o banku w Hongkongu zduplikowanym do przekazania 35 milionów dolarów gangowi przestępczemu, ponieważ urzędnik bankowy otrzymał telefon od dyrektora firmy, z którym wcześniej rozmawiał. Rozpoznał głos, więc autoryzował przelew.

5. Neutralizacja gotowych narzędzi bezpieczeństwa

Wiele popularnych narzędzi bezpieczeństwa używanych obecnie ma wbudowaną jakąś formę sztucznej inteligencji lub uczenia maszynowego. Na przykład narzędzia antywirusowe coraz częściej szukają podejrzanych zachowań poza podstawowymi sygnaturami. „Wszystko, co jest dostępne online, zwłaszcza open source, może zostać wykorzystane przez przestępców” - mówi Kantarcioglu.

Atakujący mogą wykorzystywać te narzędzia nie do obrony przed atakami, ale do podrasowania swojego złośliwego oprogramowania, aż do momentu, gdy będzie ono w stanie uniknąć wykrycia. „Modele AI mają wiele ślepych punktów” - tłumaczy Kantarcioglu. „Możesz być w stanie je zmienić, zmieniając cechy swojego ataku, takie jak ilość wysyłanych pakietów lub które zasoby atakujesz”.

Nie tylko narzędzia bezpieczeństwa napędzane przez AI są wykorzystywane przez atakujących. AI jest częścią wielu różnych technologii. Weźmy na przykład pod uwagę, że użytkownicy często uczą się dostrzegać e-maile phishingowe, szukając błędów gramatycznych. Napędzane przez AI programy sprawdzające gramatykę, takie jak Grammarly, mogą pomóc atakującym poprawić swoje pisanie.

6. Rozpoznanie

Uczenie maszynowe może być wykorzystane do rozpoznania, dzięki czemu atakujący mogą przyjrzeć się wzorcom ruchu, obronie i potencjalnym słabościom swoich celów. Nie jest to łatwe, więc raczej nie jest to coś, w co zaangażowałby się przeciętny cyberprzestępca. „Do korzystania z AI potrzebne są pewne umiejętności, więc uważam, że to zaawansowani aktorzy państwowi będą korzystać z tych technik”, mówi Kantarcioglu .

Jeśli jednak w pewnym momencie technologia zostanie skomercjalizowana i dostarczona jako usługa przez podziemie przestępcze, wówczas może stać się szerzej dostępna. Mogłoby się również zdarzyć, „gdyby państwowy aktor zagrożeń opracował konkretny zestaw narzędzi wykorzystujący uczenie maszynowe i udostępnił go społeczności przestępczej, ale cyberprzestępcy nadal potrzebowaliby pewnego zrozumienia tego, co robi aplikacja uczenia maszynowego i jak ją skutecznie wykorzystać, co tworzy barierę wejścia”, mówi Mellen.

7. Autonomiczni agenci

Jeśli przedsiębiorstwo zauważy, że jest atakowane i odetnie dostęp internetowy do dotkniętych systemów, wówczas złośliwe oprogramowanie może nie być w stanie połączyć się z powrotem do swoich serwerów dowodzenia i kontroli w celu uzyskania instrukcji. „Atakujący mogą chcieć wymyślić inteligentny model, który pozostanie nawet wtedy, gdy nie będą mogli go bezpośrednio kontrolować, dla dłuższej trwałości” - mówi Kantarcioglu. „Ale w przypadku zwykłej cyberprzestępczości uważam, że nie byłoby to super ważne”.

8. „Zatruwanie” AI

Atakujący może oszukać model uczenia maszynowego, karmiąc go nowymi informacjami. „Przeciwnik manipuluje zestawem danych treningowych” - wyjaśnia Alexey Rubtsov, starszy współpracownik badawczy w Global Risk Institute. „Na przykład, celowo je gdzieniegdzie fałszuje, a maszyna uczy się w niewłaściwy sposób”.

Na przykład, porwane konto użytkownika może zalogować się do systemu codziennie o 2 w nocy, aby wykonać niewinną pracę, sprawiając, że system pomyśli, że nie ma nic podejrzanego w pracy o 2 w nocy i zredukuje obręcze bezpieczeństwa, przez które użytkownik musi przeskoczyć.

Jest to podobne do tego, jak chatbot Tay Microsoftu został nauczony bycia rasistą w 2016 roku. To samo podejście można wykorzystać do nauczenia systemu, że określony rodzaj złośliwego oprogramowania jest bezpieczny lub określone zachowania bota są całkowicie normalne.

9. Fuzzing AI

Legalni twórcy oprogramowania i testerzy penetracyjni używają oprogramowania fuzzingowego do generowania losowych przykładowych danych wejściowych w próbie rozbicia aplikacji lub znalezienia luki. Rozbudowane wersje tego oprogramowania wykorzystują uczenie maszynowe do generowania danych wejściowych w bardziej ukierunkowany, zorganizowany sposób, nadając priorytet, na przykład, ciągom tekstowym, które najprawdopodobniej spowodują problemy. To sprawia, że narzędzia do fuzzingu są bardziej przydatne dla przedsiębiorstw, ale również bardziej zabójcze w rękach napastników.

Wszystkie te techniki są powodem, dla którego podstawowa higiena cyberbezpieczeństwa, taka jak łatanie, edukacja antyphishingowa i mikrosegmentacja, nadal jest kluczowa. „I jest to jeden z powodów, dla których obrona w tle jest tak ważna” - mówi Mellen z Forrestera. „Musisz postawić wiele blokad drogowych, a nie tylko jedną rzecz, którą atakujący w końcu wykorzystują przeciwko tobie na swoją korzyść”.

Brak wiedzy specjalistycznej utrzymuje na niskim poziomie wykorzystanie uczenia maszynowego i AI przez aktorów zagrożeń

Inwestowanie w uczenie maszynowe wymaga dużej wiedzy, której obecnie brakuje. Ponadto, zazwyczaj istnieją prostsze i łatwiejsze sposoby na włamanie się do przedsiębiorstw, ponieważ wiele podatności pozostaje niezałatanych. „Istnieje wiele nisko wiszących owoców i wiele innych sposobów na zarabianie pieniędzy bez konieczności używania uczenia maszynowego i AI do tworzenia ataków” - mówi Mellen. I dodaje, „Z mojego doświadczenia wynika, że w zdecydowanej większości przypadków nie robią z tego użytku”. Ponieważ przedsiębiorstwa poprawiają swoje obrony, a przestępcy i państwa narodowe nadal inwestują w swoje ataki, ta równowaga może wkrótce zacząć się zmieniać.

Źródło: CSO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200