Jak deepfake zwiększa zagrożenia związane z socjotechniką i uwierzytelnianiem oraz co można z tym zrobić

Cyberprzestępcy inwestują w technologię deepfake, aby zwiększyć skuteczność kampanii socjotechnicznych oraz tych mających na celu ominięcie uwierzytelniania. Poniżej przedstawiamy strategie obrony przed najbardziej godnymi uwagi cyberzagrożeniami typu deepfake.

Jak deepfake zwiększa zagrożenia związane z socjotechniką i uwierzytelnianiem oraz co można z tym zrobić

BrownMantis/Pixabay

Technologia deepfake stanowi coraz większe zagrożenie cyberbezpieczeństwa dla organizacji. Cyberprzestępcy inwestują w AI i uczenie maszynowe, aby tworzyć syntetyczne lub zmanipulowane treści cyfrowe (w tym obrazy, wideo, audio i tekst) do wykorzystania w cyberatakach i oszustwach. Treści te mogą realistycznie odtwarzać lub zmieniać wygląd, głos, manieryzmy lub słownictwo w celu oszukania celów zarówno ludzkich, jak i autonomicznych, aby uwierzyły, że to, co widzą, słyszą lub czytają, jest autentyczne i godne zaufania.

W marcu 2021 r. FBI ostrzegło przed rosnącym trendem wykorzystywania przez złośliwych aktorów syntetycznych lub zmanipulowanych treści cyfrowych w celu wywierania wpływu w cyberprzestrzeni i za granicą w rozszerzeniu istniejących kampanii spear phishingowych i socjotechnicznych. Mogą one bowiem mieć poważniejsze i bardziej rozległe skutki ze względu na poziom zaawansowania wykorzystywanych mediów syntetycznych.Organizacje muszą zatem być świadome rosnących cyberzagrożeń typu deepfake i podjąć kroki w celu obrony przed cyberatakami i oszustwami wzmocnionymi przez deepfake.

Zobacz również:

  • Technologia deepfake wkroczyła do kina
  • Cyberprzestępcy nie biorą urlopu - badanie Deloitte
  • 5 błędnych założeń inżynierii społecznej

Cyberprzestępcy stosujący technologię deepfake

- Często mówi się, że pornografia napędza adopcję technologii i to z pewnością było prawdą w przypadku deepfake'ów, gdy pojawiły się po raz pierwszy. Teraz technologia ta zdobywa popularność w innych, mniej pikantnych kręgach - zwłaszcza wśród zorganizowanych grup cyberprzestępczych - mówi CSO Mark Ward, starszy analityk w Information Security Forum. - Ataki oparte na deepfake są obecnie nieliczne, przeprowadzane przez wyspecjalizowane gangi lub te, za którymi stoi państwo, a udokumentowanych udanych zastosowań jest zaledwie kilka - wyjaśnia Ward. - Jednakże, będzie się to rozprzestrzeniać, jak wszystkie takie technologie, wtedy narzędzia, techniki i potencjalne nagrody staną się dobrze znane.

Już teraz okazuje się, że tak właśnie jest na podziemnych i ciemnych forach internetowych, gdzie przestępcy dzielą się know-how i wiedzą na temat deepfake. Badacze VMware odkryli w darknecie tutoriale ilustrujące narzędzia i techniki deepfake, co Rick McElroy, główny strateg ds. cyberbezpieczeństwa, opisuje jako jeden z najnowszych przykładów współpracy podmiotów stanowiących zagrożenie w celu skompromitowania organizacji. - Podmioty stanowiące zagrożenie zwróciły się w stronę ciemnej sieci, aby zaoferować spersonalizowane usługi i samouczki, które zawierają wizualne i dźwiękowe technologie deepfake zaprojektowane w celu obejścia i pokonania zabezpieczeń.

Udoskonalony deepfake znalazł zastosowanie w inżynierii społecznej

Ward przytacza dowody, w tym plotki z darknetu, że technologia deepfake cieszy się rosnącym zainteresowaniem grup przestępczych, które specjalizują się w wyrafinowanej inżynierii społecznej. - Grupy te prowadzą kampanie BEC [business email compromise], które oszukują pracowników działów finansów i księgowości w dużych organizacjach tak, aby wysyłali gotówkę na konta kontrolowane przez oszustów. Narzędzia omawiane obecnie na przestępczych czatach wykorzystują publiczne profile kierownictwa wyższego szczebla chwytając wideo, audio i wpisy na blogach, aby stworzyć przekonujące symulakra. Będą one następnie wykorzystywane do nadania wagi żądaniom szybkiego przeniesienia gotówki lub dokonania płatności, co sprawia, że oszustwo to jest łatwiejsze do popełnienia i trudniejsze do obrony przed nim.

Harman Singh, konsultant zarządzający w Cyphere, zgadza się z powyższym i dodaje, że podszywanie się pod deepfake audio może być szczególnie skuteczne w atakach socjotechnicznych, których celem są dane korporacyjne i dostęp do systemów. - Podszywanie się pod członka zarządu, który jest w podróży lub z dala od biura, aby zresetować hasło lub wykonać czynność, która umożliwia im dostęp do aktywów firmy, to jeden z trików przestępców - mówi Singh, przy czym takie treści zapewniają dodatkową warstwę wiarygodności dzięki możliwości odtworzenia rozpoznawalnych cech, takich jak czyjś akcent i wzorce mowy.

Jak mówi McElroy, tego rodzaju ataki nasiliły się szczególnie, ponieważ cyberprzestępcy wykorzystują przejście na rozproszoną siłę roboczą. - CISO i ich zespoły ds. bezpieczeństwa są obecnie świadkami wykorzystywania deepfake’ów w atakach phishingowych lub w celu narażenia na szwank służbowej poczty elektronicznej i platform takich jak Slack i Microsoft Teams. Kampanie phishingowe za pośrednictwem biznesowych platform komunikacyjnych stanowią idealny mechanizm dostarczania fałszywek, ponieważ organizacje i ich użytkownicy mają do nich bezwarunkowe zaufanie.

Deepfakes zaprojektowane w celu ominięcia uwierzytelniania biometrycznego

Kolejnym ryzykownym trendem deepfake są treści tworzone i wykorzystywane w celu ominięcia weryfikacji biometrycznej. Dane biometryczne, takie jak rozpoznawanie twarzy i głosu, zapewniają dodatkowe warstwy bezpieczeństwa i mogą być wykorzystywane do automatycznego uwierzytelniania tożsamości danej osoby na podstawie jej unikalnych cech. Jednak technologia, która może dokładnie odtworzyć wygląd lub głos danej osoby w celu obejścia takiego uwierzytelnienia, stanowi poważne zagrożenie dla firm, które polegają na niej jako na części strategii zarządzania tożsamością i dostępem, a przestępcy inwestują w nią w obliczu powszechnej pracy zdalnej.

- Początek pandemii i masowe przejście do pracy z dowolnego miejsca spowodowało skokowy przyrost danych audio i wideo, które można wprowadzić do systemu uczenia maszynowego, aby stworzyć przekonujący duplikat - mówi McElroy.

Albert Roux, wiceprezes ds. oszustw w Onfido, dostawcy technologii tożsamości opartej na AI, przyznaje, że deepfakes rzeczywiście stanowią istotne zagrożenie dla uwierzytelniania opartego na biometrii. - Każda organizacja, która wykorzystuje weryfikację tożsamości do prowadzenia swojej działalności i ochrony przed cyberprzestępcami, może być podatna na ataki typu deepfake. Oszuści zwrócili uwagę na niedawne wirusowe filmy, takie jak filmik deepfake z „Toma Cruisem” i popularnych twórców YouTube, takich jak Corridor Digital, zdając sobie sprawę, że te narzędzia do głębokich fałszerstw i biblioteki kodu mogą być wykorzystane do ominięcia kontroli weryfikacji tożsamości online. Kilka darmowych aplikacji open-source ułatwia oszustom, nawet z ograniczoną wiedzą techniczną, generowanie filmów i zdjęć deepfake - dodaje.

Obrona przed cyberzagrożeniami typu deepfake

Bez względu na to, czy jest to manipulacja tekstem, głosem czy wideo, oszuści inwestują w technologię deepfake, aby zniekształcać rzeczywistość cyfrową w celu uzyskania nieuczciwych korzyści, czerpiąc zyski z zamieszania i niepewności. Znajdujemy się w punkcie zwrotnym, w którym wkraczamy w nową rzeczywistość opartą na nieufności i zniekształceniu w rękach atakujących - ostrzega McElroy.

Choć zagrożenia związane z atakami wspomaganymi przez deepfake mogą wydawać się nader poważne, istnieje kilka sposobów obrony, które firmy mogą wykorzystać w walce z nimi. Są to zarówno szkolenia i edukacja, jak i zaawansowane technologie i informacje o zagrożeniach. Wszystkie te środki mają na celu przeciwdziałanie zwiększonemu ryzyku związanemu ze złośliwymi działaniami typu deepfake.

Dla Warda, nauczanie pracowników na temat ataków socjotechnicznych typu deepfake (szczególnie tych, którzy najczęściej są bądź mogą być celem takich ataków) jest istotnym elementem ograniczania ryzyka i zaleca on skupienie się na pracownikach zajmujących stanowiska finansowe. - Ostrzeganie tych pracowników o możliwości wystąpienia ataku i umożliwienie im spowolnienia procesu płatności w przypadku, gdy nabiorą podejrzeń, może bardzo pomóc.

Z punktu widzenia technologii, Ward posiada mistrzowską znajomość rosnącej liczby systemów analitycznych, które mogą zauważyć, kiedy treść wykazuje oznaki manipulacji, które w przeciwnym razie zostałyby przeoczone. - Podobnie, pomocna może być również analiza zagrożeń, która może pokazać, czy dana organizacja jest celem ataku, czy dany sektor jest poddawany kontroli lub czy dana grupa staje się aktywna w tej sferze. Oszustwa typu deepfake wymagają czasu na przygotowanie i wykonanie. To może dać potencjalnym ofiarom wystarczająco dużo czasu na zauważenie znaków ostrzegawczych i podjęcie działań.

Roux dodaje, że skuteczna obrona może być również osiągnięta poprzez randomizację instrukcji, które użytkownicy muszą wykonać, aby uwierzytelnić się podczas korzystania z technologii weryfikacji. - Istnieją tysiące możliwych próśb, których twórcy deepfakes po prostu nie są w stanie przewidzieć, takich jak patrzenie w różnych kierunkach lub czytanie frazy. Użytkownicy, którzy wielokrotnie odpowiadają nieprawidłowo, mogą zostać oflagowani w celu przeprowadzenia dodatkowego dochodzenia, a chociaż deepfakes mogą być manipulowane w czasie rzeczywistym, jakość wideo znacznie się pogarsza, ponieważ wymagana duża moc obliczeniowa nie sprzyja szybkim reakcjom.

Tłum. i oprac. Anna Ładan

Źródło: CSO

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200