Puls cyberbezpieczeństwa. Relacja z konferencji Security First 2023

Tegoroczne wydarzenie zdominowały dwa tematy: zagrożenia związane z wojną oraz upowszechnieniem się generatywnej sztucznej inteligencji. GenAI zabrała nam spod nóg grunt rzeczywistości - już nie wiemy, co jest symulacją. Konferencja odbyła się w formule wirtualnej z wykorzystaniem interaktywnych technologii, co tylko podkreśla wagę bezpieczeństwa IT.

Ideą konferencji Security First jest poszerzanie wiedzy managerów na temat bezpieczeństwa IT. W gronie wysokiej klasy specjalistów wymieniano, jak co roku, informacje i doświadczenia o tym, czy buzzwords z sektora cybersecurity oznaczają prawdziwie dziejącą się na naszych oczach rewolucję czy też są tylko modnymi a pustymi hasłami. Jedną z najistotniejszych kwestii dnia codziennego jest bezpieczeństwo urządzeń i ludzi w świecie cyfrowym. Jeżeli ktoś nie zauważył tego w dobie upowszechnienia się pracy zdalnej, to już wojna w cyberprzestrzeni oraz w rzeczywistości materialnej u naszych granic uświadomiła wszystkim bez wyjątku, że bezpieczeństwo informacji stało się krytycznym czynnikiem dla działania i rozwoju biznesu przedsiębiorstw z niemal każdej branży.

Jako że od blisko roku jesteśmy świadkami jednej z największych rewolucji wskutek upowszechnienia się wynalazku generatywnej sztucznej inteligencji, nie ma już chyba specjalisty IT, który nie zastanawiałby się, jak inteligentna jest generatywna AI na obecnym etapie jej rozwoju, a dla organizacji najważniejsze pytanie, to jakie są luki bezpieczeństwa tej technologii? Na oba te pytania próbował dać najlepszą na dzień dzisiejszy odpowiedź Piotr Ciepiela, Partner i Globalny lider dla bezpieczeństwa Architektury i Nowoczesnych Technologii w EY. Swoje wystąpienie rozpoczął od przypomnienia o tym, że technologia sztucznej inteligencji nie tylko jest silnikiem napędowym nowoczesnych technologii takich jak przemysł 4.0, Smart Cities czy Metaverse, ale również wpływa ona na nasze codzienne decyzje np. za pomocą podpowiedzi popularnych czatów (ChatGPT, Bard oraz integracja tych technologii w rozwiązaniach wielu firm na całym świecie). Jak mówił, obecnie w kontekście sztucznej inteligencji i bezpieczeństwa najpopularniejsze są dwa kierunki myślenia: jak używać AI do „niecnych celów” czyli np. naśladowanie głosu pod Dyrektora Finansowego, żeby zlecić nieautoryzowany przelew albo przeciwnie jak używać AI do szybszego i skuteczniejszego wykrywania cyberataków. Mało jest jednak źródeł na temat podatności samych algorytmów. Mogą one bowiem zostać zmanipulowane, nadużyte czy po prostu oszukane – jak ludzie, bo też są ludzkim wytworem. Ciepiela wymienił 5 istotnych zagrożeń dla technologii AI związanych z cyberbezpieczeństwem:

• zniekształcenia danych (data elusion) - badacze udowodnili, że czasami nawet niewielka, całkowicie niezauważalna dla ludzkiego oka modyfikacja danych wizualnych może zupełnie zmienić wyniki generowane przez model rozpoznawania obrazu;

Zobacz również:

  • Cyberobrona? Mamy w planach

• odwrócenie danych (Data Reversal) - badając zachowanie modelu na podstawie wielu przetwarzanych danych, możliwe jest przeprowadzenie inżynierii wstecznej modelu i pozyskanie użytych do jego wytrenowania danych, które mogą mieć charakter wrażliwy lub poufny.

• kradzież modelu (Model Stealing) - hakerzy mogą przeprowadzić inżynierię wsteczną zachowania modelu i wykorzystać uzyskane w ten sposób informacje do opracowania strategii ataku, która zadziała na dany przypadek. Kluczowe znaczenie ma fakt, że przestępca może korzystać z modelu bez konieczności jego fizycznej kradzieży – może go odtworzyć, po prostu go używając.

• zatruwanie danych (Data Poisoning brak możliwości dokładnego prześledzenia procesu uczenia się modelu prowadzi do sytuacji, w której poprzez zmianę danych wykorzystywanych do szkolenia go, atakujący może zmodyfikować model sztucznej inteligencji.

• wnioskowanie o przynależności (Membership interference) - mając do dyspozycji model uczenia maszynowego i rekord danych, można ustalić, czy dany rekord został wcześniej wykorzystany jako część zbioru danych szkoleniowych.

Nowe zagrożenia wymagają nowych, a przynajmniej udoskonalonych metod walki z nimi. Sztuczna inteligencja to po prostu – przynajmniej na razie – nowe narzędzie. Owszem, cyberprzestępcy je już opanowali. Ten Dziki Zachód starają się ucywilizować organy regulacyjne. Patryk Jóźwik, Account Manager z Cloudflare poświęcił swoją prelekcję skutkom dyrektywy NIS z perspektywy Cloudflare. Przypomnijmy, że Cloudflare jest dostawcą platformy, która m.in. wprowadza warstwę bezpieczeństwa brzegu sieci. Takie rozwiązania to wbudowanie bezpieczeństwa IT w proces nieustającego wzrostu organizacji i wprowadzania innowacji. Na początku i końcu jednak zawsze jest człowiek, a jak zauważyła Irina Artioli , Cyber Protection Evangelist z Artioli, potęga sztucznej inteligencji nie może się równać z siłą ludzkiej głupoty. Jak przystało na głosicielkę dobrej nowiny, pokusiła się o przewidzenie, do jakich niecnych celów może zostać wykorzystana generatywna sztuczna inteligencja w najbliższej przyszłości. Przykładowo, mogą to być: poli-/metamorficzne złośliwe oprogramowanie (wystarczy wydać polecenie AI ę o przepisania bądź stworzenia innej wersję złośliwego oprogramowania dla każdej infekcji), malware samoadaptujące się (tak jak żywy organizm w drodze ewolucji), które będzie zmieniało swoje zachowanie w zależności od sytuacji i napotkanych problemów, a kiedy utknie natrafiwszy np. na CAPTCHA, poprosi człowieka o pomoc. Artioli mówiła też o skutkach upowszechnienia się rozwiązań takich jak uczenie maszynowe czy ChatGPT dla cyberprzestępczości. Generatywna sztuczna inteligencja nie tylko zabrała nam spod nóg grunt rzeczywistości - już nie wiemy, co jest symulacją, lecz działy IT nie mają tyle luksusu co filozofowie. Muszą działać tu i teraz. GenAI to także całkowicie nowe metody ataku cyberprzestępców, których nigdy wcześniej nie widziane, np. RowHammer, a więc tym trudniej się z nimi mierzyć, bo nie mamy wzorców. Tym trudniej je nam zrozumieć, bo ludzki umysł lubi wzorce i heurystyki (i tak, wygrana Deep Blue z Garim Kasparovem była zapowiedzią dzisiejszej technologii. Algorytmy nie były inteligentniejsze od mistrza, po prostu szybciej liczyły i nie oceniały swoich ruchów w kategorii mądrości). Wielu myślicieli obawia się, że sztuczna inteligencja odbierze człowiekowi prymat w ewolucji. Skoro już teraz algorytmy potrafią uczyć się same i samodzielnie korygować swoje zachowanie, to nie można wykluczyć, że pewnego dnia wytrzebią ludzkość. Na razie jednak pozostają narzędziem, choć groźnym. Janusz Mierzejewski z Commvault Systems mówił o perspektywach rozwoju i wykorzystania technologii AI w działaniach zapewniających bezpieczeństwo. Zastanawiał się, jak przechytrzyć przeciwnika przy pomocy strategii dywersji. Proponowana prze zniego cyberdywersja w efekcie minimalizuje ryzyko, gdyż – jak argumentował – po jej zastosowaniu prawdopodobieństwo ataku na obiekt produkcyjny spada liniowo. Pokrótce, strategia ta polega na zastawianiu pułapek na potencjalnych przestępców. Jedna pułapka na jednym obiekcie to 50% redukcji prawdopodobieństwa ataku. Im więcej pułapek, tym ryzyko jest niższe. Podejście to promuje m.in. organizacja non-profit MITRE. Taktyka dywersyjna w bezpieczeństwie IT jest nierozpoznawalna, może imitować całe ekosystemy IT, IoT, OT, czy chmurowe. Jest więc kompleksowa, skalowalna na całą infrastrukturę, elastyczna i nierozpoznawalna. Commvault opracował rozwiązanie ułatwiające biznesowi zastosowanie tej taktyki: jest to kompleksowa architektura ThreatWise, która zawiera prekonfigurowane gotowe do działania pułapki. Threat Wise jest zgodna ze standardami oraz wytycznymi MITRE ATT&CK®. Wspiera wymianę danych wywiadowczych z ekosystemem bezpieczeństwa, trplikuje obiekty sieciowe, dostarcza wzorców wraz z usługą Threat Sensor. Oczywiście, jest już w pełni skonfigurowana i dostępna dla klienta w kilka sekund.

Ważne, by przy wyborze rozwiązania dla naszego biznesu zwrócić uwagę nie tylko na cenę i możliwości, ale i na compliance. Nowe, szczególnie warte uwagi usługi bezpieczeństwa IT dla organizacji, organizatorzy wyselekcjonują już na następną konferencję Security First. Niecierpliwych zapraszamy zawsze do lektury Computerworld.

Organizatorami konferencji Security First tradycyjnie byli Computerworld ISACA Warsaw and Katowice Chapters oraz ISSA Polska. Partnerem strategiczny została firma Cloudflare. Partnerami merytorycznymi - Acronis oraz Commvault. Patronat medialny tak jak przed rokiem objął Instytut Audytorów Wewnętrznych IIA Polska.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200