Odkryto nową metodę atakowania głosowych asystentów

Informatycy odkryli, że do wielu asystentów głosowych można się włamać używając do tego celu tanich laserów, w tym ogólnie dostępnych urządzeń wskazujących, które emitują tego typu promienie. Jest to możliwe dzięki temu, że asystenci interpretują promienie lasera jako dźwięk.

W skład zespołu wchodzą japońscy (University of Electro-Communications; Tokio) i amerykańscy (University of Michigan) naukowcy. Odkryli oni, że można w ten sposób „rozmawiać” z tak popularnymi asystentami, jak te produkowane przez firmy Google (Google Assistant), Amazon (Alexa) i Apple (Siri), wydając im za pomocą wiązki lasera polecenia np. otwarcia drzwi garażowych czy zamka.

Co ciekawe, ataki takie można przeprowadzać z tych miejsc, z których głos nie dochodzi do mikrofonu (np. stojąc za oknem) Niepokojące jest też to, że źródło promieni laserowych może się znajdować bardzo daleko od atakowanego obiektu (nawet powyżej 100 metrów)

Zobacz również:

Szczególne podatne na tego typu ataki są również tzw. inteligentne głośniki, które korzystają z usług asystenta i w wielu przypadku nie wymagają od użytkownika dodatkowego uwierzytelnienia się. Przetestowali też i potwierdzili, że na ataki takie podatne są takie urządzenia, jak iPhone XR, Samsung Galaxy 9 iGoogle Pixel 2.

Po podaniu tej wiadomości niektóre firmy (w tym Google i Amazon) przystąpiły od razu do testowania swoich rozwiązań chcąc upewnić się, że jest to prawda. Apple nie wydał jeszcze w tej sprawie żadnego komunikatu. Również Facebook, który stosuje technologię firmy Amazon (Alexa) w swoich inteligentnych głośnikach Portal, jak dotąd milczy.


TOP 200