Odkryto nową metodę atakowania głosowych asystentów

Informatycy odkryli, że do wielu asystentów głosowych można się włamać używając do tego celu tanich laserów, w tym ogólnie dostępnych urządzeń wskazujących, które emitują tego typu promienie. Jest to możliwe dzięki temu, że asystenci interpretują promienie lasera jako dźwięk.

W skład zespołu wchodzą japońscy (University of Electro-Communications; Tokio) i amerykańscy (University of Michigan) naukowcy. Odkryli oni, że można w ten sposób „rozmawiać” z tak popularnymi asystentami, jak te produkowane przez firmy Google (Google Assistant), Amazon (Alexa) i Apple (Siri), wydając im za pomocą wiązki lasera polecenia np. otwarcia drzwi garażowych czy zamka.

Co ciekawe, ataki takie można przeprowadzać z tych miejsc, z których głos nie dochodzi do mikrofonu (np. stojąc za oknem) Niepokojące jest też to, że źródło promieni laserowych może się znajdować bardzo daleko od atakowanego obiektu (nawet powyżej 100 metrów)

Zobacz również:

  • Asystent AI Copilot wkroczył do platformy Azure SQL Database
  • IDC CIO Summit – potencjał drzemiący w algorytmach
  • Microsoft zmodyfikował bezpłatną wersję asystenta AI

Szczególne podatne na tego typu ataki są również tzw. inteligentne głośniki, które korzystają z usług asystenta i w wielu przypadku nie wymagają od użytkownika dodatkowego uwierzytelnienia się. Przetestowali też i potwierdzili, że na ataki takie podatne są takie urządzenia, jak iPhone XR, Samsung Galaxy 9 iGoogle Pixel 2.

Po podaniu tej wiadomości niektóre firmy (w tym Google i Amazon) przystąpiły od razu do testowania swoich rozwiązań chcąc upewnić się, że jest to prawda. Apple nie wydał jeszcze w tej sprawie żadnego komunikatu. Również Facebook, który stosuje technologię firmy Amazon (Alexa) w swoich inteligentnych głośnikach Portal, jak dotąd milczy.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200