Hakerzy mogą włamać dowolnego asystenta głosowego za pomocą dźwięków, które nie są słyszalne dla danej osoby.

Hakerzy mogą włamać dowolnego asystenta głosowego za pomocą dźwięków, które nie są słyszalne dla danej osoby.

Hakerzy mogą crack asystentów głosowych z dźwiękami, które są nie do odróżnienia od uszu osoby. Takie dźwięki można nadawać w telewizji lub radiu i zamaskować jak zwykle – na przykład śpiew ptaków. Jest to określone w badaniu przeprowadzonym przez Uniwersytet Ruhry, który prowadzi Fast Company.

Luka odkryta przez naukowców należy do klasy krytycznej. Jest to podstawa technologii rozpoznawania mowy, które są osadzone w jednym i wszystkich asystentach głosowych.

Atakujący mogą ukrywać takie dźwięki w muzyce, która jest pobierana lub słuchana w pirackich witrynach, na taśmach wideo lub w dowolnej innej treści zawierającej ścieżkę dźwiękową. Za ich pomocą hakerzy mogą dokonywać zakupów, blokować urządzenia lub całkowicie wyłączać wszystkie elementy inteligentnego domu, w tym alarmy i kamery bezpieczeństwa.

Czytaj także  Eviation obiecuje wyprodukować samochód elektryczny do 2021 roku

Badacze zauważają, że w tej chwili nie byli w stanie wykryć pojedynczego przypadku włamania się przy użyciu tej luki. Jednak, aby go wyeliminować, naukowcy będą musieli ponownie napisać wszystkie algorytmy rozpoznawania mowy, mówi raport.

Wcześniej eksperci z Uniwersytetu Zhejiang znajdowali wrażliwe miejsce dla asystentów głosowych. Za pomocą ultradźwięków byli zmuszani do wykonywania połączeń telefonicznych, pisania wiadomości na portalach społecznościowych i wyłączania usług bezprzewodowych wbrew woli gospodarzy.

Powiązane wiadomości