Sprachassistenten können mit einer "Dolphin" Attacke ausgetrickst werden

am

von

in

Sprachassistenten sind heutzutage kaum noch wegzudenken. Egal ob im Smartphone oder zuhause, fast jeder von uns benutzt sie. Doch so sehr sie auch unseren Alltag erleichtern können, so sehr können sie uns auch zum Verhängnis werden.

"Dolphin" Attacke trickst Sprachassistenten aus

Viele Sprachassistenten können so eingestellt werden, dass man sie mit einem bestimmten "Weckruf" aktivieren kann. Das geschieht über befehle wie "Hey Cortana"; "Alexa"; "Hey Siri"; "Ok Google" und ist sehr bequem. Man muss sich dafür lediglich in Hörweite der besagten Assistenten befinden.

Forscher haben nun diesen "Weckruf" als Schwachstelle der Sprachassistenten ausfindig machen und ausnutzen können. Die Sprachbefehle wurden in Ultraschallfrequenzen umgewandelt und mithilfe von Lautsprechern an die Assistenten übermittelt. Diese sind für Menschen unhörbar. Delfine hingegen können sie wahrnehmen, da sie über dieselben Ultraschallfrequenzen miteinander kommunizieren.

Mit dieser Methode, die die Forscher "Dolphin" nennen, ist es möglich die Sprachassistenten kostenpflichtige Telefonnummern wählen und betrügerische Webseiten besuchen zu lassen. Aktuell funktioniert dies aus mehreren Metern Entfernung. Auch das einbinden solcher Frequenzen in YouTube-Videos wäre möglich und bietet neue möglichen für Cyberattacken.

Google und Amazon prüfen den Fall

Kurz nachdem diese Methode bekannt wurde haben Google und Amazon in einer Stellungnahme erklärt, man werde die Fälle überprüfen, da man den Datenschutz und die Sicherheit der Nutzer sehr ernst nehmen würde (an dieser Stelle musste ich mir einen Lachanfall verkneifen). Laut Aussagen der Forscher gehe man davon aus, dass die Firmen diese Schwachstelle schnell schließen werden. Intelligente Lautsprecher könnten Mikrofone verwenden, die Geräusche über 20 Kilohertz herausfiltern, um solch einen Angriff zu verhindern.

Aktuell geht jedoch keine große Gefahr von einer solchen "Dolphin" Attacke aus. Einige Sprachassistenten können auf die Stimme des Besitzers trainiert werden oder aber den Weckruf ganz deaktivieren. Andere hingegen starten Webseiten oder Anrufe nicht ohne eine Bestätigung des Nutzers.

Das alles sind erschreckende Szenarien. Wenn man bedenkt wie viele Nutzer heutzutage einen Amazon Echo oder anderen Sprachassistenten bereits Nutzen, ergeben sich allerhand neuer Möglichkeiten Schaden anzurichten. Man kann nur hoffe, dass die Firmen etwas dagegen unternehmen werden. Auch wenn solche Angriffe erst von Forschern getestet wurden, können sie sehr schnell von Hackern aufgegriffen werden.

Wie steht ihr zu digitalen Sprachassistenten? Nutzt ihr selbst welche? Was tut ihr um euch vor Angriffen zu schützen?

Kommentare

guest
0 Kommentare
Inline Feedbacks
Alle Kommentare anzeigen