Unhörbare Befehle

Forscher überlisten Sprachassistenten

von - 29.08.2017
Visualisierte Soundwave
Foto: agsandrew / shutterstock.com
Digitale Sprachassistenten wie Amazons Alexa oder auch der Google Assistant lassen sich mit unhörbaren Audio-Signalen manipulieren. Das haben Forscher der Princeton Universität jetzt herausgefunden.
Forschern der Princeton Universität ist es gelungen, mit für den Menschen unhörbaren Schallwellen, digitale Sprachassistenten zu manipulieren. Die Wissenschaftler haben völlig geräuschlose Ultraschallwellen ausgesandt und damit die Mikrophone von Amazons Echo und einem Android-Gerät ausgetrickst (PDF).
Das Video unten demonstriert eindeutig, dass keine hörbaren Sprachsignale ausgesendet werden. Die Sprachassistenten führten trotzdem plötzlich Befehle aus. Die Forscher brachten die Geräte etwa dazu, ein Foto zu schießen, den Flugmodus zu aktivieren, oder den Wetterbericht anzusagen und Artikel zur Einkaufsliste hinzuzufügen.
Die Forscher hatten mit dieser Methode eine 100 prozentige Erfolgsquote bei dem Sprachassistenten eines Android-Smartphones, bei Amazons Alexa gelangen immerhin 80 Prozent der Versuche.

Universität Georgetown nutzt Cocaine-Noodles-Methode

Eine ähnliche Vorgehensweise demonstrierten Forscher von der Universität Georgetown auf der Usenix WOOT 2015. Hierbei wurden die Sprachbefehle allerdings in unverständliche, aber für das menschliche Gehör wahrnehmbare Signale verzerrt.
Die Möglichkeit, digitale Sprachassistenten mit beiden genannten Methoden zu manipulieren, ist der technischen Umsetzung von Spracheingaben geschuldet. Die Mikrophone in solchen Systemen übersetzen jegliche Schallwellen in digitale Signale. Dabei treten stets Verzerrungen auf. Daraus muss der Sprachassistent den gewünschten Befehl herausfiltern. So kann es durchaus vorkommen, dass die Geräte für den Menschen völlig unverständliche, sogenannte "Cocaine Noodles" (PDF) respektive geräuschlose Signale als "Okay Google" oder auch "Alexa" wahrnehmen und entsprechend darauf reagieren.
Ob und wie weit diese Manipulation gelingt, wenn der Sprachassistent mit individueller Stimmerkennung arbeitet, wurde in dem Exposé der Forscher nicht genauer definiert.
Verwandte Themen