Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Alexa, Siri und Assistant: Forscher erteilen smarten Lautsprechern heimliche Befehle

(Foto: dpa)

Forschern ist es gelungen, smarte Lautsprecher über für den Menschen nicht hörbare Befehle zu steuern. Alexa, Siri und der Google Assistant reagierten auf die Einflüsterungen.

Einige Besitzer von smarten Lautsprechern wie Amazons Echo, Google Home oder Apples Homepod sind schon in der Vergangenheit Opfer von kleinen Spielereien von TV-Werbern oder Serienmachern geworden. Ein Nachrichtensprecher etwa löste Anfang 2017 aus Versehen eine Massenbestellung von Puppenhäusern aus. Was Forschern aus den USA und China in den vergangenen Monaten gelungen ist, regt aber weniger zum Schmunzeln an.

Die Forscher haben – allerdings unter Laborbedingungen – die Sprachassistenten Alexa, Siri und Assistant mit für das menschliche Ohr nicht hörbaren Befehlen zu Aktionen gebracht. Die Assistenten der smarten Lautsprecher sowie jene in Smartphones haben daraufhin selbstständig Anrufe getätigt oder Websites geöffnet. Gelänge die Technologie in die falschen Hände, so warnt die New York Times, könnten Angreifer damit in smarten Haushalten Türen öffnen, die Heizung steuern oder online Geld überweisen.

Alexa, Siri und Co.: Forscher integrieren unhörbare Befehle in Musik und gesprochenen Text

Die Befehle können laut den Forschern in Musikstücke oder gesprochenen Text integriert werden. Während der Nutzer also beispielsweise der Musik seiner Lieblingsband lauscht oder sich ein spannendes Hörbuch anhört, könnten die Sprachassistenten auf fremden Befehl hin online einkaufen oder die Haustür entsperren.

Amazon, Google und Apple versicherten derweil, dass solche Angriffe per Sprache bei ihren Geräten nicht möglich seien. Apples Homepod etwa führt möglicherweise heikle Befehle wie das Öffnen eines smarten Türschlosses nicht aus. Googles Assistant soll auf unhörbare Sprachkommandos nicht reagieren. Google wie Amazon lassen ihre Sprachassistenten bestimmte Befehle nicht ausführen, wenn diese nicht die Nutzerstimme erkennen.

Apples smarter Lautsprecher Homepod
Apples Homepod kommt in weiß und schwarz. (Foto: Apple)

1 von 10

Im vergangenen Jahr war es chinesischen Forschern gelungen, smarte Lautsprecher über Befehle im Ultraschall-Bereich zu aktivieren. Der sogenannte „Delphin-Angriff“ konnte verwendet werden, um Websites aufzurufen. Noch ist es eher unwahrscheinlich, dass Hacker über solche und ähnliche Angriffsversuche echten Schaden anrichten könnten.

Allerdings warnt der US-Forscher Nicholas Carlini davor, dass Hacker sich der Methoden bemächtigen könnten. Er wolle zeigen, dass solche Attacken möglich seien, andere könnten die Löcher dann stopfen, so Carlini. Eine Ultraschall-Attacke wiederum wäre leicht zu stoppen. Dazu müssten lediglich die Mikrofone der smarten Lautsprecher entsprechend konfiguriert werden.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Finde einen Job, den du liebst