(Foto: Soze Soze/Shutterstock)
Siri, Alexa, Cortana: Angriff per Ultraschall
Populäre Sprachassistenten wie Siri, Alexa, Google Now, Samsung S Voice, Huawei Hivoice oder Cortana sind offenbar anfällig für Angriffe im für Menschen nicht hörbaren Ultraschallbereich. Chinesische Sicherheitsforscher von der Uni Zhejiang haben einen als „Delfin-Angriff“ bezeichneten Hack entwickelt, mit dem sie die Sprachassistenten über Befehle im Ultraschallbereich zu bestimmten Aktionen bringen konnten. Ganz so einfach, wie es sich jetzt anhört, ist ein solcher Angriff aber glücklicherweise nicht möglich.

Angriff auf populäre Sprachassistenten wie Siri, Alexa oder Google Now. (Foto: dennizn / Shutterstock.com)
Für den Hack auf Siri, Alexa und Co. haben die Forscher ein Smartphone benutzt, das mit zusätzlicher Hardware im Wert von umgerechnet rund drei US-Dollar aufgerüstet war – dazu gehörten ein kleiner Lautsprecher und ein Verstärker. Theoretisch kann also jeder mit etwas technischem Grundwissen einen solchen Angriff ausführen. Ihren Hack haben die Sicherheitsforscher hier veröffentlicht.
Allerdings ist für eine erfolgreiche Attacke auf die Sprachassistenten physische Nähe zu dem entsprechenden Gerät erforderlich. Denn ein Angreifer müsste die Sprachassistenten über Befehle wie „Alexa, …“ oder „Hey Siri, …“ erst einmal aktivieren, bevor die im Ultraschallbereich übermittelten Anordnungen ausgeführt werden können. Bei einem iPhone oder einer Apple Watch wäre das aber etwa in einem Café oder auf der Straße in einer Menschenmenge durchaus möglich. Die chinesischen Forscher haben es in ihren Versuchen geschafft, dass die Sprachassistenten Anrufe getätigt oder Websites aufgerufen haben. Sogar das Navigationssystem eines Audi sei bei dem Hack manipuliert worden.
Siri und Co.: Sicherheitslücke wegen Nutzerfreundlichkeit?
Das Problem: Die in den Geräten wie Amazons Echo, Computern oder Smartphones verbauten Mikrofone können nicht ohne Weiteres daran gehindert werden, Töne im Ultraschallbereich zu empfangen. Theoretisch wäre es möglich, dass die Sprachassistenten die Ausführung von Befehlen verweigern, die mit Tönen außerhalb des menschlichen Spektrums gegeben werden. Laut den Erkenntnissen der Forscher hat dies aber keine der hinter den populären Sprachassistenten stehende Firma bisher getan. Der Grund könnte darin liegen, dass die Möglichkeit, Ultraschall-Signale empfangen zu können, die Geräte nutzerfreundlicher macht, wie Co.Design erklärt.
Nutzer können sich übrigens relativ einfach vor möglichen „Delfin-Angriffen“ schützen – allerdings auf Kosten der Nutzerfreundlichkeit. Alles, was sie tun müssen, ist, die Always-on-Funktionalität der Sprachassistenten auszuschalten. Bei der Echo-Box und Google Home ist zudem ein Knopf verbaut, mit dem sich das Mikro ausschalten lässt. Siri, Alexa und der Google Assistent würden dann aber nicht mehr auf einen Zuruf reagieren.
Der Artikel beinhaltet bezogen auf die Überschrift keine weitere Information…
z.B wie der „Angriff“ den nun genau vonstatten ging.
Moin :)
Lauter leere Phrasen.
Details zu „gehacked“, „geleaked“ und co. gibts hier schon lange nimmer. Nur noch Clickbaiting.
Fehlt nur noch leicht bekleidetes Nerd-Girl oder so :)
Prinzipiell finde ich Sprachsteuerung interessant. Wers nutzen möchte, bitteschön. Ultraschall über Tiefpass auszufiltern sollte in kommenden Geräten machbar sein, bei den aktuellen kann man evtl. eine Lösung über Software-Equalizer erreichen.
Wer Sprachsteuerung in großer Menschenmenge benutzen möchte, muss immer davon ausgehen, dass jemand „drüber spricht“. Nachdenklich macht allerdings ein geziehlter Angriff in den eigenen vier Wänden. Z.b. Ultraschall Kommando aus TV oder Radio, aber die hören eigentlich bei 18 kHz sicher akustisch auf, denk ich.
Die zusätzlich benötigte Hardware wäre natürlich noch interessant zu kennen, um gegensteuern zu können. Bin aber jetzt ehrlich gesagt zu Faul, die Arbeit des Verfassers zu machen, und dannach zu suchen …
Der Schluss des Satzes „Sogar das Navigationssystem eines“ würde mich noch interessieren.