Amazon Alexa mit schwerwiegender Sicherheitslücke – Konzern reagiert
Intelligente Lautsprecher mit integrierten Sprachassistent:innen wie Amazons Alexa, Apples Siri oder dem Google-Assistant können eine Bedrohung für Sicherheit und Privatsphäre darstellen. Forscher:innen ist es etwa gelungen, Befehle per Laserpointern zu geben, die die Geräte ausführten. Außerdem sorgen immer wieder Berichte über Aufnahmen von potenziell sensiblen Gesprächen durch die immer eingeschalteten Mikrofone für Aufsehen. Jetzt konnten Wissenschaftler einen Echo-Lautsprecher mit Alexa dazu bringen, sich selbst Befehle zu geben.
Alexa versus Alexa: Leichterer Angriff möglich
Die Forscher Sergio Esposito und Daniele Sgandurra von der Londoner Royal Holloway University sowie Giampaolo Bella von der Università degli Studi di Catania haben ihren „Alexa versus Alexa“ genannten Hack in einer Studie ausführlich beschrieben. Mit ihrem Hack sei es nicht mehr erforderlich, einen externen Lautsprecher in der Nähe des Zielgeräts zu installieren, was einen Angriff erleichtere. Jetzt sei es lediglich notwendig, ein eigenes Bluetooth-fähiges Gerät in die Nähe eines Echo-Lautsprechers zu bringen und eine Verbindung herzustellen.
Anschließend kann man das Alexa-Gerät dazu bringen, sich – zum Beispiel über ein Text-to-Speech-Programm – selbst Befehle zu erteilen und diese auszuführen, wie Ars Technica berichtet. Dazu müssen die Angreifer:innen in Bluetooth-Reichweite sein. Außerdem spielt ihnen laut den Forschern eine Sicherheitslücke in die Hände, die sie als Full Volume Vulnerability bezeichnen.
Hierbei kann durch den Befehl „Echo, turn off“ die Stummschaltung des Echo-Geräts ausgehebelt werden, die es nach der Aktivierung normalerweise unmöglich macht, dass Alexa sich selbst einen Befehl gibt. Auch für die Herausforderung, dass bei manchen sensiblen Eingaben eine Bestätigung nach einer entsprechenden Nachfrage erforderlich sein sollte, haben die Forscher eine Lösung: Einfach rund sechs Sekunden nach dem Befehl ein „Ja“ anfügen. Der Hack funktioniert mindestens bei allen Echo-Dot-Geräten der dritten und vierten Generation.
Alexa-Hack: Angreifer öffnen Türen
Bei ihren Versuchen ist es den Forschern in 93 Prozent der Fälle gelungen, intelligente Lichter zu steuern. Eine hundertprozentige Erfolgsquote gab es bei Einkäufen unerwünschter Gegenstände via Amazon. Auch kompliziertere Befehle wie das Anrufen einer Telefonnummer, um anschließend die Wohnung abhören zu können, gelangen erschreckend oft. Der Anrufbefehl etwa in 73 Prozent der Versuche. Zudem war die Kontrolle über weitere Smarthome-Geräte möglich. So konnten etwa über entsprechende Befehle an smarte Türöffner Türen geöffnet werden.
Nachtrag vom 7. März 2022: Amazon hat t3n.de folgendes Statement übermitteln lassen:
„Bei Amazon bilden Datenschutz und Datensicherheit die Grundlage für jedes Gerät, jede Funktion und jedes Erlebnis, das wir entwickeln und bereitstellen. Wir schätzen die Arbeit unabhängiger Forscher:innen im Bereich Sicherheit, die uns auf potenzielle Probleme aufmerksam machen, und arbeiten mit ihnen zusammen, um unsere Geräte zu schützen. Wir haben das von den Forscher:innen aufgezeigte Problem der Selbstaktivierung von Alexa Skills aus der Ferne behoben, das durch eine längere Stille aufgrund von „Break Tags“ verursacht wurde, wie die Forscher:innen gezeigt haben. Außerdem haben wir Systeme im Einsatz, um Live-Skills kontinuierlich auf potenziell böswilliges Verhalten zu überwachen, einschließlich stiller Interaktionen. Alle Skills, die wir als anstößig identifizieren, werden während der Zertifizierung blockiert oder schnell deaktiviert, und wir verbessern diese Mechanismen ständig, um unsere Kund:innen weiterhin zu schützen.“