Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Echoleak in M365 Copilot: Warum KI-Agenten sensible Daten preisgeben können

Eine kritische Sicherheitslücke in Microsoft 365 Copilot erlaubte KI-Agenten, per E-Mail sensible Firmendaten offenzulegen. Microsoft hat sie nach fünf Monaten geschlossen. Doch das Problem ist ein grundsätzliches.

Von Christian Weindl
2 Min.
Artikel merken
Anzeige
Anzeige

KI-Agenten wie Microsofts Copilot können durch ihre Software-Architektur enorme Sicherheitslücken generieren. (Foto: Primakov/Shutterstock)

Microsoft hat eine kritische Sicherheitslücke in M365 Copilot geschlossen, die es dem KI-Agenten ermöglichte, ohne Nutzerinteraktion und Mausklick vertrauliche Unternehmensdaten preiszugeben.

Anzeige
Anzeige

Der Fehler entstand durch die Fähigkeit des KI-Agenten, speziell formulierte E-Mails automatisches auszulesen und zu verarbeiten. Sicherheitsforscher von Aim Security entdeckten die als Echoleak bezeichnete Schwachstelle. Um solche Datenlecks künftig zu vermeiden, müssten KI-Agenten grundsätzlich anders arbeiten.

Echoleak: Phishing ohne Mausklick

Copilot basiert auf GPT-4 und ist tief in Office-Anwendungen wie Word, Excel, PowerPoint, Outlook und Teams integriert. Die Software kann innerhalb eines Unternehmensnetzwerks auf persönliche und teils sensible Daten zugreifen.

Anzeige
Anzeige

Die Analyse durch Aim Security begann im Januar 2025. Die Forscher wiesen nach, dass Copilot E-Mails selbstständig liest und Anweisungen interpretiert. Durch gezielt formulierte Nachrichten mit speziell ausgeprägten Links und unauffälligen Anweisungen ließ sich der Agent dazu bringen, Daten aus internen Systemen zu extrahieren. Dabei musste kein angegriffener Nutzer aktiv etwas klicken.

Anders als bei herkömmlichen Phishing-Angriffen war kein Mausklick erforderlich, da die KI die Inhalte automatisch verarbeitete. Obwohl das Zugriffssystem vorsieht, dass jeder Mitarbeiter nur auf eigene Daten zugreift, können auch diese sensible Informationen umfassen und so Angreifern Einblicke ermöglichen.

Microsofts Reaktion auf die Lücke

Microsoft benötigte rund fünf Monate, um das Datenleck zu stopfen. Die Schwachstelle wurde unter CVE-2025-32711 veröffentlicht und im Mai 2025 mit einem Security-Update geschlossen. Nutzer von M365 Copilot müssen nichts weiter unternehmen.

Laut Microsoft diente die Veröffentlichung von Informationen über den Vorfall vor allem der Transparenz. Die lange Reaktionszeit dürfte wahrscheinlich an der neuartigen Natur dieser Lücke gelegen haben.

Anzeige
Anzeige

Microsoft hat inzwischen zusätzliche tiefgreifende Verteidigungsmaßnahmen angekündigt, um die Sicherheit weiter zu stärken.

Fundamentales Risiko von KI-Agenten

Adir Gruss, Mitgründer und Technikvorstand von Aim Security, warnt im Magazin Fortune, dass Echoleak auch andere KI-Agenten betreffen könnte, etwa Anthropics MCP oder Salesforce Agentforce.

Er sieht den grundlegenden Designfehler darin, dass Agenten vertrauenswürdige Befehle und unzuverlässige Daten im selben „Denkprozess“ mischen, was Manipulation erleichtert. Er zieht einen Vergleich zu Software-Sicherheitslücken der 1990er-Jahre.

Anzeige
Anzeige

Unternehmen, die KI-Agenten integrieren, sollten Architekturen mit klarer Trennung zwischen vertrauenswürdigen Befehlen und externen Daten implementieren sowie strikte Validierung und Least-Privilege-Prinzipien einführen, um Manipulation zu erschweren.

Die schönsten Stockfoto-Hacker:

Die schönsten Stockfoto-Hacker Quelle: Shutterstock

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren