Apple Intelligence: Wie das Unternehmen eure Daten schützen will – und wo es noch Zweifel gibt

Apples WWDC-Keynote am Montag (Bild: Apple)
Auf seiner Entwicklerkonferenz WWDC am Montag hat Apple zum ersten Mal erzählt, wohin die Reise in Sachen Künstliche Intelligenz bei dem iPhone-Konzern hingegen soll. Das Hauptmerkmal, das in praktisch allen Produkten zum Einsatz kommen soll, nennt sich „Apple Intelligence“. Dabei handelt es sich um eine Reihe von KI-basierten Funktionen, die personalisierte KI-Dienste bieten und gleichzeitig sensible Daten schützen sollen. Denn Apples KI soll vollen Zugriff auf die Nutzerinformationen im iPhone haben, um zahlreiche Aufgaben erledigen zu können.
Um zu beweisen, dass dies möglich ist, ohne dafür den Schutz der Privatsphäre zu opfern, hat das Unternehmen nach eigenen Angaben eine neue Methode für den Umgang mit sensiblen Daten in der Cloud entwickelt. Apple teilte mit, dass seine „datenschutzorientierte KI“ zunächst versuchen soll, Aufgaben lokal auf dem Gerät selbst durchzuführen. Wenn Daten mit Apples Cloud-Diensten ausgetauscht werden, werden sie stark verschlüsselt und anschließend gelöscht. Das Unternehmen teilte auch mit, dass der Prozess, den es „Private Cloud Compute“ nennt, von unabhängigen Sicherheitsforschern überprüft werden soll.
Das neue Angebot stellt einen direkten Gegensatz zu Unternehmen wie Alphabet, Amazon oder Meta dar, die enorme Mengen an persönlichen Daten sammeln und speichern. Apple betonte, dass alle persönlichen Daten, die in seine Cloud weitergegeben werden, nur für die jeweilige KI-Aufgabe verwendet werden. Eine weitere Speicherung finde nicht statt, weder fürs Training noch die Fehlersuche oder Qualitätskontrolle. Nach der Anfrage sind sie wieder weg.
Einfach ausgedrückt: Apple will, dass die Nutzer darauf vertrauen können, dass sensible Daten wie Fotos, Nachrichten und E-Mails, die intime Details unseres Lebens enthalten, nicht missbraucht werden. Stattdessen soll Apple Intelligence sie zwar nutzen, um auf der Grundlage der gefundenen Daten automatisierte Dienste bereitzustellen, doch wird davon dann nichts online gespeichert und im Internet zugreifbar sein.
Alle Daten zur Beantwortung von Anfragen
Das Unternehmen zeigte einige Beispiele dafür, wie dies in kommenden Versionen von iOS funktionieren wird. Anstatt die Nachrichten-App nach einem Podcast zu durchsuchen, den ein Freund geschickt hat, kann man Apples Sprachassistentin Siri einfach bitten, ihn zu suchen und abzuspielen. Craig Federighi, Senior Vice President of Software Engineering bei Apple, erläuterte ein weiteres Szenario: Eine E-Mail kommt herein, um ein Arbeitstreffen zu verschieben, doch die Tochter tritt an diesem Abend in einem Theaterstück auf. Das iPhone kann nun die PDF-Datei mit Informationen über die Aufführung finden, das abendliche Verkehrsaufkommen vorhersagen und dem Nutzer mitteilen, ob er es rechtzeitig schaffen wird. Diese Fähigkeiten sollen über die von Apple hergestellten Apps hinausgehen und es Entwicklern ermöglichen, die KI von Apple ebenfalls zu nutzen.
Da das Unternehmen mehr von Hardware und Dienstleistungen als von Werbung lebt, hat Apple weniger Anreize als andere Unternehmen, persönliche Daten zu sammeln. Entsprechend wird das iPhone als besonders privatsphärenfreundlich vermarktet. Dennoch ist Apple schon einmal ins Fadenkreuz von Datenschützern geraten: Sicherheitsmängel führten 2014 zum Durchsickern sensibler Fotos aus der iCloud. Im Jahr 2019 wurde festgestellt, dass Auftragnehmer zur Qualitätskontrolle der Spracherkennung potenziell intime Siri-Aufnahmen abhörten. Kritik darüber, wie Apple mit Datenanfragen von Strafverfolgungsbehörden umgeht, tritt immer wieder auf.
Die erste Verteidigungslinie gegen Datenschutzverletzungen besteht laut Apple darin, Cloud-Computing für KI-Aufgaben nach Möglichkeit grundlegend zu vermeiden. „Der Eckpfeiler unseres personalisierten KI-Systems ist die geräteinterne Verarbeitung“, sagt Federighi, was heißt, dass viele der KI-Modelle auf iPhones und Macs und nicht in der Cloud laufen werden. „Das System kennt Ihre persönlichen Daten, ohne Ihre persönlichen Daten zu sammeln.“
Das stellte einige technische Herausforderungen dar. Zwei Jahre nach Beginn des KI-Booms durch den Start von ChatGPT erfordert das Nutzen von großen Modellen selbst für einfache Aufgaben immer noch enorme Mengen an Rechenleistung. Dies mit den Chips in Handys und Laptops zu bewerkstelligen, ist schwierig. Deshalb können etwa nur die kleinsten KI-Modelle von Google auf den Handys des Unternehmens ausgeführt werden, alles andere wird über die Cloud erledigt. Apple behauptet, seine Fähigkeit, KI-Berechnungen auf dem Gerät durchzuführen, sei das Ergebnis „jahrelanger Forschung“ im Bereich des Chipdesigns, die zu den M1-Chips geführt hat, die 2020 auf den Markt kamen – zunächst im Mac, später im iPad.
Nicht einmal Apple Silicon ist schnell genug
Doch selbst die fortschrittlichsten Apple-Silicon-Chips können nicht das gesamte Aufgabenspektrum bewältigen, das das Unternehmen mit KI verspricht. Wenn man Siri bittet, etwas Kompliziertes zu tun, muss sie diese Anfrage zusammen mit den Nutzerdaten an Modelle weitergeben, die nur auf Apples Servern verfügbar sind. Sicherheitsexperten zufolge führt dieser Schritt zu einer Reihe von Schwachstellen, die dazu führen könnten, dass Daten an böswillige Akteure oder zumindest an Apple selbst weitergegeben werden.
„Ich warne die Leute immer davor, dass ihre Informationen, sobald sie nicht mehr auf ihrem Gerät gespeichert sind, viel angreifbarer werden“, sagt Albert Fox Cahn, Leiter des Surveillance Technology Oversight Project und „Practitioner in Residence“ am Information Law Institute der NYU Law School. Apple behauptet, dieses Risiko mit seinem neuen Private-Cloud-Compute-System reduziert zu haben. „Private Cloud Compute erweitert zum ersten Mal Apples branchenführende Sicherheit und unseren Datenschutz von den Geräten in die Cloud“, schreiben Apples IT-Security-Experten in ihrer Ankündigung. Aber wie funktioniert das?
In der Vergangenheit hat Apple seine Nutzer dazu ermutigt, sich für eine Ende-zu-Ende-Verschlüsselung zu entscheiden (die Art von Technologie, die in Messaging-Apps wie Signal verwendet wird, damit niemand mithören kann). So wurden iCloud-Daten geschützt. Aber das funktioniert so nicht für KI. Im Gegensatz zu Messaging-Apps, bei denen ein Unternehmen wie WhatsApp den Inhalt der Nachrichten nicht sehen muss, um sie an Kontakte weiterzuleiten, benötigen die KI-Modelle von Apple unverschlüsselten Zugriff auf die zugrunde liegenden Daten, um Antworten zu generieren. An dieser Stelle setzt Apples Datenschutztechnik an. Erstens, so Apple, werden die Daten nur für die jeweilige Aufgabe verwendet. Zweitens würde dieser Prozess von unabhängigen Forschern überprüft.
Natürlich ist die Architektur dieses Systems kompliziert, aber man kann es sich wie ein spezielles Verschlüsselungsprotokoll vorstellen. Wenn das iPhone feststellt, dass es die Hilfe eines größeren KI-Modells benötigt, verpackt es eine Anfrage, die die verwendete Eingabeaufforderung und das spezifische Modell enthält, und versieht diese Anfrage mit einer „Sperre“. Nur das spezifische KI-Modell, das verwendet werden soll, verfügt über den dafür nötigen Schlüssel auf dem Server.
Das Datenschutz-KI-Geschäft
Auf die Frage von MIT Technology Review, ob die Nutzer benachrichtigt werden, wenn eine bestimmte Anfrage an Cloud-basierte KI-Modelle gesendet wird, anstatt auf dem Gerät bearbeitet zu werden, sagte ein Apple-Sprecher, dass es „Transparenz für die Nutzer“ geben wird. Weitere Details seien nicht verfügbar.
Dawn Song, Co-Direktorin des „UC Berkeley Center on Responsible Decentralized Intelligence“ und Expertin für Private Computing, hält die neuen Entwicklungen bei Apple für grundsätzlich ermutigend. „Die Liste der KI-Ziele, die sie haben, ist gut durchdacht“, sagt sie. „Natürlich wird es einige Herausforderungen geben, um diese Ziele zu erreichen“.
Nach dem zu urteilen, was Apple bisher bekannt gegeben hat, scheint das System die Privatsphäre besser zu schützen als andere KI-Produkte, die derzeit auf dem Markt sind. Dennoch gilt in diesem Bereich die Devise „Trust but verify“. Mit anderen Worten: Wir werden nicht wissen, wie sicher diese Systeme unsere Daten aufbewahren, bis unabhängige Forscher die Behauptungen überprüfen können, wie Apple es verspricht. Interessant wird auch, wie Apple auf ihre Ergebnisse reagiert.
„Sich für eine unabhängige Überprüfung durch Forscher zu öffnen, ist ein großer Schritt“, sagt Song. „Aber das sagt nichts darüber aus, wie man reagiert, wenn die Forscher einem Dinge sagen, die man nicht hören will“. Apple antwortete nicht auf die Frage von MIT Technology Review, wie das Unternehmen das Feedback von Forschern bewerten wird.
Sam Altman will, dass KI alles weiß
Apple ist nicht das einzige Unternehmen, das glaubt, dass viele von uns KI-Modellen weitgehend ungehinderten Zugang zu unseren privaten Daten gewähren werden, wenn dies bedeutet, dass sie dann „lästige Aufgaben“ automatisieren können. Sam Altman, CEO des ChatGPT-Herstellers OpenAI und Partner von Apple, beschrieb sein Traum-KI-Tool gegenüber MIT Technology Review als eines, „das absolut alles über mein ganzes Leben weiß, jede E-Mail, jede Unterhaltung, die ich je geführt habe“. Auf seiner eigenen Entwicklerkonferenz im Mai kündigte Google das Projekt Astra an, ein ehrgeiziges Projekt zur Entwicklung eines „universellen KI-Agenten, der für das tägliche Leben hilfreich ist“.
Dieses Vorhaben wird viele von uns dazu zwingen, zum ersten Mal darüber nachzudenken, welche Rolle KI-Modelle bei der Interaktion mit unseren Daten und Geräten spielen sollen. Als ChatGPT auf den Markt kam, war das keine Frage, die wir uns stellen mussten. Das System war einfach nur ein Textgenerator, der uns eine Geburtstagskarte oder ein Gedicht schreiben konnte. Es gab höchstens Fragen zum Bias einer solchen Software.
Jetzt, weniger als zwei Jahre später, wettet Big Tech in mit viel Geld darauf, dass wir der Sicherheit dieser Systeme genug vertrauen, um unsere privaten Daten preiszugeben. Es ist noch nicht klar, ob wir genug darüber wissen, diese Entscheidung wirklich intelligent zu treffen. Und werden wir wieder aussteigen können, wenn wir uns umentscheiden?
„Ich mache mir Sorgen, dass dieses KI-Wettrüsten dazu führen wird, dass immer mehr unserer Daten in die Hände anderer gelangen“, sagt Experte Cahn. Apple wird in Kürze Beta-Versionen seiner Apple-Intelligence-Funktionen für Entwickler veröffentlichen. Im Herbst kommt dann eine Beta als Teil von iOS 18 und macOS 15. Auf dem Mac werden alle Maschinen ab M1 unterstützt, beim iPhone zunächst nur iPhone 15 Pro und 15 Pro Max. „Wir glauben, dass Apple Intelligence unverzichtbar sein wird“, sagt Apple-CEO Tim Cook.