
Während Microsoft und Google in den letzten zwölf Monaten quer durch ihr Produktportfolio hinweg neue KI-Features angekündigt haben, hat sich Konkurrent Apple lange Zeit vornehm zurückgehalten. Mit den kommenden Betriebssystemversionen iOS 18, iPadOS 18 und macOS Sequoia soll sich das ändern.
Die unter dem Namen Apple Intelligence vermarkteten KI-Funktionen sollen Texte oder Bilder erzeugen. Möglich machen das zwei von Apple entwickelte KI-Basismodelle. Darunter versteht man Modelle, die anhand einer Vielzahl an Daten trainiert wurden, um später durch Anpassungen eine breite Palette an Aufgaben zu erledigen. Vergleichbare Basismodelle sind beispielsweise OpenAIs GPT-Modelle, Facebooks Llama oder Googles Palm.
Apple Intelligence: So unterscheiden sich die 2 Basismodelle des iPhone-Konzerns
Apple will aus Datenschutzgründen möglichst viele KI-Funktionen direkt auf eurem Endgerät ausführen. Nur Aufgaben, die von dem entsprechenden Basismodell nicht gelöst werden können, sollen in der Cloud ausgeführt werden. Dementsprechend hat Apple ein Modell für den Einsatz auf eurem iPhone oder Mac (On-Device) und eines für die Cloud entwickelt.
Der größte Unterschied liegt im Vokabular der zwei Modelle. Die On-Device-Variante kennt 49.000 Token, die Cloud-KI 100.000. Token bezeichnen in diesem Kontext zusammenhängende Texteinheiten, aus denen dann wiederum Wörter und Sätze gebildet werden. Bei GPT-4 bildet das gängige Wort „Hallo“ beispielsweise einen Token. Der Begriff „Mutter“ wiederum besteht aus zwei Token.
Je größer das Token-Vokabular, desto mehr Begriffe, Phrasen und andere Wortverbindungen kann ein KI-Modell nutzen und verstehen. Gleichzeitig steigt mit der Größe des Vokabulars aber auch der Rechenaufwand.
Zum Vergleich: GPT-4 hat, wie Apples Cloud-Modell, ein Vokabular von etwa 100.000 Token. Metas neustes KI-Modell Llama 3 wiederum hat ein Vokabular von 128.000 Token.
Was wir über das Training von Apples KI-Modellen wissen
Für das Training der KI-Modelle nutzt Apple das selbst entwickelte Framework AX-Learn. Das hat der Konzern schon 2023 unter einer Open-Source-Lizenz veröffentlicht. Interessanterweise hat Apple für das KI-Training nach Unternehmensangaben sowohl lokale Hardware als auch Cloud-Plattformen verwendet. Welche Plattformen das waren, erklärt Apple indes nicht.
Die Trainingsdaten selbst bestanden laut Apple zum einen aus lizenzierten Daten von Drittanbietern, zum anderen aber auch selbst gesammelten Webinhalten. Dazu setzt der Konzern einen eigenen Webcrawler namens Applebot ein. Website-Betreiber:innen können den mit einem entsprechenden Hinweis in der robot.txt-Datei ihres Servers von dem Zugriff auf dort abgelegte Inhalte abhalten.

In den ersten von Apple veröffentlichten Benchmark-Tests machen beide Basismodelle des Konzern eine gute Figur. (Screenshot: apple.com / t3n)
„Wir verwenden niemals die persönlichen Daten unserer Nutzer oder deren Interaktionen für das Training unserer Basismodelle“, verspricht Apple. Außerdem habe das Unternehmen Filter eingesetzt, um persönliche Daten aus den aus dem Web gesammelten Daten zu entfernen.
Wie schlagen sich Apples KI-Modelle im Vergleich zur Konkurrenz?
Da Apple die neuen KI-Features erst zu einem späteren Zeitpunkt veröffentlichen wird, können wir die Leistung der Modelle nur anhand der vom Konzern veröffentlichten Benchmark-Ergebnisse begutachten.
Bei dem von Google entwickelten IFEval-Benchmark wird geprüft, wie gut ein KI-Modell „überprüfbare Anweisungen“ erfüllt. Das Benchmark besteht aus insgesamt 500 Prompts. Hier soll Apples On-Device-KI vergleichbare Modelle deutlich übertroffen haben. Auch die Cloud-KI schlug sich in dem Test laut Apple gut, erreichte dort aber nur den zweiten Platz hinter GPT-4-Turbo.
Wie sich die KI-Modelle im Alltag schlagen, werden wir jedoch erst ab Herbst 2024 überprüfen können. Dann soll die Betaversion der Software veröffentlicht werden.