Während Microsoft, Google und Meta die KI-Revolution vorantreiben, befindet sich Apple noch in Warteposition. Es heißt, der iPhone-Konzern sei vom massiven Vormarsch von OpenAI, Google und Co. überrascht worden. Mit den anstehenden Updates für iPhones, iPads und die anderen Plattformen will Apple im KI-Rennen wieder etwas aufholen.
Konkrete Funktionen nennt Apple zwar noch nicht – das spart sich der Konzern für die WWDC-Keynote am 10. Juni auf. Apple-Chef Tim Cook sagte aber bereits, man werde in diesem Jahr „Neuland“ mit generativer KI betreten, die „das Herzstück zukünftiger Apple-Produkte“ sein werde.
Apple investiert viel Geld in KI-Forschung
Um im KI-Wettrüsten mithalten zu können, investiert der Konzern große Summen in Forschung und Training. Zudem sollen zahlreiche Mitarbeiter:innen nach dem Aus des eigenen Autoprojekts in KI-Projekte umgeschichtet werden, um die Arbeiten daran zu beschleunigen.
Dass Apple massiv an generativer KI arbeitet, zeigt der Konzern durch die Veröffentlichung zahlreicher Forschungsartikel auf wissenschaftlichen Plattformen. Ein eher ungewöhnliches Vorgehen, das als Lebenszeichen der hauseigenen KI-Entwicklung gewertet werden kann.
Zu den Forschungsarbeiten gehören beispielsweise mögliche Antworten auf OpenAIs Chatbot ChatGPT‑4 in Form der Modelle MM1 und ReaLM, die Teil von Apples KI-Chatbot mit dem Codenamen Ajax oder AppleGPT werden könnten.
Darüber hinaus hat Apple ein Multimodal Large Language Model (MLLM) namens Ferret auf Apples GitHub-Instanz veröffentlicht. Laut den Autor:innen des Modells besitzt Ferret „räumliches Bewusstsein“ und kann Bildinhalte präzise analysieren.
Mit MGIE (MLLM-Guided Image Editing) arbeitet Apple zudem an einer KI für die Bildbearbeitung mit Textbefehlen. Dabei setzt das Unternehmen multimodale Sprachmodelle (MLLM) ein, um Befehle zu interpretieren und Bildmanipulationen per Sprachbefehl durchzuführen.
Der generelle Fokus der KI-Modelle des Konzerns liegt darauf, sie direkt auf Geräten wie iPhones oder iPads ausführen zu können. Die Vorteile dieses Ansatzes liegen zum einen in einer geringen Latenz und damit einer schnellen Bereitstellung von Informationen. Zum anderen kann Apple so seinen langjährigen Fokus auf Privatsphäre und Sicherheit aufrechterhalten.
Der Nachteil des bisher verfolgten Ansatzes zeigt sich jedoch deutlich bei Apples Sprachassistentin Siri, die zwar eine der ersten auf dem Markt war. Sie hat sich aber bis heute nicht wesentlich weiterentwickelt und wurde von Konkurrenten wie dem Google Assistant oder Amazons Alexa mehrfach überholt. Dies hat letztlich damit zu tun, dass die Konkurrenzprodukte die Nutzer:innen unter anderem durch (anonymisierte) Datenanalysen besser kennenlernen und sukzessive besser werden konnten.
Um langfristig mit Google oder OpenAI gleichzuziehen, müsste Apple die eigene Strategie überdenken. Und daran wird intern gearbeitet, wie Bloomberg-Reporter Mark Gurman, der für seine guten Kontakte zu Apple-Insidern bekannt ist, erfahren haben will.
So verfolge der Konzern zwar einerseits weiterhin die On-Device-Strategie, wo immer sie möglich sei, andererseits sollen aber auch Aufgaben in die Cloud ausgelagert werden, die mehr Rechenleistung als ein iPhone oder Mac allein bieten könne. Für diesen hybriden Ansatz soll Apple auf die eigenen High-End-Chips für seine KI-Cloud-Server setzen, die auch in Macs verbaut werden, heißt es.
Apple muss KI-Bereich aufholen
Obwohl die KI-Forschung den Anschein erwecken könnte, dass Apple bereit sei, seine künftigen KI-Funktionen allein zu entwickeln, sei dies nicht der Fall, so Gurman. Intern sei man sich bewusst, dass man gegenüber der Konkurrenz noch einiges aufzuholen habe, will der Bloomberg-Reporter erfahren haben.
So werde Apple im Rahmen der WWDC 2024 mit iOS 18 und Co. zwar einige eigene KI-Tools wie eine leicht verbesserte Siri vorstellen, die aber noch nicht mit ChatGPT oder Gemini mithalten könnten.
Teil der Neuerungen bei Siri seien verbesserte Sprachfähigkeiten, um ein „gesprächigeres Gefühl“ zu vermitteln. Ebenso gehörten Funktionen dazu, die Nutzer:innen im alltäglichen Leben helfen. Apple bezeichnet diesen Ansatz als „proaktive Intelligenz“.
Darüber hinaus sollen Dienste wie eine automatische Zusammenfassung von Benachrichtigungen, eine schnelle Zusammenfassung von Nachrichtenartikeln im Safari-Browser und die Transkription von Sprachnotizen in iOS 18 Einzug halten. Auch Funktionen zum automatischen Ausfüllen des Kalenders und App-Vorschläge sollen Teil des Updates sein, wobei diese Funktionen keine generative KI benötigen.
Einige KI-Innovationen für Fotos seien ebenfalls in der Pipeline, heißt es. Wer in den vergangenen Monaten die Entwicklung bei Googles Pixel, Samsungs Galaxy S24 oder Adobes Photoshop verfolgt hat, wird wahrscheinlich aber keine großen Überraschungen erleben. Für iPhone-User:innen dürften die Neuerungen durchaus erfreulich sein, wobei die Frage „Was ist ein Foto?“ garantiert erneut gestellt werden dürfte.
Weitere KI-Funktionen sollen in Apple Music und den Office-Apps der iWork-Familie wie Keynote und Pages Einzug halten. Die Messaging-App iMessage soll ebenfalls „Fragen beantworten und Sätze automatisch vervollständigen“ können, heißt es.
Was Apple noch fehlt: Ein Chatbot
Auch wenn in iOS 18 wohl eine Fülle an KI-Funktionen einziehen werden, die das Nutzer:innenleben vereinfachen könnten, ist Apples Sprachassistentin Siri wohl noch nicht so weit, um mit leistungsstarken Modellen wie ChatGPT oder Gemini mitzuhalten.
Dennoch will Apple seinen Kund:innen einen solchen Service anbieten und verhandelt dafür mit Google und OpenAI. Insider:innen zufolge sind die Verhandlungen mit Google zwar gescheitert, aber der Konzern könnte auf der WWDC eine große Partnerschaft mit OpenAI ankündigen, um dessen Technologie in iOS 18 zu integrieren.
Ob dies allerdings eine langfristige Lösung ist, ist unklar, schließlich ist Apple dafür bekannt, solche elementaren Produkte lieber selbst zu liefern, auch wenn Googles Suchmaschine seit Jahren gewissermaßen Teil des Betriebssystems ist. Glaubt man Gurman, ist die Kombination aus eigenen KI-Funktionen und dem OpenAI-Deal für Apple zunächst ausreichend.
Angesichts der umfangreichen Arbeiten an generativer KI könnte Apple früher oder später einen eigenen Chatbot in seine Dienste integrieren.
Fazit: iOS 18 wird wohl KI-lastiger, aber …
Dass iOS 18 und Apples weitere Betriebssysteme wie iPadOS und macOS einen ersten größeren Schwung KI-Funktionen erhalten werden, steht angesichts der oftmaligen Ankündigungen außer Frage. Der Umfang der KI-Funktionen scheint aber weniger umfangreich zu sein, als manche es sich erhofft haben.
Allerdings spielt nicht ausschließlich die Fülle der Funktionen eine Rolle, sondern vor allem, wie intuitiv und vor allem zuverlässig die Features entwickelt und integriert sind. Es hat schließlich niemand etwas davon, wenn ein System zwar nur so vor KI-Features strotzt, sie aber nur Quatsch ausspucken und alles andere als hilfreich sind.
Zudem darf nicht außer Acht gelassen werden, dass Apple seinen guten Ruf aufs Spiel setzt, wenn bestimmte KI-Funktionen nicht dem hohen Anspruch des Unternehmens und seiner Nutzer:innen gerecht werden. Weniger ist unter diesem Blickwinkel tendenziell mehr. Und wer will einen Chatbot, der halluziniert und dessen Aussagen stets per Google-Suche nochmals überprüft werden müssen?