Apple Intelligence: Deshalb kommt die KI nicht für ältere iPhones
Apple hat die Entscheidung verteidigt, dass Besitzer vieler iPhones bei den neu angekündigten fortschrittlichen KI-Funktionen außen vor bleiben werden. Dies habe ausschließlich technische Gründe, betonte KI-Chef John Giannandrea bei einem Live-Interview des Podcasts The Talk Show am 11. Juni 2024 (Ortszeit). Die Geräte müssten leistungsstark genug für die Software sein. Man könne die KI-Modelle theoretisch zwar auch auf alter Technik laufen lassen – aber sie wären dabei zu langsam, um nützlich zu sein.
Auf welchen Geräten läuft Apple Intelligence?
Für die neuen KI-Modelle, die der Konzern unter der Bezeichnung „Apple Intelligence“ zusammenfasst, wird man eines der künftigen iPhones oder mindestens ein iPhone 15 Pro aus dem vergangenen Herbst brauchen. Bei den Mac-Computern gibt es mehr Spielraum: Da reicht jeder der hauseigenen Chips der M-Reihe, mit denen Apple seit 2020 Intel-Prozessoren ersetzte. Auf iPads mit M-Chipsystemen werden die Funktionen ebenfalls laufen. Neben den Chips spiele auch die RAM-Speicherkapazität eine Rolle, sagte Software-Chef Craig Federighi.
Apple setzt darauf, unter anderem aus Datenschutzgründen so viel Rechenarbeit wie möglich auf den Geräten zu erledigen. Das erhöht auch die Anforderungen an deren Leistung. Zugleich entwickelte der Konzern ein Verfahren, mit dem die Aufgaben verschlüsselt an Apples Server weitergereicht werden. Danach sollen die Daten wieder komplett aus der Cloud verschwinden. „Wir verwenden keine Daten von Nutzern, um unsere Modelle zu trainieren“, betonte Giannandrea.
Die neuen Funktionen sollen ab Herbst zum Beispiel verpasste E-Mails und Kurznachrichten zusammenfassen, individuelle Emoji-Symbole erstellen sowie Informationen auf Zuruf finden und bündeln. Die Software wird auch Bilder aus Textvorgaben erzeugen können. Anders als bei vielen anderen Diensten generiert die Apple-KI aber keine künstlichen Fotos. „Weil wir es nicht leicht machen wollen, Deepfakes zu erzeugen“, sagte Giannandrea. Deepfakes sind ein Problem, weil es immer einfacher wird, täuschend echt aussehende Bilder – und auch Videos – von Personen zu erstellen.
Ich verweise einfach mal auf diese simple Benchmarkübersicht woraus hervorgeht das der Prozessor im iPhone 14 Pro nur 13% langsamer ist als der im 15 Pro.
https://browser.geekbench.com/ios-benchmarks
Zudem brüstet sich Apple seit mehreren Jahren damit ihre Neural Engine zu verbauen. Und jetzt plötzlich können alle alten Geräte das alles nicht. Ironischerweise nur das neuste Gerät welches von Apple entwickelt wurde in einer Zeit wo sie das Thema AI komplett verschlafen haben.
Also ich bin ein Apple Fan. Aber die Nummer stinkt bis zum Himmel.
Hallo David,
LLMs und Diffusion Modelle lokal zu betreiben benötigt unter anderem eine gewisse Menge Arbeitsspeicher. Alle unterstützten Geräte haben mindestens 8GB davon. Ich hätte mir auch Unterstützung für ältere iPhones gewünscht.
LG