Apple Intelligence enttäuscht: Wo die KI besser werden muss, damit ich sie benutze

Egal, ob mit oder ohne ChatGPT. Die Erfahrung mit Apple Intelligence enttäuscht. (Foto: t3n)
Ich bin überzeugt: Persönliche Assistenten werden eines Tages eine wichtige Rolle in unserem Alltag spielen. Bis dahin wird es zwar noch eine Weile dauern, aber die Richtung ist für mich relativ klar: Irgendwann werden wir mit einer KI in unserem mobilen Gerät in natürlicher Sprache kommunizieren und ihr Aufgaben geben.
Der beste Blick in diese Zukunft bietet meiner Meinung nach der Advanced-Audio-Modus von ChatGPT. Man kann sich jederzeit mit der KI unterhalten und ein „echtes“ Gespräch führen. Kleines Beispiel: Auf einer Reise hatte ich eine Einstellung an meiner Kamera verstellt und die Aufnahmefunktion war deaktiviert. Ich stand unter Zeitdruck, wollte aber unbedingt ein Foto machen. Ich entschied mich spontan, ChatGPT über den Audiomodus zu fragen. Nach einem kurzen Gespräch von etwa zwei Minuten hatte ich eine Lösung für das Problem. Die Erfahrung war sehr angenehm, da ich nicht auf meinem Smartphone tippen (ich hatte die Hände nicht frei) und auch keine vereinfachte Sprache sprechen musste.
Apples ChatGPT-Integration ist enttäuschend
Apple Intelligence integriert ChatGPT jetzt in Siri-Anfragen. Das ist zunächst einmal ein Eingeständnis von Apple, dass sie im Bereich der KI-Sprachmodelle einfach noch nicht so weit sind. Viel schlimmer ist aber, dass das Erlebnis eher suboptimal ist, da die Nutzererfahrung ständig unterbrochen wird. Entweder antwortet Siri auf ChatGPT nicht im Audio-Modus, sondern nur als Text, oder die Assistenz wechselt plötzlich von Audio zu Text. Auch die Antwortzeiten sind mir zu lang, ich möchte ein Gespräch ohne große Pausen führen. Und wenn ich etwas nachlesen möchte, muss ich sowieso in die ChatGPT-App wechseln (wenn ich mich mit meinem ChatGPT-Account eingeloggt habe).
Übrigens wichtig hier: In den Apple-Intelligence-Einstellungen kann man einstellen, dass Siri nicht immer erst fragen muss, ob sie ChatGPT für die Antwort verwenden darf. Das macht die Sache etwas angenehmer.
Jedenfalls: Wenn ich mich im Audio-Modus befinde, möchte ich mich mit der KI in natürlich gesprochener Sprache unterhalten. Genau darum geht es ja: Mit einer KI nahezu so zu sprechen wie mit einem anderen Menschen. Alles andere führt dazu, dass ich die Funktion nicht benutze und direkt in den Advanced-Audio-Modus in der ChatGPT-App wechsle, weil das bisher die beste Sprachinteraktion für Endbenutzer bietet.
Und das ist der Punkt: Das Unternehmen, dem es als erstes gelingt, eine nahtlose Konversation in natürlicher Sprache zu ermöglichen und dies intelligent in ein Gerät zu integrieren, wird bei KI-Diensten die Nase vorn haben. Insbesondere dann, wenn es bei KI-Agenten eines Tages nicht mehr nur um reinen Wissenstransfer geht, sondern auch „echte“ Assistenzaufgaben an die KI delegiert werden können. Von einer guten User-Experience ist Apple noch sehr weit entfernt. Und das bei einem Unternehmen, das sich die User-Experience auf die Fahnen geschrieben hat.