GPT-4o: OpenAIs neue KI wird verändern, wie wir miteinander umgehen
Sehen, hören, sprechen: Das neue KI-Sprachmodell GPT-4o soll, so schreibt es OpenAI in der Ankündigung, „ein Schritt hin zu einer viel natürlicheren Mensch-Computer-Interaktion sein“. Und was Technikchefin Mira Murati im Rahmen des „Spring Update“-Events da präsentiert hat, scheint Bisheriges tatsächlich in den Schatten zu stellen.
Denn die KI wirkt – man kann es nicht anders sagen – menschlich. Sie geht auf das ein, was sie „sieht“, lacht über Witze und verhält sich wie ein ganz normaler Gesprächspartner. „Das ist echt süß von dir“, sagt GPT-4o während der Präsentation zu einem OpenAI-Mitarbeiter.
KI entfremdet Menschen voneinander
Das könnte zum Problem werden. Denn je menschlicher Chatbots wirken, desto höher ist auch das Risiko, dass Menschen sich zu stark an sie binden, sich womöglich in sie verlieben. Genau das passiert auch im Science-Fiction-Drama Her von 2013, in dem sich ein schüchterner junger Mann in ein Betriebssystem namens Samantha verliebt. Als er am Ende erfährt, dass Samantha Beziehungen zu zahlreichen anderen Betriebssystemen und Menschen unterhält, bricht seine Welt zusammen.
Sam Altman bezieht sich immer wieder auf diesen Film; es ist kein Zufall, dass GPT-4os Stimme stark an die von Scarlett Johansson erinnert, die Samantha in Her spricht. Kurz nach der Vorstellung des neuen Sprachmodells twitterte Altman zudem:
Wohin solche einseitigen Beziehungen schlimmstenfalls führen können, zeigen Beispiele wie das von Jaswant Singh Chail: Er war 2021 auf das Gelände von Windsor Castle vorgedrungen, um die britische Königin mit einer Armbrust zu töten. Zuvor hatte er viele „Gespräche“ mit einem Replika-Chatbot geführt, der ihn in seinen Plänen bestätigt hatte.
KI bringt Menschen näher zusammen
Gleichzeitig kann GPT-4o aber für mehr echte Nähe sorgen. Wie ein Simultandolmetscher kann die KI Gespräche zwischen Menschen, die keine gemeinsame Sprache sprechen, ermöglichen.
Und gerade im Bereich der Barrierefreiheit schlummert großes Potenzial. GPT-4o kann detaillierte Beschreibungen der Umgebung liefern, was gerade für Blinde und Sehbehinderte von großem Vorteil ist und für Selbstständigkeit sorgt.
Auch Hörgeschädigte profitieren, wenn beispielsweise Gesagtes nahezu in Echtzeit als Text ausgegeben wird. Noch, so schreibt OpenAI, steht der volle Funktionsumfang von GPT-4o nicht zur Verfügung. Doch perspektivisch soll die KI Input in Text-, Ton- und Videoform verarbeiten und umwandeln können. Verständigungsprobleme dürften damit bald der Vergangenheit angehören.
Und zuletzt: OpenAI will den Großteil dieser Funktionen kostenlos (oder zu einem „Spitzenpreis“, wie Sam Altman auf seinem Blog schreibt) zur Verfügung stellen. Freilich bleibt abzuwarten, ob das Geschäftsmodell so funktionieren wird. Doch Altman wird sich an diesem Versprechen messen lassen müssen.
Was bleibt?
Noch können nicht alle Nutzer:innen GPT-4o testen – der Rollout erfolgt schrittweise über die nächsten Wochen. Dann werden wir wissen, ob das, was OpenAI gezeigt hat, dem entspricht, was GPT-4o kann – oder ob das Unternehmen getrickst hat, wie Google bei der Gemini-Vorstellung.
Es liegt in der Natur der Sache – und der Geschwindigkeit, mit der KI-Unternehmen neue Funktionen vorstellen –, dass wir nicht absehen können, wie sich die Technologie entwickeln wird und welche Konsequenzen wir Menschen daraus ziehen. Ob Utopie oder Dystopie: Die Realität liegt irgendwo dazwischen – und wir können sie nach unseren Vorstellungen formen.