Sora 2 macht Deepfakes zum Massenphänomen: Was OpenAIs neue Video-App wirklich bedeutet
Auch Sam Altman bleibt vor Sora-2-Surrealitäten nicht verschont. (Bild: OpenAI)
Seit letzter Woche ist OpenAIs neue Sora-App verfügbar, eine Software im Stil von TikTok, die einen endlosen Feed mit ausschließlich KI-generierten Videos von jeweils bis zu zehn Sekunden Länge präsentiert. Mit der App können Nutzer ein „Cameo“ von sich selbst erstellen – einen hyperrealistischen Avatar, der Aussehen und Stimme nachahmt – und/oder die Cameos anderer Personen in ihre eigenen Videos einfügen (abhängig von den von ihnen festgelegten Berechtigungen). Für Menschen, die noch ernsthaft an das Versprechen von OpenAI glaubten, eine KI zu entwickeln, die der gesamten Menschheit dient, ist die App eine herbe Enttäuschung. Ein Ex-OpenAI-Forscher, der das Unternehmen verlassen hat, um ein KI-Startup mit Schwerpunkt Wissenschaft zu gründen, bezeichnete die Sora-App gar als „nicht enden wollende KI-Tiktok-Slop-Maschine“. Als AI Slop – auf Deutsch Brühe, Pampe, Schmutzwasser – werden massenhaft generierte KI-Inhalte bezeichnet, die die sozialen Medien mit Quatsch verstopfen.
Trotz Kritik steht die App zurzeit an der Spitze des US-App-Stores bei Apple. Nachdem man die App heruntergeladen hat, findet man schnell heraus, welche Arten von Videos zumindest derzeit gut ankommen. Es sind etwa Bodycam-Aufnahmen von Polizisten, die Haustiere oder bekannte Figuren wie Sponge Bob und Scooby Doo anhalten, Deepfake-Memes von historischen Figuren wie Martin Luther King Jr. oder endlose Variationen von Jesus Christus, der sich in unserer modernen Welt zurechtfindet. Das wirft doch viele Fragen auf – hier sind einige Antworten.
Wird uns Sora in dieser Form erhalten bleiben?
OpenAI setzt offenbar darauf, dass eine beträchtliche Anzahl von Menschen Zeit mit einer App verbringen möchte, in der sie Bedenken darüber, ob die Videos Fake sind, beiseiteschieben. Stattdessen, so die Annahme, wollen sie einen endlosen KI-Video-Strom. Eine Rezensentin drückte es so aus: „Es ist beruhigend, weil man weiß, dass alles, was man hier sieht, nicht real ist, während man bei anderen Plattformen manchmal raten muss, ob etwas echt oder gefälscht ist.“ Ergo: Hier gibt es kein Raten, es ist „all AI, all the time“. Für manchen mag das wie die Hölle klingen. Aber gemessen an der Popularität der Sora-App wollen viele Menschen genau das.
Was zieht diese Menschen an? Dafür gibt es zwei Erklärungen. Die erste ist, dass Sora eine Eintagsfliege sein könnte, bei der die Menschen derzeit Schlange stehen, um zu bestaunen, was modernste KI derzeit leisten kann. Die zweite, auf die OpenAI setzt, ist, dass wir einen echten Wandel in Bezug auf die Art von Inhalten erleben, die Aufmerksamkeit bekommen. Die Nutzer:innen bleiben deshalb bei Sora, weil es ein Maß an Kreativität ermöglicht, das in keiner anderen App vorhanden ist. Aber noch hat Sora keine Werbung implementiert. Und die Frage, welche Grenzen es gegen Urheberrechts- und Markenrechtsverletzungen gibt, ist noch völlig ungeklärt. Genauso wie die der Algorithmen, die uns dann mit der KI berieseln.
Kann sich OpenAI das überhaupt leisten?
OpenAI ist nicht profitabel, aber das ist angesichts der Funktionsweise vieler Firmen im Silicon Valley nicht besonders verwunderlich. Seltsam ist jedoch, dass das Unternehmen in eine Plattform zur Generierung von Videos investiert, die die energieintensivste (und damit teuerste) Art der generativen KI ist, die wir derzeit haben. Der Energieverbrauch dafür übersteigt bei weitem den Aufwand, der für die Erstellung von Bildern oder die Beantwortung von Textprompts über ChatGPT erforderlich ist.
Das ist nichts Neues für OpenAI, das sich gerade einem 500-Milliarden-Dollar-Projekt zum Bau von Rechenzentren und neuen Kraftwerken angeschlossen hat. Aber Sora – mit dem man derzeit kostenlos und ohne Einschränkungen KI-Videos erstellen kann, sofern man einen Einladecode hat – erhöht den Einsatz: Wie viel wird es das Unternehmen kosten?
OpenAI unternimmt Schritte zur Monetarisierung (man kann jetzt beispielsweise Produkte direkt über ChatGPT kaufen). Am 3. Oktober schrieb sein CEO, Sam Altman, in einem Blogbeitrag, dass „wir irgendwie Geld für die Videogenerierung verdienen müssen“, ging jedoch nicht ins Detail. Man kann sich hier personalisierte Werbung und mehr In-App-Käufe vorstellen.
Dennoch ist es besorgniserregend, sich vorzustellen, welche Emissionsmengen entstehen könnten, wenn Sora populär wird. Altman hat die Emissionsbelastung einer Anfrage an ChatGPT wohl zutreffend als verschwindend gering beschrieben. Was er nicht quantifiziert hat, ist, wie hoch dieser Wert für ein 10-sekündiges, von Sora generiertes Video ist. Es ist nur eine Frage der Zeit, bis KI-Forscher und Klimaaktivisten dies einfordern werden.
Wie viele Klagen wird es geben?
Sora ist voll von urheberrechtlich und markenrechtlich geschützten Inhalten und Figuren. Mit Sora lassen sich verstorbene Prominente leicht deepfaken. Die Videos verwenden zudem mit Copyright versehene Musik. Letzte Woche berichtete das Wall Street Journal, dass OpenAI Briefe an Urheberrechtsinhaber verschickt hat, in denen es ihnen mitteilt, dass es eines Opt-Outs bedarf. Wollen sie nicht bei Sora stattfinden, müssen sie das abwählen. Das entspricht nicht dem üblichen Vorgehen und so mancher ist sauer. Die Rechtslage hinsichtlich des Umgangs von KI-Unternehmen mit urheberrechtlich geschütztem Material ist noch lange nicht geklärt. Es ist zu erwarten, dass es zu Klagen kommen wird, die das Vorgehen OpenAIs anfechten.
In seinem Blogbeitrag von letzter Woche schrieb Altman, dass OpenAI „von vielen Rechteinhabern gehört“ habe, die mehr Kontrolle darüber haben wollen, wie ihre Charaktere in Sora verwendet werden. Er sagt, dass das Unternehmen plant, diesen Parteien eine „detailliertere Kontrolle“ über ihr Material zu geben. Dennoch könne es einige „Edge Cases“ geben, in denen Videos generiert würden, die nicht erlaubt sein solltene, schrieb er. Ein weiteres Problem ist jedoch die Leichtigkeit, mit der man die Cameos realer Personen verwenden kann. Die Menschen können zwar einschränken, wer ihr Cameo verwenden darf, aber welche Grenzen gibt es für das, was diese Cameos in Sora-Videos anstellen können?
Was droht?
Dies ist offenbar bereits ein Problem, auf das OpenAI reagieren muss. Der Leiter von Sora, Bill Peebles, veröffentlichte am 5. Oktober die Angabe, dass Nutzer:innen nun einschränken könnten, wie ihr Cameo verwendet werden darf – beispielsweise, dass es nicht in politischen Kontexten erscheinen oder bestimmte Wörter sagen darf. Wie gut wird das bitte funktionieren? Ist es nur eine Frage der Zeit, bis die Cameo-Funktion für Bösartiges, Explizites, Illegales oder zumindest Gruseliges verwendet wird? Auch hier drohen Klagen.
Allerdings befinden wir uns noch in einem frühen Stadium. Die Nachfrage ist längst nicht befriedigt, Nutzer:innen lechzen nach Zugriff auf Sora. Wenn es zu einer allgemeinen Freigabe kommt, wird das der echte Testfall: Können KI-Systeme Videos erstellen, die so auf unsere Wünsche abgestimmt sind, dass sie „echte“ Videos in Bezug auf Aufmerksamkeit übertrumpfen? Letztlich testet Sora nicht nur die Technologie von OpenAI – es testet uns alle und wie sehr wir bereit sind, unsere Realität gegen eine unendliche Simulation einzutauschen.