Anzeige
Anzeige
News

Bild-KI war gestern: Meta zeigt beeindruckende Video-KI „Make-a-Video“

Haben wir uns am Mittwoch noch über die allgemeine Verfügbarkeit der Bild-KI Dall-E gefreut, setzt Meta heute einen drauf. Zuckerbergs Unternehmen hat einen Text-zu-Video-Generator auf Basis einer KI entwickelt.

3 Min.
Artikel merken
Anzeige
Anzeige
Das wurde der KI gesagt: "Ein junges Paar, das im Regen spazieren geht". (Quelle: Meta)

Die Spezialisten für maschinelles Lernen aus dem Hause Meta – ex Facebook – haben ein neues System namens Make-A-Video vorgestellt. Der Name ist Programm.

Anzeige
Anzeige

Funktioniert wie Dall-E

Um zu Ergebnissen zu gelangen, müssen Nutzende lediglich eine grobe Beschreibung einer Szene formulieren. Daraus generiert die KI ein kurzes Video, das – nach Auffassung der KI – zu der Eingabe passt.

Meta hat einige Beispiele parat. Und die können durchaus beeindrucken. Zwar sind die Videosequenzen mit fünf Sekunden sehr kurz und ohne Ton, dazu klar als künstlich generiert zu identifizieren und meist mit unscharfen Motiven und verzerrten Animationen versehen. Aber es ist bereits klar erkennbar, wohin die Reise geht.

Anzeige
Anzeige

In einem Blogbeitrag zum KI-Tool schreibt Meta: „Die generative KI-Forschung treibt den kreativen Ausdruck voran, indem sie den Menschen Werkzeuge an die Hand gibt, mit denen sie schnell und einfach neue Inhalte erstellen können“. Mit nur ein paar Worten oder Textzeilen könne Make-A-Video „die Fantasie zum Leben erwecken und einzigartige Videos voller lebendiger Farben und Landschaften erstellen.“

Meta-Chef Mark Zuckerberg bezeichnet das Tool in einem Facebook-Beitrag als „erstaunlichen Fortschritt“ und gibt zu bedenken, dass es viel schwieriger sei, „Videos zu erstellen als Fotos, weil das System nicht nur jedes Pixel korrekt erzeugen, sondern auch vorhersagen muss, wie es sich im Laufe der Zeit verändern wird.“

Anzeige
Anzeige

Metas erste Gehversuche mit dem KI-Tool Make-A-Video. (Quelle: Meta AI)

Leistungseinschränkungen optisch noch deutlich spürbar

Die Forschenden weisen in ihrer Veröffentlichung darauf hin, dass das Modell vor allem deshalb verschwommenes Material und unzusammenhängende Animationen zeigt, weil höhere Auflösungen mit den vorhandenen Kapazitäten nicht verarbeitet werden könnten.

So gebe Make-A-Video derzeit 16 Bilder pro Sekunde bei einer überaus mageren Auflösung von 64 mal 64 Pixeln aus. Die laufen danach durch ein separates KI-Modell, das sie auf 768 mal 768 Pixel aufbläst. Jeder, der schon mal Bilder bearbeitet hat, weiß: nicht vorhandene Details in Bildern kommen auch durch Skalierung nicht hinein.

Anzeige
Anzeige

Könnten wir also anhand der genannten Einschränkungen in der Qualität der Darstellung befürchten, Meta habe hier eine frühe Demo herausgegeben, um etwas Aufmerksamkeit zu generieren, zeigt die Breite der möglichen Aufforderungen an das System, dass dem nicht so ist.

Beispiele beeindrucken

Betrachten wir die von Meta bereitgestellten Videos, zeigt sich schnell, dass das KI-Tool offensichtlich ein durchaus solides Training genossen hat. Inwieweit Meta an den Beispielen tatsächlich nicht mehr nachgearbeitet hat, kann derzeit nicht zuverlässig beurteilt werden.

Eigene Versuche sind derzeit nicht möglich, weil Meta das System noch völlig geschlossen hält und bislang Dritten keinen Zugang gewährt.

Anzeige
Anzeige

Video-KI dürfte Forschende motivieren

Wenn wir allerdings davon ausgehen, was wir auch dürfen, dass sich die Video-KI ebenso rasant entwickeln wird, wie es die Bild-KI in den vergangenen Jahren tat, dann ist Metas Make-A-Video ein Blick in die nahe Zukunft, der Forschende motivieren dürfte, mehr Ressourcen auf dieses KI-Feld zu verwenden.

Natürlich sieht Meta Kreative und Kunstschaffende als wichtigste Zielgruppe. Für die könnte das Tool „von unschätzbarem Wert“ sein, schreibt das Unternehmen. Auf der Hand liegt aber eben auch, dass eine Video-KI sogar noch perfider missbraucht werden kann als eine Bild-KI.

Sicherheitsmodell steht offenbar noch nicht

Meta verspricht daher, „Gedanken darüber (zu) machen, wie wir neue generative KI-Systeme wie dieses aufbauen“. Anstelle tiefer Einblicke gibt es derzeit nur ein relativ unverbindliches Papier (PDF) zu dem KI-Modell von Make-A-Video.

Anzeige
Anzeige

Eine Demo werde es geben, lässt Meta wissen. Unklar bleibt, wann – und wie der Zugang zu dem Modell eingeschränkt sein wird.

Neben Metas Video-KI gibt es derzeit nur ein weiteres bekanntes Modell. Die Video-KI namens Cogview hatten chinesische Forschende der Tsinghua University und der Beijing Academy of Artificial Intelligence (BAAI) Anfang dieses Jahres vorgestellt.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige