Neue KI-Technologie lernt von Video, Audio und Text für Google-ähnliche Suche
Ein neues KI-System, entwickelt von Forschern der Cornell Universität, kann Inhalte crossmedial über Video, Audio und Text hinweg lernen. Das bedeutet, es kann nicht nur erkennen, wenn jemand in einem Video jongliert, es kann die Aktion auch mit dem gesprochenen Wort „jonglieren“ verbinden. So könnte es mit dem System in Zukunft möglich sein, Inhalte innerhalb von Videos zu durchsuchen, nicht nur den Titel und die Beschreibung, wie wir es momentan tun.
Alexander Liu, ein Doktorand am Computer Science and Artificial Intelligence Laboratory, beschreibt das laut Scitech Daily folgendermaßen: „Genau wie bei einer Google-Suche geben Sie einen Text ein und die Maschine versucht, Ihnen die relevantesten Dinge mitzuteilen, nach denen Sie suchen.“ Das könnten zum Beispiel einzelne Szenen aus einem Video sein, in denen passiert, was der Suchende mit dem Text beschreibt.
Die KI muss erst einmal lernen
Bevor das allerdings möglich ist, muss die KI erst einmal lernen, was in dem Video passiert und wie die Aktionen mit den gesprochenen oder geschriebenen Worten verbunden werden. „Die größte Herausforderung dabei ist“, so Liu, „wie kann eine Maschine diese unterschiedlichen Modalitäten aufeinander abstimmen? Als Menschen fällt uns das leicht. Wir sehen ein Auto und hören dann das Geräusch eines vorbeifahrenden Autos, und wir wissen, dass dies dasselbe ist. Aber für maschinelles Lernen ist es nicht so einfach.“
Um die Herausforderung zu bewältigen, kann die KI der Forscher Daten so darstellen, dass sie Konzepte erfassen kann, die zwischen visuellen und akustischen Daten geteilt werden können.
Sieht die KI zum Beispiel ein weinendes Baby, kann sie es mit dem gesprochenen Wort „weinen“ verbinden. Laut Scidaily kann das Modell der Forscher der Cornell Universität das besser als vergleichbare Modelle.
Herausforderungen
Allerdings gibt es noch einige Einschränkungen für das Modell. So kann es zum Beispiel bisher nur 1.000 Worte pro Video auswählen, um zu beschreiben, was darin passiert. Für Testzwecke ist das ausreichend, in der echten Welt könnten die 1.000 Wörter aber oft nicht genügen.
Außerdem kann die KI sich nur auf zwei Modalitäten gleichzeitig konzentrieren. Zum Beispiel Video und Audio oder Video und Text. In der echten Welt finden aber häufig mehrere Modalitäten gleichzeitig statt. Das kann das KI-System noch nicht darstellen.
Apple nutzt derweil eine KI, um es Autoren kleiner Verlage zu ermöglichen, Hörbücher einzulesen.