Google Deepmind: KI-Experten sehen kaum Intelligenz in KI-Modellen
Google Deepmind ist das KI-Unternehmen im Alphabet-Konzern. Dessen Forscher:innen gelten als absolute Koryphäen auf dem Gebiet der künstlichen Intelligenz. Ihr Wort hat Gewicht.
Transformer-KI: Ergebnisse nur innerhalb der Trainingsdaten gut
Wenn nun also Googles eigene Experten, namentlich Steve Yadlowsky, Lyric Doshi und Nilesh Tripuraneni, ein Papier verfassen, dass sich mit dem heutigen Stand der KI-Technologie befasst, dürfen und sollten wir das ernst nehmen. Eine Einschränkung sei aber erwähnt: Das Papier ist bislang nicht durch das Peer-Review-Verfahren gelaufen, könnte also von anderen Expert:innen noch angezweifelt werden.
Im Ergebnis kommen die Google-Experten zu dem Schluss, dass heutige KI-Modelle nicht sehr gut darin sind, Ergebnisse außerhalb ihrer Trainingsdaten zu erzielen. „Wenn Aufgaben oder Funktionen gestellt werden, die außerhalb der Domäne ihrer Trainingsdaten liegen, zeigen wir verschiedene Versagensarten von Transformatoren und eine Verschlechterung ihrer Generalisierung selbst bei einfachen Extrapolationsaufgaben“, erklären Yadlowsky, Doshi und Tripuranemi.
Keine generalisierte Aufgabenerfüllung möglich
In Klartext übersetzt bedeutet das, dass ein Transformator-Modell, das nicht auf Daten trainiert wurde, die mit der Aufgabe, die man ihm stellt, in Zusammenhang stehen, wahrscheinlich nicht in der Lage sein wird, sie zu erfüllen, selbst wenn die Aufgabe an sich einfach ist. Das ist eine recht deutliche Bankrotterklärung gängiger KI-Modelle.
Gesagt werden muss, dass sich die Erkenntnisse des Papiers auf OpenAIs GPT-2 beziehen, aktuell ist GPT-4. Allerdings generalisieren die Autoren auf sogenannte Transformer-Modelle wie ChatGPT auch weiterhin eines ist.
Transformer-Modelle nehmen einen Input und transformieren ihn in einen Output. Das T ist GPT steht für Transformer. Diese Modelle galten bislang unter Forscher:innen als jene Form von KI, die am ehesten zu einer künstlichen allgemeinen Intelligenz (AGI) weiterentwickelt werden könnte.
AGI demnach in weiter Ferne
AGI gilt als KI-System, das es Maschinen ermöglichen würde, intuitives „Denken“ wie das des Menschen zu entwickeln. Das klingt nicht übertrieben, wohnte doch den Transformatoren-Modellen bislang das Versprechen inne, dass sie über ihre Trainingsdaten hinausgehen können.
Trotz der gigantischen Trainingsdatensätze, die für die Erstellung der großen Sprachmodelle (LLM) von OpenAI verwendet werden, hat die KI bislang keine Eigenständigkeit entwickeln können. Vielmehr scheint die Studie so zu lesen zu sein, dass die Ergebnisse der KI sich besonders deutlich an den Inhalten des Trainingsdatensatzes orientieren. Vereinfacht ließe sich sagen, dass KI zumindest derzeit nur dann beeindruckend ist, wenn sie sich auf das Fachwissen der Menschen stützt, mit dem sie trainiert wurde.
KI-Hype: Nüchterne Denker:innen werden nicht gehört
Völlig überraschend kommt die Erkenntnis indes nicht. Schon seit der Veröffentlichung von ChatGPT im letzten Jahr haben nüchterne Denker:innen mit Expertise die Menschen aufgefordert, ihre KI-Erwartungen nicht zu übersteigern.
Dennoch glauben immer noch einige, durchaus sogar Expert:innen, dass KI zu der Art von Gedankensprüngen fähig ist, die zumindest derzeit noch Menschen von Maschinen unterscheidet. Zu diesen Gläubigen gehören offenbar auch der Chef von OpenAI, Sam Altman, und der Chef von Microsoft, Satya Nadella, die diese Woche vor Investoren verkündeten, dass sie planen, „gemeinsam eine AGI aufzubauen“.
Selbst der Deepmind-Mitgründer Shane Legg prognostizierte noch im vergangenen Monat, dass er eine 50-prozentige Chance sehe, dass AGI bis zum Jahr 2028 erreicht wird. Das allerdings sagt er mit unterschiedlichen Endpunkten schon seit gut zehn Jahren.
nicht nur Google sieht kaum Intelligenz in den KI Zeug… aber es vermarktet sich so toll .. genau wie mit den PRO Versionen diverser Apps welche nix mit professionalität zu tun hat.