GPT-3, der KI-gestützte Textgenerator aus dem Hause OpenAI – ein von Elon Musk mitgegründetes Forschungslabor –, schreibt so gute Texte, dass sie kaum als von einer KI verfasst zu erkennen sind. Die KI ist seit Juli in einer privaten Beta verfügbar. Erste Nutzerberichte beschreiben die Leistungen des neuronalen Netzwerks als bahnbrechend. Die KI ist mittlerweile in der Lage, ganze Pressemitteilungen, Kurzgeschichten, Songtexte, technische Dokumentationen und mehr zu schreiben.
Sprachmodelle wie GPT-3 funktionieren ähnlich wie zum Beispiel das Auto-Complete-Feature eines E-Mail-Providers. Sie versuchen, anhand des sprachlichen Kontexts das nächste Wort in einem Satz vorherzusagen. Zum heutigen Zeitpunkt gilt GPT-3 als das größte bisher trainierte Sprachmodell. Dank seiner Größe kann das neuronale Netzwerk mittlerweile anhand weniger Beispiel-Demonstrationen ihm bisher unbekannte Aufgaben lösen. Verglichen mit anderen, weniger komplexen Sprachmodellen ist das ein großer Fortschritt.
Scharfe Kritik von Facebook-KI-Experte
Beim Einsatz als Chatbot stößt der Generative Pretrained Transformer 3 jedoch an seine Grenzen. Yann LeCun, führender KI-Wissenschaftler bei Facebook, der in einschlägigen Kreisen auch den Spitznamen KI-Pate trägt, schrieb am Dienstag in einem Facebook-Post, dass „die Menschen völlig unrealistische Erwartungen haben, was groß angelegte Sprachmodelle wie GPT-3 leisten können.“ Dabei bezieht sich Chun auf eine kürzlich von der Medical-KI-Firma Nabla durchgeführte Versuchsreihe mit dem Textgenerator. Deren Experimente hatten gezeigt, dass GPT-3 für den Einsatz im Gesundheitswesen offenbar völlig ungeeignet ist.
„Unterhaltsam und allenfalls als kreative Hilfe nützlich“
Das gefeierte neuronale Netzwerk sei „unterhaltsam und allenfalls als kreative Hilfe nützlich“, schreibt LeCun in seinem Facebook-Post. Den Versuch, durch die Vergrößerung von Sprachmodellen intelligente Maschinen zu bauen, vergleicht er mit dem Vorhaben, in einem Höhenflugzeug zum Mond zu fliegen. Dabei würde man eventuell neue Höhenrekorde aufstellen, für eine Mondlandung sei aber ein ganz anderer Ansatz nötig.
Die von Nabla durchgeführten Versuche in verschiedenen medizinischen Szenarien führten zu der Feststellung, dass die Fähigkeit der KI, verblüffend kohärente Texte zu schreiben, noch lange nicht bedeutet, dass sie auch in anderen Kontexten nützlich ist. In einem der Experimente war GPT-3 nicht in der Lage, die einzelnen Posten einer medizinischen Rechnung zu addieren. In einer anderen, weitaus bedenklicheren Situation, empfahl die als Chatbot eingesetzte KI einem Scheinpatienten sogar, sich umzubringen:
„Als Frage-Antwort-System“, schreibt der Experte weiter, „eignet sich GPT-3 nicht besonders gut“. Er räumt jedoch ein, dass einige der bisher verfügbaren Ansätze durchaus als Grundlage für ein gutes derartiges System dienen könnten – wenn dieses System anhand der gesamten medizinischen Literatur in Zusammenarbeit mit Ärzten trainiert würde. Massive Mengen operationellen Wissens anhand von Texten zu kompilieren, sei allerdings momentan immer noch ein Forschungsthema.
via futurism.com