News

Forscher halten ihren KI-Textgenerator für zu gefährlich und veröffentlichen ihn nicht

OpenAI entscheidet sich gegen die Veröffentlichung eines KI-Sprachmodells. Die Forschungseinrichtung befürchtet Missbrauch. (Foto: Shutterstock)

Ein KI-Textgenerator produziert so verblüffend gute Ergebnisse, dass die Forscher von OpenAI ihn aus Sorge um Missbrauch nicht veröffentlichen. 

Die Nonprofit-Forschungseinrichtung OpenAI hat ein neues KI-Modell namens Gpt2 entwickelt, welches menschliche Sprache analysieren kann und dann Texte verfasst. Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben. Das ist vor allem deshalb ungewöhnlich, weil die Mission der Einrichtung, die unter anderem von Elon Musk mitfinanziert wird, darin besteht, alle eigenen Forschungsergebnisse rund um das Thema KI zu veröffentlichen. Doch diesmal befürchten die Wissenschaftler Missbrauch und haben sich gegen eine Veröffentlichung entschieden.

Das KI-Modell GPT2

OpenAI hat ein Sprachmodell entwickelt, das unter anderem einfach das nächste passende Wort zu einem vorgegebenen Text ermitteln soll – und so Text in zusammenhängenden Absätzen erzeugt. Trainiert wurde das Modell mit einem Datensatz aus rund acht Millionen Websites – 40 Gigabyte Daten. Die Websites stammen aus Reddit, die Forscher haben für den Datensatz Nutzerempfehlungen aus dem Forum gesammelt.  Diese so gesammelte Datenbasis nutzt das KI-Modell, um Muster zu erlernen, die unserer Sprache zugrunde liegen. Gpt2 passt sich dabei dem Stil und Inhalt des jeweils vorgegebenen Textes an.

Zu gut, um veröffentlicht zu werden

Die Ergebnisse waren beeindruckend: In mehr als 50 Prozent der Versuche konnte der Textgenerator zusammenhängende, kohärent formulierte Texte ausgeben. Bei hochtechnischen oder esoterischen Texten soll die Erfolgsquote schlechter gewesen sein. Auch bei anderen sprachlichen Aufgaben wie dem Leseverständnis soll das Modell überraschende Leistungen vorgelegt und auch einfache Warum-Fragen zu vorgegebenen Textpassagen beantworten haben.

Video: Der KI-Textgenerator bei der Arbeit

Und genau diese Leistungsfähigkeit des KI-Modells Gpt2 macht den Forschern Sorgen. Sie befürchten, das System könnte dazu genutzt werden, um kostengünstig Fake News zu verfassen, die Identität von Nutzern in Gesprächen zu imitieren oder die Produktion und Distribution von Spam oder Fake-Inhalten in sozialen Netzwerken zu automatisieren.

Der KI-Textgenerator dürfte dabei nicht gefährlicher als ein Mensch einzuordnen zu sein. Prinzipiell könnte das Modell nichts Schlimmeres als ein Mensch fabrizieren – aber in einer höheren Geschwindigkeit und in großen Mengen ohne großen Aufwand. Die Sorge der Forscher scheint nicht alleine dem selbstentwickelten  Modell zu gelten. Sondern sie wollen offenbar vor allem auch eine Diskussion zum verantwortungsvollen Umgang mit Forschungsergebnissen provozieren:

Die Gesellschaft müsse erst noch lernen, skeptischer mit Onlinetexten umzugehen, bevor eine solche Technologie veröffentlicht werden dürfe, so OpenAI. Das Forscherteam schreibt in dem dazugehörigen Blogeintrag weiter, dass solche Systeme einen fundamentalen Kern der KI-Forschung darstellten und deshalb die Forschung nicht eingeschränkt werden könne. Aus diesem Grund veröffentlichen die Forscher nur eine abgespeckte Fassung des Modells mit Beispieldaten, aber nicht die konkret verwendete Datenbasis oder den Code, um das Modell zu trainieren.

OpenAI betrachtet diese Vorgehensweise als ein Experiment und erklärt, dass sich die Forscher nicht sicher seien, ob die eigene Vorgehensweise überhaupt richtig sei. Es sei aber notwendig, darüber zu diskutieren, wie ein verantwortungsvoller Umgang mit Veröffentlichungen im KI-Sektor aussehen könne.

Passend zum Thema

Bitte beachte unsere Community-Richtlinien

4 Reaktionen
Jochen HatKeinPlan

So ein Schwachsinn,

man merkt, dass der gute Jochen Fuchs, keine Ahnung vom Thema hat.

Hier ist der Code zum paper released von OpenAI:

https://github.com/openai/gpt-2

Einfach ne dumme Lügengeschichte erfunden, unglaublich !

Antworten
Jochen G. Fuchs

Aha. Keine Ahnung was uns das sagen soll. Der Blogbeitrag von OpenAI ist im Text verlinkt, darin steht das, was im Artikel steht.

Gerne Kritik sachlich und substantiell formulieren, dann kann ich auch darauf antworten.

Viele Grüße
Jochen

Antworten
Paul

Es wurde nur ein abgespecktes Modell veröffentlicht. Das vollständige wird noch zurückgehalten.

Antworten
Christopher Jahns

Zitat:"Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben."

Das Ergegnis muss so gut sein, dass es im Vorfeld scheinbar unter ethischen Gesichtspunkten diskutiert werden muss.
Hinter OpenAI steckt bekanntlich Elon Musk und er selbst hat ja bereits mehrfach eigene Gesetze für AI/KI gefordert.

Bin neugierig, wie es mit Gpt2 weitergeht.

Herzlichst
Ihr Christopher Jahns

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung