News

Forscher halten ihren KI-Textgenerator für zu gefährlich und veröffentlichen ihn nicht

OpenAI entscheidet sich gegen die Veröffentlichung eines KI-Sprachmodells. Die Forschungseinrichtung befürchtet Missbrauch. (Foto: Shutterstock)

Ein KI-Textgenerator produziert so verblüffend gute Ergebnisse, dass die Forscher von OpenAI ihn aus Sorge um Missbrauch nicht veröffentlichen. 

Die Nonprofit-Forschungseinrichtung OpenAI hat ein neues KI-Modell namens Gpt2 entwickelt, welches menschliche Sprache analysieren kann und dann Texte verfasst. Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben. Das ist vor allem deshalb ungewöhnlich, weil die Mission der Einrichtung, die unter anderem von Elon Musk mitfinanziert wird, darin besteht, alle eigenen Forschungsergebnisse rund um das Thema KI zu veröffentlichen. Doch diesmal befürchten die Wissenschaftler Missbrauch und haben sich gegen eine Veröffentlichung entschieden.

Das KI-Modell GPT2

OpenAI hat ein Sprachmodell entwickelt, das unter anderem einfach das nächste passende Wort zu einem vorgegebenen Text ermitteln soll – und so Text in zusammenhängenden Absätzen erzeugt. Trainiert wurde das Modell mit einem Datensatz aus rund acht Millionen Websites – 40 Gigabyte Daten. Die Websites stammen aus Reddit, die Forscher haben für den Datensatz Nutzerempfehlungen aus dem Forum gesammelt.  Diese so gesammelte Datenbasis nutzt das KI-Modell, um Muster zu erlernen, die unserer Sprache zugrunde liegen. Gpt2 passt sich dabei dem Stil und Inhalt des jeweils vorgegebenen Textes an.

Zu gut, um veröffentlicht zu werden

Die Ergebnisse waren beeindruckend: In mehr als 50 Prozent der Versuche konnte der Textgenerator zusammenhängende, kohärent formulierte Texte ausgeben. Bei hochtechnischen oder esoterischen Texten soll die Erfolgsquote schlechter gewesen sein. Auch bei anderen sprachlichen Aufgaben wie dem Leseverständnis soll das Modell überraschende Leistungen vorgelegt und auch einfache Warum-Fragen zu vorgegebenen Textpassagen beantworten haben.

Video: Der KI-Textgenerator bei der Arbeit

Und genau diese Leistungsfähigkeit des KI-Modells Gpt2 macht den Forschern Sorgen. Sie befürchten, das System könnte dazu genutzt werden, um kostengünstig Fake News zu verfassen, die Identität von Nutzern in Gesprächen zu imitieren oder die Produktion und Distribution von Spam oder Fake-Inhalten in sozialen Netzwerken zu automatisieren.

Der KI-Textgenerator dürfte dabei nicht gefährlicher als ein Mensch einzuordnen zu sein. Prinzipiell könnte das Modell nichts Schlimmeres als ein Mensch fabrizieren – aber in einer höheren Geschwindigkeit und in großen Mengen ohne großen Aufwand. Die Sorge der Forscher scheint nicht alleine dem selbstentwickelten  Modell zu gelten. Sondern sie wollen offenbar vor allem auch eine Diskussion zum verantwortungsvollen Umgang mit Forschungsergebnissen provozieren:

Die Gesellschaft müsse erst noch lernen, skeptischer mit Onlinetexten umzugehen, bevor eine solche Technologie veröffentlicht werden dürfe, so OpenAI. Das Forscherteam schreibt in dem dazugehörigen Blogeintrag weiter, dass solche Systeme einen fundamentalen Kern der KI-Forschung darstellten und deshalb die Forschung nicht eingeschränkt werden könne. Aus diesem Grund veröffentlichen die Forscher nur eine abgespeckte Fassung des Modells mit Beispieldaten, aber nicht die konkret verwendete Datenbasis oder den Code, um das Modell zu trainieren.

OpenAI betrachtet diese Vorgehensweise als ein Experiment und erklärt, dass sich die Forscher nicht sicher seien, ob die eigene Vorgehensweise überhaupt richtig sei. Es sei aber notwendig, darüber zu diskutieren, wie ein verantwortungsvoller Umgang mit Veröffentlichungen im KI-Sektor aussehen könne.

Passend zum Thema

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

4 Kommentare
Christopher Jahns
Christopher Jahns

Zitat:“Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben.“

Das Ergegnis muss so gut sein, dass es im Vorfeld scheinbar unter ethischen Gesichtspunkten diskutiert werden muss.
Hinter OpenAI steckt bekanntlich Elon Musk und er selbst hat ja bereits mehrfach eigene Gesetze für AI/KI gefordert.

Bin neugierig, wie es mit Gpt2 weitergeht.

Herzlichst
Ihr Christopher Jahns

Antworten
Jochen HatKeinPlan
Jochen HatKeinPlan

So ein Schwachsinn,

man merkt, dass der gute Jochen Fuchs, keine Ahnung vom Thema hat.

Hier ist der Code zum paper released von OpenAI:

https://github.com/openai/gpt-2

Einfach ne dumme Lügengeschichte erfunden, unglaublich !

Antworten
Jochen G. Fuchs

Aha. Keine Ahnung was uns das sagen soll. Der Blogbeitrag von OpenAI ist im Text verlinkt, darin steht das, was im Artikel steht.

Gerne Kritik sachlich und substantiell formulieren, dann kann ich auch darauf antworten.

Viele Grüße
Jochen

Antworten
Paul
Paul

Es wurde nur ein abgespecktes Modell veröffentlicht. Das vollständige wird noch zurückgehalten.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung