Forscher halten ihren KI-Textgenerator für zu gefährlich und veröffentlichen ihn nicht
Die Nonprofit-Forschungseinrichtung OpenAI hat ein neues KI-Modell namens Gpt2 entwickelt, welches menschliche Sprache analysieren kann und dann Texte verfasst. Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben. Das ist vor allem deshalb ungewöhnlich, weil die Mission der Einrichtung, die unter anderem von Elon Musk mitfinanziert wird, darin besteht, alle eigenen Forschungsergebnisse rund um das Thema KI zu veröffentlichen. Doch diesmal befürchten die Wissenschaftler Missbrauch und haben sich gegen eine Veröffentlichung entschieden.
Das KI-Modell GPT2
OpenAI hat ein Sprachmodell entwickelt, das unter anderem einfach das nächste passende Wort zu einem vorgegebenen Text ermitteln soll – und so Text in zusammenhängenden Absätzen erzeugt. Trainiert wurde das Modell mit einem Datensatz aus rund acht Millionen Websites – 40 Gigabyte Daten. Die Websites stammen aus Reddit, die Forscher haben für den Datensatz Nutzerempfehlungen aus dem Forum gesammelt. Diese so gesammelte Datenbasis nutzt das KI-Modell, um Muster zu erlernen, die unserer Sprache zugrunde liegen. Gpt2 passt sich dabei dem Stil und Inhalt des jeweils vorgegebenen Textes an.
Zu gut, um veröffentlicht zu werden
Die Ergebnisse waren beeindruckend: In mehr als 50 Prozent der Versuche konnte der Textgenerator zusammenhängende, kohärent formulierte Texte ausgeben. Bei hochtechnischen oder esoterischen Texten soll die Erfolgsquote schlechter gewesen sein. Auch bei anderen sprachlichen Aufgaben wie dem Leseverständnis soll das Modell überraschende Leistungen vorgelegt und auch einfache Warum-Fragen zu vorgegebenen Textpassagen beantworten haben.
Video: Der KI-Textgenerator bei der Arbeit
Und genau diese Leistungsfähigkeit des KI-Modells Gpt2 macht den Forschern Sorgen. Sie befürchten, das System könnte dazu genutzt werden, um kostengünstig Fake News zu verfassen, die Identität von Nutzern in Gesprächen zu imitieren oder die Produktion und Distribution von Spam oder Fake-Inhalten in sozialen Netzwerken zu automatisieren.
Der KI-Textgenerator dürfte dabei nicht gefährlicher als ein Mensch einzuordnen zu sein. Prinzipiell könnte das Modell nichts Schlimmeres als ein Mensch fabrizieren – aber in einer höheren Geschwindigkeit und in großen Mengen ohne großen Aufwand. Die Sorge der Forscher scheint nicht alleine dem selbstentwickelten Modell zu gelten. Sondern sie wollen offenbar vor allem auch eine Diskussion zum verantwortungsvollen Umgang mit Forschungsergebnissen provozieren:
Die Gesellschaft müsse erst noch lernen, skeptischer mit Onlinetexten umzugehen, bevor eine solche Technologie veröffentlicht werden dürfe, so OpenAI. Das Forscherteam schreibt in dem dazugehörigen Blogeintrag weiter, dass solche Systeme einen fundamentalen Kern der KI-Forschung darstellten und deshalb die Forschung nicht eingeschränkt werden könne. Aus diesem Grund veröffentlichen die Forscher nur eine abgespeckte Fassung des Modells mit Beispieldaten, aber nicht die konkret verwendete Datenbasis oder den Code, um das Modell zu trainieren.
OpenAI betrachtet diese Vorgehensweise als ein Experiment und erklärt, dass sich die Forscher nicht sicher seien, ob die eigene Vorgehensweise überhaupt richtig sei. Es sei aber notwendig, darüber zu diskutieren, wie ein verantwortungsvoller Umgang mit Veröffentlichungen im KI-Sektor aussehen könne.
Zitat:“Das Ergebnis des dazugehörigen Textgenerators ist so täuschend echt, dass die Entwickler sich gegen eine Veröffentlichung entschieden haben.“
Das Ergegnis muss so gut sein, dass es im Vorfeld scheinbar unter ethischen Gesichtspunkten diskutiert werden muss.
Hinter OpenAI steckt bekanntlich Elon Musk und er selbst hat ja bereits mehrfach eigene Gesetze für AI/KI gefordert.
Bin neugierig, wie es mit Gpt2 weitergeht.
Herzlichst
Ihr Christopher Jahns
So ein Schwachsinn,
man merkt, dass der gute Jochen Fuchs, keine Ahnung vom Thema hat.
Hier ist der Code zum paper released von OpenAI:
https://github.com/openai/gpt-2
Einfach ne dumme Lügengeschichte erfunden, unglaublich !
Aha. Keine Ahnung was uns das sagen soll. Der Blogbeitrag von OpenAI ist im Text verlinkt, darin steht das, was im Artikel steht.
Gerne Kritik sachlich und substantiell formulieren, dann kann ich auch darauf antworten.
Viele Grüße
Jochen
Es wurde nur ein abgespecktes Modell veröffentlicht. Das vollständige wird noch zurückgehalten.