
„Von KI geschriebene Texte können potenziell schädlich sein, wenn sie zur Verbreitung von Fehlinformationen oder zur Manipulation der Überzeugungen oder des Verhaltens von Menschen verwendet werden.“ Dieses Zitat stammt nicht von einem Experten, sondern von ChatGPT. Die Text-KI von OpenAI hat damit tatsächlich recht. Leider ist das aber längst nicht immer der Fall.
ChatGPT kann zwar zu jedem Thema einen Text schreiben, da die KI aber nicht wirklich versteht, was sie da schreibt, produziert sie prinzipbedingt leider häufig Unfug. Der kann aber durchaus glaubwürdig klingen. Das merkten die Betreiber:innen der Entwickler:innen-Plattform Stack Overflow vergleichsweise früh. Als Reaktion darauf wurden KI-generierte Texte auf der Plattform Anfang Dezember 2022 verboten.
Wie genau das Verbot von Stack Overflow kontrolliert wird, verrät die Plattform nicht. Laut Angaben der Firma sollen aber automatisierte Erkennungssysteme zum Einsatz kommen. Das ist schon aufgrund der Menge an potenziell KI-generierten Texten notwendig. Aber auch, weil Menschen schlicht nicht sehr gut darin sind, KI-Texte als solche zu erkennen.
„In einer Untersuchung über die menschliche Bewertung von maschinell erzeugtem Text wurde festgestellt, dass ungeschulte menschliche Prüfer maschinell erzeugten Text aus GPT-3 in einem Maße korrekt identifizieren konnten, das dem Zufall entspricht“, heißt es in einer aktuellen Untersuchung. Sprich: Man könnte genauso gut per Münzwurf entscheiden, ob ein Text von einer KI generiert wurde.
Immerhin konnte die Erkennungsrate durch etwas Training auf 55 Prozent erhöht werden. Wirklich großartig ist die Trefferquote allerdings nicht. Mit dem Giant Language Model Test Room (GLTR) gibt es aber immerhin ein von Forscher:innen von Harvard und IBM entwickeltes Hilfswerkzeug, mit dessen Hilfe Menschen dabei unterstützt werden sollen, KI-generierte Texte zu erkennen.
GLTR wurde anhand des Sprachmodells von GPT-2 trainiert und zeigt an, wie wahrscheinlich es ist, dass ein Text von diesem KI-Modell erzeugt wurde. Aber auch die Macher:innen des Tools geben zu bedenken, dass GLTR nur zur Erkennung einzelner Verdachtsfälle sinnvoll eingesetzt werden kann.
Erfolgversprechender ist die KI-gestützte Erkennung maschinell erzeugter Texte. Dabei wird die Technik gegen sich selbst eingesetzt. Abhängig von verschiedenen Faktoren kann dabei eine Erkennungsrate von über 90 Prozent erreicht werden.
Allerdings dürfte es in der Realität deutlich schwieriger sein. Wer wirklich verhindern will, dass ein KI-generierter Text als solcher erkannt wird, kann seine Modelle entsprechend anpassen. Selbst OpenAI erklärt in einem Paper über die Problematik, dass die automatisierte Erkennung von KI-Texten letztlich auf ein Katz-und-Maus-Spiel hinauslaufen dürfte, bei dem beide Seiten immer wieder nachbessern müssen.
Eine dauerhafte Lösung für das Problem gibt es vorerst nicht. In Anbetracht der Tatsache, wie unkritisch schon jetzt menschgemachte Fake News in vielen Fällen im Netz geteilt werden, lässt sich erahnen, welches Gefahrenpotenzial in automatisierten Desinformationskampagnen steckt. Zwar werden Erkennungssysteme immer besser, aber das gilt eben auch für die Text-Generatoren.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Wieso könnt ihr nicht endlich mit diesem schrecklichen Gendern aufhören?
Ja, unbedingt.
Sehe ich genauso, furchtbar und macht diesen Artikel mit einem Schlag unglaubwürdig und unlesbar.
Es ist interessant, dass man offenbar so zwanghaft am Turing-Test festhält. Mensch oder Maschine? Und damit sind wir sicher vor allem „Bösen“? Eine Lösung könnte der Ethische-Intelligenz-Test geben. Dort spielt es keine Rolle, ob ein Text von einem Menschen oder einer Maschine erstellt wurde. Wenn ich mich also nicht von einem der zahlreichen *menschlichen* Autokraten und Demokratieverweigerern dieser Welt indoktrinieren lassen möchte, dann mache ich mein Vertrauen eher abhängig von der Frage: Ethisch-intelligent, ja oder nein?
Natürlich ist das auch nur ein Modell. Allerdings ein zukunftsweisendes. Zumal Mensch und Computer früher oder später wohl ohnehin eine (noch engere) Symbiose eingehen werden, will der Mensch nicht von der KI intellektuell abgehängt werden.