Anzeige
Anzeige
MIT Technology Review Analyse

So überzeugend sind Fake News von KI-Chatbots heute – doch das ist erst die Spitze des Eisbergs

Obwohl Chatbot-Betreiber Filter einbauen, lassen sich Sprachmodelle einfach für Fake News nutzen. Doch ihr Missbrauch-Potenzial ist damit noch lange nicht ausgeschöpft.

Von Wolfgang Stieler
3 Min.
Artikel merken
Anzeige
Anzeige
Googles Kampagne gegen Desinformationen war ein Erfolg. (Foto: Skorzewiak / Shutterstock.com)

Als Forscher:innen aus den USA 2021 zeigten, wie leicht es ist, mit GPT-3 Fake News und Hasspostings zu erzeugen, handelten sie mit ausdrücklicher Erlaubnis von OpenAI. Das Unternehmen argumentierte damals, solch ein Missbrauch sei rein hypothetisch, weil es den Zugang zu seinem Sprachmodell ja eng kontrolliere.

Anzeige
Anzeige

Ende 2023 hat ein slowakisch-tschechisches Team um Ivan Vykopal jedoch aktuelle, große Sprachmodelle genutzt, um zu Verschwörungsmythen passende, fiktive Nachrichtenmeldungen zu erfinden. „Wir hatten eigentlich erwartet, dass die Betreiber der großen Sprachmodelle einen gewissen Schutz installiert hätten“ sagt sagt Ivan Vykopal. „Aber das war nicht der Fall“.

„Die einzigen beiden LLMs, die nach der menschlichen Bewertung irgendwelche Sicherheitsmerkmale aufwiesen, waren Falcon und ChatGPT“, schreiben die Autoren. „Sie sind auch die beiden Modelle, die tendenziell nicht mit den Erzählungen übereinstimmen. Falcon filterte etwa 30 Prozent der Anfragen heraus. Alle anderen Modelle scheinen keine Sicherheitsfilter zu haben, die auf unseren Anwendungsfall anwendbar wären.“ Das einzige, was außerdem passierte war, dass die Forscher:innen eine automatisierte E-Mail erhielten, mit dem Hinweis, dass sie gegen die Nutzungsbedingungen von OpenAI verstoßen hätten und bei weiteren Verstößen ihr Zugang gesperrt würde.

Anzeige
Anzeige

Grenzen der fingierten Nachrichten

Was die „Qualität“ der Fake News anging, schnitten die Modelle von OpenAI dabei am besten ab. Allerdings machte sich auch hier die begrenzte Aktualität der Trainingsdaten bemerkbar: Wenn die Verschwörungsmythen, zu denen die Modelle etwas erfinden sollten, neuer als die Trainingsdaten waren, versagten die Modelle. So produzierte GPT-4, dessen Trainingsdaten Ende 2021 endeten, zwar fingierte Nachrichten zu bewaffneten Konflikten im Donbass, aber nicht zur russischen Invasion der Ukraine. Zum Teil ließen sich diese Fehler allerdings durch ausführliche Kontext-Infos in den Prompts ausgleichen.

Die einzig gute Nachricht bei dieser Studie: Die Forscher:innen fanden heraus, dass große Sprachmodelle sich nicht nur dazu eignen, Fake News zu erzeugen – sie können Fake News auch vergleichsweise gut erkennen und als Fälschung entlarven. Eine der – nicht trivialen – Aufgaben dabei ist zum Beispiel, zu erkennen welche Bestandteile einer Behauptung sich wirklich an Hand von Fakten überprüfen lassen. Eine vielversprechende Methode besteht darin, das Sprachmodell Fragen zu dem Prüftext formulieren zu lassen. Verglichen mit den bisher üblichen Methoden funktioniert das überraschend gut, genau wie die Identifizierung von Hatespeech.

Anzeige
Anzeige

„GPT-4 kann den Bewertungsprozess teilweise automatisieren und so skalierbare und wiederholbare Bewertungen für neue Modelle in der Zukunft erzeugen“, sagt Vykopal. „Wir glauben, dass solche automatischen Bewertungswerkzeuge in Zukunft zu einem Standard werden könnten, um zu überwachen und zu bewerten, wie gefährlich LLMs bei der Erzeugung von Desinformation sind“.

Wie wäre es mit dieser Fake News?

Die schlechte Nachricht: Das, was aktuell in Sachen Fake News und Desinformation läuft, ist nur die Spitze des Eisbergs. Denn bisher ist die Verbreitung von Fake News nur eine Einbahnstraße. Was aber passiert, wenn Sprachmodelle anfangen, uns die Fake News offensiv zu verkaufen?

Anzeige
Anzeige

Wenn Menschen glauben, dass eine KI hilfreich ist, steigert das nach einer Studie deren Glaubwürdigkeit und Überzeugungskraft. Dazu kommt: Rein technisch können große Sprachmodelle bereits jetzt die Wünsche und Bedürfnisse von Menschen „erkennen“ und ihren Output darauf anpassen (Ob die Modelle tatsächlich etwas erkennen und verstehen oder nicht, ist in der Wissenschaft stark umstritten. Zumindest verhalten sie sich aber so, als ob sie das getan hätten). Mit anderen Worten: Große Sprachmodelle neigen mindestens genauso stark wie Menschen dazu – wenn nicht sogar noch stärker – ihren Gesprächspartnern genau das zu sagen, was diese hören wollen. Das geht natürlich auch „auf Kosten der Faktentreue“, wie die Autor:innen dieser Untersuchung zur „Sycophancy“ von Sprachmodellen vermerken.

Forscher wie Pat Pataranutaporn vom MIT Media LAB warnen deshalb vor manipulativen KIs. In einer neuen Studie hat er herausgefunden, dass schon die relativ simple Tatsache, dass Sprachmodelle in der Lage sind, zu falschen Behauptungen auch frei erfundene, aber logisch klingende Begründungen zu liefern, die Glaubwürdigkeit von Falschinformationen vergrößert. Nehmen wir dann noch dazu, dass selbst OpenAI davor warnt, dass die neuen, synthetischen Stimmen von ChatGPT suchterzeugend wirken könnten, wird klar, dass wir in Sachen KI und Desinformation bisher noch nicht gesehen haben, was der Eisberg unter der Wasseroberfläche bereithält.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige