Wahljahr 2024: So will OpenAI einen Missbrauch von ChatGPT und Dall‑E verhindern
Das Superwahljahr 2024 wird der erste Härtetest für ChatGPT, Dall‑E und Co. In den USA wird der Präsident gewählt, in Europa stehen Wahlen zum EU-Parlament an, in Russland will sich Wladimir Putin bestätigen lassen.
Die Befürchtungen vieler Beobachter:innen ist, dass Falschmeldungen und gefakte Bilder, die mit künstlicher Intelligenz erstellt werden, die Wahlen entscheidend beeinflussen könnten. In den USA kursierten schon im letzten Jahr mit KI gefälschte Bilder, auf denen etwa der Ex-Präsident und vermutliche 2024er-Kandidat Donald Trump von Polizisten abgeführt wird.
So will OpenAI Missbrauch im Wahlkampf verhindern
In einem Blogpost hat nun OpenAI erklärt, wie es im Wahljahr einen Missbrauch seiner weit verbreiteten KI-Tools ChatGPT und Dall‑E verhindern will.
So arbeite OpenAI gerade daran, zu verstehen, wie politische Einflussnahme via KI funktioniert. Bis dies geklärt sei, erlaube der Konzern nicht, dass seine Tools für Wahlkampagnen und Lobbying eingesetzt werden. Programmierer:innen ist zudem nicht erlaubt, Bots zu entwerfen, die sich für Kandidat:innen, Parteien oder Institutionen ausgeben.
Wie genau dieser Prozess aussieht und wie die Verbote durchgesetzt werden können, sagt der Blogpost nicht. Bereits jetzt gibt es bei Dall‑E die Direktive, dass Anfragen, die reale Personen wie zum Beispiel politische Kandidat:innen enthalten, nicht bearbeitet werden.
Transparenzoffensive für KI-generierte Bilder
Bei Dall‑E setzt OpenAI auf eine Transparenzoffensive. So soll künftig besser ersichtlich sein, ob ein Bild mit dem KI-Bildergenerator erschaffen worden ist. Anfang des Jahres will OpenAI bei Dall‑E3 einen digitalen Herkunftsnachweis der Coalition for Content Provenance and Authenticity (C2PA) implementieren.
Die Nonprofit-Organisation liefert laut eigener Aussage eine „digitale Nährwertkennzeichnung“. Ein von C2PA bereitgestellter Button liefert auf einem Bild Informationen, wie es zustande gekommen ist. Konzerne wie Adobe oder das OpenAI finanziell unterstützende Microsoft wollen das Tool nutzen.
Darüber hinaus arbeitet OpenAI an einem eigenen Werkzeug, das von Dall‑E erzeugte Bilder erkennen soll. In ersten internen Versuchen habe der Herkunftsanzeiger gute Ergebnisse geliefert. Bald soll er für ausgewählte Testpersonen wie Forscher:innen oder Journalist:innen bereitgestellt werden.
ChatGPT soll aktueller und transparenter werden
Bei ChatGPT verspricht das Unternehmen von Sam Altman, immer stärker aktuelle Informationen zu verarbeiten. Bisher wurde der Chatbot zum Training mit zum Teil veralteten Daten gefüttert. ChatGPT soll an Echtzeit-News angebunden werden und Quellen und Links liefern. Bei der Auswahl von Quellen soll ausgewogen vorgegangen werden, sodass sich Nutzer:innen ein eigenes Bild machen können.
User:innen sollen bei neuen GPTs über einen eigenen Reiter Missbrauch melden können.
Zuletzt will OpenAI verhindern, dass sachliche Falschinformationen zu Wahlen kursieren – etwa, wann und wo Wähler:innen ihre Stimme abgeben können. Nicht ganz unproblematisch: Stimmen, die Sätze wie „Wählen bringt eh nichts“ transportieren, dürfen ChatGPT laut Nutzungsbedingungen nicht verwenden.