Wahlkampf und Bürgerdialog: „Die sollten mal eine Adenauer-KI bauen“
2024 ist ein Superwahljahr. Gleichzeitig sehen wir seit Ende 2022 rasante Fortschritte bei generativer KI – die auch zur Desinformation eingesetzt werden kann. Christoph Bieber, der am Center for Advanced Internet Studies (CAIS) in Bochum zu Digitalisierung und Demokratie forscht, zu den Risiken und Chancen generativer KI in der Politik.
MIT Technology Review: Herr Bieber, wie gefährlich ist KI im Wahlkampf?
Bieber: Im Moment liegen uns keine Untersuchungen vor, die klipp und klar sagen: Wir hatten bei X Wahlen im Jahr Y Fälle von manipulativem KI-Einsatz. Diesen klassischen Satz „Forscher haben herausgefunden“ können wir im Moment nicht sagen. Wir können höchstens anekdotisch über Vorfälle berichten, die es bei einzelnen Wahlen gegeben hat, etwa in der Slowakei oder in Indien. Aber wir können nicht wissenschaftlich belegen, welche Effekte das am Ende auf den Wahlausgang hat. Das ist im Moment der Stand der Dinge, und das wird sich aus meiner Sicht auch bis zur US-Wahl im November nicht ändern.
„Nicht mehr die Trollfarmen irgendwo in Osteuropa“
Zur Geschichte von Fake News und Desinformation gehören die Erfahrungen aus dem Kalten Krieg und die Angst, dass der Feind über Manipulationstechniken verfügt – ohne reale Grundlagen dafür. Nun lese ich heute sehr viel über Desinformation und Fake News mit KI. Ist das eine ähnliche Konstellation? Wird die Gefahr durch KI möglicherweise überschätzt?
Bieber: Ich glaube, zum aktuellen Zeitpunkt: ja. Dass KI massiv den Ausgang von Wahlen in diesem Jahr bedroht, halte ich für übertrieben. Was nicht heißt, dass es keine KI-basierten Aktivitäten im Bereich von Desinformation gibt.
Was wir sehen, ist, dass vorhandene Verfahren zur Desinformation mithilfe von KI-Tools noch besser skalierbar sind. Ich brauche jetzt nicht mehr die Trollfarm irgendwo in Osteuropa, sondern ich kann das, was ich dort an künstlichen, beeinflussenden Nachrichten herstelle, quasi im Labor, im Reagenzglas erzeugen. Und auch da haben wir einen systemischen Effekt: Je mehr solcher auf KI-Basis erzeugter Inhalte kursieren, desto schwieriger wird es, eine funktionierende, gesunde digitale Öffentlichkeit herzustellen.
„ChatGPT wie eine Suchmaschine benutzen“
Was können wir dagegen tun?
Bieber: Eine konkrete Idee habe ich nicht. Ich glaube, was wir auf lange Sicht eigentlich nur hoffen können, ist, dass ergänzend zur technischen und rechtlichen Regulation eine erweiterte Form von Medienkompetenz entsteht, die den Umgang mit KI-generierten Inhalten einschließt.
Man könnte dafür zum Beispiel bei den anstehenden Landtagswahlen in den ostdeutschen Bundesländern ansetzen und ChatGPT wie eine Suchmaschine benutzen. Ich bin jetzt hier in Sachsen-Anhalt, was sind denn für Kandidaten da? Was wollen die eigentlich? Und nicht selten sind in den Antworten wirklich fatale Fehler drin. Das erfährt man am besten dann, wenn man das einmal selbst ausprobiert hat.
Was wäre noch möglich?
Bieber: In UK ist bei den Wahlen eine KI als Kandidat angetreten. Das hört sich seltsam an, doch die Idee dahinter, ein verbesserter Dialog mit der Bürgerschaft, ist gar nicht so dumm. Für Deutschland würden mir dazu die politischen Stiftungen einfallen. Die könnten mal ein bisschen Geld in die Hand nehmen, ihren ideengeschichtlichen Nachlass digitalisieren und in ein System einspeisen. Also eine Art Adenauer-KI bauen, die sämtliche Grundlagentexte christdemokratischen Denkens in Deutschland kennt. Auch alle Parteitagsdebatten und Beschlüsse, Positionspapiere, wichtige Reden der Vorsitzenden. Dann könnte man sie befragen: So, was ist es denn nun mit der Leitkultur? Wie geht denn das, mach mal einen Vorschlag. Das fände ich mal einen spannenden Ansatz.
Es geht darum, zu verstehen, wo diese Systeme manipulativ und gefährlich sind, aber man darf eben auch die möglicherweise positiven und hilfreichen Dinge nicht aus dem Blick verlieren und sollte die genauso testen. Das sollte nicht verloren gehen bei all dem Hype.