Anzeige
Anzeige
Anzeige
Anzeige
Interview
Verpasse keine News mehr!

„Leute reden über KI wie Teenager über Sex“: Tech-Philosoph Tante über die Gefahren von KI für die Demokratie

Jürgen Geuter ist nicht nur Informatiker, sondern auch Philosoph. In Vorträgen warnt er vor den aktuellen Entwicklungen im KI-Bereich. Die Technologie würde faschistischen Kräften helfen. Wir haben nachgefragt, wie das zu verstehen ist.

6 Min.
Artikel merken
Anzeige
Anzeige
Jürgen Geuter – im Internet bekannter als Tante. (Foto: Jürgen Geuter)

Seit dem Release von GPT-3 von OpenAI zählt generative KI zu dem Wachstumsmarkt in der Tech-Industrie. Tech-Konzerne investieren teilweise Milliarden an US-Dollar in die Technologie. Unternehmen implementieren derweil KI-Agenten, die menschliche Arbeitskräfte ersetzen sollen. Das Versprechen der Anbieter der großen Sprachmodelle: Alles, von der privaten Planung bis zum Berufsalltag, wird effizienter.

Anzeige
Anzeige

Jürgen Geuter ist Research Director der interdisziplinären Art+Com Studios, die unter anderem Ausstellungen mithilfe von neuen Medien gestalten und entwickeln. Unter dem Pseudonym Tante beschäftigt sich der Techniktheoretiker mit den Schnittstellen von Technologie, Gesellschaft und Politik. Geuter ist auch als Berater und Publizist tätig. Dem KI-Hype steht Geuter kritisch gegenüber.

t3n: Sie haben KI in der Vergangenheit als faschistische Werkzeuge bezeichnet. Wieso?

Anzeige
Anzeige

Jürgen Geuter: Ich glaube, da müssen wir erst einmal differenzieren. Unter diesem KI-Begriff ist eine so unterschiedliche Menge an Apparaten zusammengefasst, dass der Begriff mehr verschleiert, als er hilft. Es geht mir da nicht um kleine, auf spezielle Use-Cases optimierte Modelle.

Sondern?

Um das, was heute unter dem Oberbegriff GenAI verhandelt wird: Large Language Models, Bildgeneratoren, Videogeneratoren, Soundgeneratoren, diese Dinge. Ich würde nicht sagen, dass diese Systeme grundsätzlich vollständig faschistisch sind. Aber sie funktionieren sehr gut in faschistischer Logik – auch besser als in anderen Logiken. Das liegt daran, dass die Modelle gewisse strukturelle Eigenschaften haben, die in eine faschistische Richtung gehen, auch wenn die Modelle selbst es scheinbar nicht sind.

Wie meinen sie das?

Anzeige
Anzeige

Das Problem mit diesen stochastischen Systemen ist immer, dass wir sie mit Daten aus der Vergangenheit trainieren. Das ist grundsätzlich ein bekanntes Problem, das schon in dem sehr bekannten Stochastic Parrots Paper behandelt wurde.

Dadurch haben diese Systeme inhärent alle Diskriminierungsformen, die wir kennen, eingebaut. Wenn ich mich als Mensch diskriminierend äußere, dann kannst du etwas dagegen sagen. Ich kann daraus lernen und mir diese Denkmuster abgewöhnen. Das können die Systeme nicht.

Was bedeutet das konkret?

Anzeige
Anzeige

Wenn man Bildgeneratoren fragt, wie es aussieht, wenn sich zwei Menschen küssen, dann generieren die Tools fast immer einen jungen Mann und eine junge Frau. Wenn man sich dann beide anschaut, sind die natürlich normschön und gerne weiß und blond. Das sind schon sehr konservative Wertvorstellungen, die da immer wieder reproduziert werden.

Die KI-Hersteller versuchen manchmal, dem entgegenzuwirken, aber am Ende steckt das in diesen Modellen einfach drin. Man hat fünfzig Jahre strukturelle Diskriminierung genommen und das ist jetzt die Zukunft.

Macht das nicht generative KI eher zu einem Spiegelbild unserer Gesellschaft?

Anzeige
Anzeige

Die Gesellschaft, wie sie jetzt ist, findet sich in den Trainingsdaten nur zu einem kleinen Teil wieder. Ein Großteil sind auch Werbefotos aus den 60ern oder Texte aus den 1930ern. Also haben wir einfach einen großen Datenkorpus, der sehr alt ist und den wir immer noch mit uns herumschleppen.

Lässt man ein Bild von küssenden Menschen generieren, dann kommt ein Hetero-Paar. Wenn man sagt, zeig mir Deutsche, die sich küssen, dann sind die plötzlich auch immer blond. Wäre ich Faschist, würde ich sagen: „Genau so muss das aussehen!“ Ich kann mir für jeden Kontext genau diese mythologisierte Vergangenheit erzeugen, immer mit der Behauptung, das kommt aus Daten. Und wenn ich das behaupte, bekommt es dadurch auch immer so einen Anschein von Wahrheit. Weil ich sage: „Die Maschine lügt nicht, die hat keine Ideologie, wie Menschen das haben würden.“

Aber besteht nicht bei jeder neuen Technologie ein Missbrauchspotenzial? Inwiefern ist generative KI anders als andere Technologien?

Anzeige
Anzeige

GenAI-Systeme sind keine spezifischen Werkzeuge für spezifische Anwendungsbereiche, sondern Maschinen, die angeblich alles können. Das führt dazu, dass diese Systeme auch in demokratische Strukturen eingebaut werden sollen. Es gibt Bürokratie, um eine bestimmte Regeldurchsetzung sicherzustellen. Aber diesen Prozess streichen wir und setzen einfach eine KI hin.
Wir geben Governance-Prozesse an die Sprachmodelle ab, um alles effizienter zu machen. Dieses Handeln passt in den Faschismus. Der will auch die Infrastrukturen der Demokratie loswerden. Die stören beim autoritären Durchregieren. Dadurch ist dieses „effizienter machen“ oft eine Ablehnung von Demokratie.

Ist das nicht etwas weit hergeholt?

Natürlich heißt das nicht, dass KI immer faschistisch ist. Aber es zeigt, dass die Art und Weise, wie Faschismus funktioniert, und die Art, wie KI-Systeme funktionieren, sehr gut zusammenpassen.

Anzeige
Anzeige

Gibt es nicht in unserer Gesellschaft großen Zuspruch für effizientere Prozesse?

Ich glaube, dass dieses Narrativ an einer Unzufriedenheit mit einem versagenden Staat andockt. Der Neoliberalismus hat staatliches Handeln über ein paar Dekaden komplett heruntergewirtschaftet.

Da setzen jetzt Leute an und sagen: ‚Das liegt nur daran, dass die Verwaltung nicht effizient genug ist. Die KI macht das wieder richtig.‘ Vielleicht macht es uns ja wirklich effizienter. Was es aber macht, ist zu bestimmen, wer mitredet. Denn wer baut denn diese KI? Wenn wir Glück haben, dann darf die Schwarz-Gruppe mit ihrer KI aus Deutschland das sagen. Sonst wird es wahrscheinlich Microsoft oder OpenAI sein, die das bestimmen.

Anzeige
Anzeige

Dabei preisen Tech-CEOs und auch einige Forscher:innen KI als Tool zur Demokratisierung an. Greift dieses Argument Ihrer Meinung nach nicht?

Das Argument hört man bei digitalen Technologien immer wieder. Wer sagt: „KI-Systeme haben eine demokratisierende Wirkung“, hat ein komplettes Mickey-Maus-Verständnis von Demokratie.

Demokratisierung bedeutet, dass du Rechte bekommst, die du vorher nicht hattest. Dass sich Personen in diesem Staat beteiligen können und dass Macht verteilt und auch kontrolliert wird.

Trotzdem hört man es bei der Erzeugung von Kreativgütern, wie bei der Bilderzeugung oder Musik. Der Suno-CEO Mikey Shulman denkt, Leute haben keinen Spaß an Musik und sie demokratisieren mit einer KI die Möglichkeit, Musik zu machen. Wird hier Macht besser kontrolliert? Nein! Ich kann mir jetzt ein Produkt von Suno mieten. Demokratie bedeutet aber nicht, dass wir alle dasselbe Ding kaufen.

Sondern?

In meinem Arbeitszimmer steht eine Gitarre. Ich spiele unendlich schlecht Gitarre, weil ich zu wenig übe und es mir schwerfällt, es zu lernen. Klingt scheiße. Wenn man mir Suno gibt, demokratisiert das nicht meine Teilhabe. Ich könnte Musik machen. Dann muss ich da Zeit investieren. Tue ich nicht. Ich stecke meine Zeit in andere Sachen.

Wenn wir darüber reden wollen, dass Kunst demokratisiert werden soll, heißt das, dass mehr Leute Teil an der Erschaffung von Kunst haben sollen. Dann kann der Pitch ja nicht sein: Alle dürfen jetzt ihr Geld bei Microsoft reinwerfen und können schlechte Dinge erzeugen.

Was hat das mit Faschismus zu tun?

Man raubt die Arbeit der Künstler:innen auf eine demütigende Weise. Ein Beispiel: Studio Ghibli und dessen Gründer Hayao Miyazaki sind bekannt dafür, dass sie KI ablehnen. Als OpenAI ein neues Bildgenerierungsmodell veröffentlicht hat, konnte man damit ganz einfach Bilder im Studio-Ghibli-Stil erzeugen. Das Weiße Haus kam dann auf die Idee, diesen Stil auf Deportationsfotos anzuwenden. Das zeigt ja, wie sehr die Logik des Faschismus zu der Anwendung dieser Systeme passt. Es gilt das Recht des Stärkeren. Urheberrecht, Datenschutz? Alles egal: might makes right. Ich nehme alle Daten für mein KI-Training, weil ich es kann.

Sowohl Studio Ghibli als auch viele unabhängige Künstler:innen sind tendenziell dem linken Spektrum zuzuordnen. Dass man nun versucht, genau diese Gruppe zu kontrollieren und den Menschen die Lebensgrundlage zu entziehen, ist, glaube ich, kein Zufall.

Nicht nur das Weiße Haus hat Bilder im Studio-Ghibli-Stil gepostet. Und auch außerhalb von Trends scheint generative KI beliebt zu sein. Bedeutet das für Sie, dass Faschismus gerade en vogue ist?

Man merkt schon eine Verschiebung des Overton-Windows, dass immer mehr Unsagbares auf einmal sagbar wird. Das hat natürlich eine Auswirkung auf viele Bereiche.

Wenn wir auf KI gucken, haben sich alle auf diese Alternativlosigkeit verschworen. Leute reden über KI wie Teenager über Sex. Teenager sagen auch, sie wüssten, wie es geht. Eigentlich sind aber alle unerfahren und niemand will zugeben, dass man keine Ahnung hat.

Das ist für mich ein Ausdruck einer überforderten Gesellschaft, in der man einfach einen Ort sucht, wo es Ruhe und einfache Antworten gibt. KI ist die eine Stelle, an der man nicht nachdenken muss: KI kann alles, weiß alles und ich kann mich zurücklehnen, wenn ich nur ein großes Sprachmodell einbaue. Ich habe das Gefühl, es ist der Versuch vieler Menschen, die explosive Komplexität und Widersprüchlichkeit der Welt in den Griff zu bekommen.

Vielen Dank für das Interview.

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren