KI-Apokalypse vs. Jobverlust: Studie zeigt, wovor wir wirklich Angst haben

Die Menschen fürchten sich deutlich mehr vor den unmittelbaren, greifbaren Risiken Künstlicher Intelligenz als vor einer fernen Bedrohung der Menschheit. Das ist das zentrale Ergebnis einer neuen Studie der Universität Zürich (UZH) in der Schweiz, die am 17. April 2025 im renommierten Fachjournal PNAS (Proceedings of the National Academy of Sciences) veröffentlicht wurde.
Aktuelle Probleme wie Diskriminierung durch Algorithmen, die Verbreitung von Desinformation oder der Verlust von Arbeitsplätzen durch Automatisierung bereiten den Befragten demnach größere Sorgen als abstrakte Szenarien einer KI-Machtergreifung.
Die Forschenden untersuchten damit die viel diskutierte „Ablenkungshypothese“. Diese besagt, dass die Betonung spekulativer, existenzieller KI-Risiken – wie sie etwa im prominenten „Statement on AI Risks“ von 2023 formuliert wurde – gezielt oder unbewusst von den realen, gegenwärtigen Problemen ablenken könnte.
Großangelegte Studie in USA und UK
Für die Untersuchung, die bereits 2024 stattfand, führten die Politikwissenschaftler:innen der UZH drei große Online-Experimente über die Plattform Prolific durch. Mehr als 10.000 Personen aus den USA und Großbritannien nahmen teil. Ein Clou dabei: Um stilistische Einheitlichkeit zu gewährleisten, wurden die verschiedenen Schlagzeilen und Kurztexte, die den Teilnehmenden präsentiert wurden (existenzielle Risiken, unmittelbare Risiken, Vorteile), mithilfe von ChatGPT im Stil der New York Times formuliert.
Das Ergebnis fiel eindeutig aus. „Unsere Ergebnisse zeigen, dass die Befragten sich viel mehr Sorgen über gegenwärtige Risiken der KI machen als über potenzielle zukünftige Katastrophen“, wird Professor Fabrizio Gilardi vom Institut für Politikwissenschaft der UZH zitiert. Die Studie unterschied dabei zwischen der wahrgenommenen Fähigkeit der KI, Risiken zu verursachen, der Wahrscheinlichkeit ihres Eintretens und ihren potenziellen Auswirkungen. Unmittelbare Risiken wurden als deutlich wahrscheinlicher eingeschätzt und die KI als fähiger angesehen, diese zu verursachen.
Interessanterweise wurde jedoch das Ausmaß der potenziellen Auswirkungen von existenziellen Risiken als ähnlich hoch bewertet wie das von unmittelbaren Risiken. Das deutet darauf hin, dass die Teilnehmenden die potenziell katastrophalen Folgen einer außer Kontrolle geratenen KI durchaus ernst nehmen, auch wenn sie deren Eintreten für weniger wahrscheinlich halten als aktuelle Probleme.
Kein „Entweder-oder“ bei KI-Risiken
Die Studie liefert damit erstmals systematische, empirische Daten zur „Ablenkungshypothese“. Die Kernbotschaft: Die Sorge, dass die Diskussion über langfristige, existenzielle Gefahren von den kurzfristigen Problemen ablenkt, scheint unbegründet.
Auch wenn die Konfrontation mit existenziellen Risikoszenarien die Sorge davor erhöhte, minderte sie nicht die Besorgnis über unmittelbare Gefahren wie Bias oder Jobverlust. „Unsere Studie zeigt, dass die Diskussion über langfristige Risiken nicht automatisch auf Kosten der Wachsamkeit gegenüber gegenwärtigen Problemen geht“, erklärt Co-Autorin Emma Hoes. Gilardi fügt hinzu: „Der öffentliche Diskurs sollte kein ‚Entweder-oder‘ sein. Es braucht ein gleichzeitiges Verständnis und eine Würdigung sowohl der unmittelbaren als auch der potenziellen zukünftigen Herausforderungen.“