Anzeige
Anzeige
News
Verpasse keine News mehr!

KI-Apokalypse vs. Jobverlust: Studie zeigt, wovor wir wirklich Angst haben

Die Debatte um KI-Risiken kocht hoch. Droht uns der digitale Weltuntergang oder sind ganz andere Gefahren viel realer? Eine neue Studie liefert überraschende Antworten auf die Frage, was uns wirklich umtreibt.

2 Min.
Artikel merken
Anzeige
Anzeige
Die Menschen bewerten unmittelbare KI-Risiken höher als eine Skynet-Vision. (Bild: Midjourney / t3n)

Die Menschen fürchten sich deutlich mehr vor den unmittelbaren, greifbaren Risiken Künstlicher Intelligenz als vor einer fernen Bedrohung der Menschheit. Das ist das zentrale Ergebnis einer neuen Studie der Universität Zürich (UZH) in der Schweiz, die am 17. April 2025 im renommierten Fachjournal PNAS (Proceedings of the National Academy of Sciences) veröffentlicht wurde.

Anzeige
Anzeige

Aktuelle Probleme wie Diskriminierung durch Algorithmen, die Verbreitung von Desinformation oder der Verlust von Arbeitsplätzen durch Automatisierung bereiten den Befragten demnach größere Sorgen als abstrakte Szenarien einer KI-Machtergreifung.

Die Forschenden untersuchten damit die viel diskutierte „Ablenkungshypothese“. Diese besagt, dass die Betonung spekulativer, existenzieller KI-Risiken – wie sie etwa im prominenten „Statement on AI Risks“ von 2023 formuliert wurde – gezielt oder unbewusst von den realen, gegenwärtigen Problemen ablenken könnte.

Anzeige
Anzeige

Großangelegte Studie in USA und UK

Für die Untersuchung, die bereits 2024 stattfand, führten die Politikwissenschaftler:innen der UZH drei große Online-Experimente über die Plattform Prolific durch. Mehr als 10.000 Personen aus den USA und Großbritannien nahmen teil. Ein Clou dabei: Um stilistische Einheitlichkeit zu gewährleisten, wurden die verschiedenen Schlagzeilen und Kurztexte, die den Teilnehmenden präsentiert wurden (existenzielle Risiken, unmittelbare Risiken, Vorteile), mithilfe von ChatGPT im Stil der New York Times formuliert.

Das Ergebnis fiel eindeutig aus. „Unsere Ergebnisse zeigen, dass die Befragten sich viel mehr Sorgen über gegenwärtige Risiken der KI machen als über potenzielle zukünftige Katastrophen“, wird Professor Fabrizio Gilardi vom Institut für Politikwissenschaft der UZH zitiert. Die Studie unterschied dabei zwischen der wahrgenommenen Fähigkeit der KI, Risiken zu verursachen, der Wahrscheinlichkeit ihres Eintretens und ihren potenziellen Auswirkungen. Unmittelbare Risiken wurden als deutlich wahrscheinlicher eingeschätzt und die KI als fähiger angesehen, diese zu verursachen.

Anzeige
Anzeige

Interessanterweise wurde jedoch das Ausmaß der potenziellen Auswirkungen von existenziellen Risiken als ähnlich hoch bewertet wie das von unmittelbaren Risiken. Das deutet darauf hin, dass die Teilnehmenden die potenziell katastrophalen Folgen einer außer Kontrolle geratenen KI durchaus ernst nehmen, auch wenn sie deren Eintreten für weniger wahrscheinlich halten als aktuelle Probleme.

Kein „Entweder-oder“ bei KI-Risiken

Die Studie liefert damit erstmals systematische, empirische Daten zur „Ablenkungshypothese“. Die Kernbotschaft: Die Sorge, dass die Diskussion über langfristige, existenzielle Gefahren von den kurzfristigen Problemen ablenkt, scheint unbegründet.

Anzeige
Anzeige

Auch wenn die Konfrontation mit existenziellen Risikoszenarien die Sorge davor erhöhte, minderte sie nicht die Besorgnis über unmittelbare Gefahren wie Bias oder Jobverlust. „Unsere Studie zeigt, dass die Diskussion über langfristige Risiken nicht automatisch auf Kosten der Wachsamkeit gegenüber gegenwärtigen Problemen geht“, erklärt Co-Autorin Emma Hoes. Gilardi fügt hinzu: „Der öffentliche Diskurs sollte kein ‚Entweder-oder‘ sein. Es braucht ein gleichzeitiges Verständnis und eine Würdigung sowohl der unmittelbaren als auch der potenziellen zukünftigen Herausforderungen.“

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige