Anzeige
Anzeige
News

Experten warnen vor Auswirkungen von künstlicher Intelligenz: Was sie besonders besorgt

Die mahnenden Stimmen von Experten, die vor den Risiken von künstlicher Intelligenz warnen, häufen sich. Doch nicht alle in der Branche finden Alarmstimmung angemessen.

Quelle: dpa
2 Min.
Artikel merken
Anzeige
Anzeige
KI-Forscher sehen in der Technologie nicht nur Vorteile, sondern auch Gefahren. (Bild: Paper piper / Shutterstock)

Von angesehenen Experten für künstliche Intelligenz kommt eine neue eindringliche Warnung vor Gefahren der Technologie. „Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über autonome KI-Systeme verlieren“, schrieben die Forscher in einem Text in der neuen Ausgabe der Zeitschrift Science. Mögliche KI-Risiken seien Cyberattacken in großem Maßstab, gesellschaftliche Manipulation, allgegenwärtige Überwachung und sogar die „Auslöschung der Menschheit“. Unter den Autoren sind Wissenschaftler wie Geoffrey Hinton, Andrew Yao und Dawn Song, die zu den führenden Köpfen der KI-Forschung gehören.

Anzeige
Anzeige

Autonome KI-Systeme bereiten Sorgen

Den Autoren des Textes in Science machen speziell autonome KI-Systeme Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen gestellten Ziele zu erreichen. Die Fachleute argumentieren, dass es auch bei Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne. Denn so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre Spezifikationen – habe aber kein Verständnis dafür, welches Ergebnis dabei herauskommen soll. „Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten“, heißt es in dem Text.

Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im vergangenen Jahr. Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag sicherten unter anderem US-Konzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu.

Anzeige
Anzeige

Ex-Entwickler kritisiert OpenAI

Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende nochmal stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage. In den vergangenen Jahren seien „glitzernde Produkte“ der Sicherheit vorgezogen worden, schrieb Leike bei X. Dabei sei „Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung“, warnte er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, „die viel smarter als wir sind“.

OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun. Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, konterte dagegen, für solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme abzeichnen, „die schlauer als eine Hauskatze sind“. Momentan sei es so, als würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen lernen, die Hunderte Passagiere mit Schallgeschwindigkeit über den Ozean befördern. Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sein wird – und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.

Anzeige
Anzeige
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige