Anzeige
Anzeige
News

Zu viel Macht in einzelnen Händen: Tech-Pionier warnt eindringlich vor KI-Gefahren

Der bekannte Deep-Learning-Forscher Yoshua Bengio warnt eindringlich vor den potenziellen Gefahren von KI. Vor allem, wenn die Systeme weiter von einigen wenigen Organisationen kontrolliert werden.

2 Min.
Artikel merken
Anzeige
Anzeige

KI-Experte Yoshua Bengio. (Foto: picture alliance / empics | Christinne Muschi)

Er gilt als einer der Pioniere in der Forschung zu künstlichen neuronalen Netzen und Deep Learning. Jetzt warnt der kanadische Informatiker Yoshua Bengio aber vor möglichen Gefahren, die künftig von Künstlicher Intelligenz (KI) ausgehen könnten.

Anzeige
Anzeige

Menschheit durch Maschinen ersetzen

Demnach könnten KI-Systeme, wenn sie weiter trainiert werden wie derzeit, sich irgendwann gegen Menschen wenden. Einige Menschen mit „viel Macht“ möchten vielleicht sogar, dass die Menschheit durch Maschinen ersetzt werde, erklärte Bengio gegenüber CNBC.

Eine sogenannte allgemeine künstliche Intelligenz (AGI), an der derzeit gearbeitet werde, würde nicht nur über menschenähnliche Intelligenz, sondern auch die Fähigkeit zum Selbststudium verfügen, so Bengio. Es sei wichtig, sich vorzustellen, was das mit einer Gesellschaft anrichten könne.

Anzeige
Anzeige

Gefahr durch hochintelligente KI

Von ebenso großer Bedeutung sei die Frage, wer diese potenzielle künftige Macht kontrolliert. „Systeme, die mehr wissen als die meisten Menschen, können in den falschen Händen gefährlich sein und zum Beispiel auf geopolitischer Ebene für mehr Instabilität oder Terrorismus sorgen“, so Bengio.

Das Problem sei, dass es viele Milliarden koste, leistungsfähige KI-Systeme zu errichten und zu trainieren. Und es seien nur wenige Organisationen oder Staaten in der Lage, die Entwicklung wirklich großer Systeme zu finanzieren – die natürlich um so stärker würden.

Anzeige
Anzeige

Hat die Menschheit die Kontrolle?

Schon innerhalb weniger Jahrzehnte, oder nur einiger Jahre, könnte die Menschheit entsprechende negative Auswirkungen spüren. Bisher fehle es etwa an Methoden, die KI-Systeme wirksam davon abhalten würden, sich gegen Menschen zu wenden. „Wir wissen einfach nicht, wie das geht“, so der KI-Pionier.

Es sei aber noch nicht zu spät, das Ruder herumzureißen und mögliche Gefahren durch KI zu verringern. Dazu müssten Regierungen aber zunächst einmal Regeln einführen, die etwa Firmen dazu verpflichten würden, sich und die Systeme, an denen sie arbeiten, zu registrieren und zu beschreiben.

Anzeige
Anzeige

KI-Firmen für Systeme haftbar machen

Zudem müssten KI-Firmen für ihre Systeme haftbar gemacht werden. Dann würden sie vorsichtiger agieren, um nicht verklagt zu werden. Aktuell befinde man sich da in einer Grauzone, meint Bengio.

Googles neue KI-Suche geht nach hinten los Quelle: (Bild: Koshiro K/Shutterstock)

Auf kurze Sicht gesehen, sei KI aber vor allem gefährlich, wenn es um Falschinformationen gehe, etwa in Wahlkämpfen demokratischer Staaten. Dabei gehe es um noch realistischere Fake-Fotos oder -Videos sowie Chatbots, die laut einer Studie Menschen besser als Menschen von einer bestimmten Sache überzeugen könnten.

KI-Pionier: Ist die Menschheit in Gefahr?

Die schwierigste Frage bleibe laut Bengio aber: „Wenn wir Wesen erschaffen, die intelligenter sind als wir und ihre eigenen Ziele verfolgen, was bedeutet das für die Menschheit? Sind wir in Gefahr?“ Um potenzielle Risiken abzumildern, bräuchte es jedenfalls viel mehr Forschung und vorausschauende Politik.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige