Anzeige
Anzeige
News

Selbst Googles KI-Chef macht sich Sorgen um künstliche Intelligenz

Die rasante Entwicklung künstlicher Intelligenz bringt nicht nur technologische Fortschritte, sondern wirft auch ethische Fragen auf. Selbst bei denen, die eigentlich vollends überzeugt sein sollten.

1 Min.
Artikel merken
Anzeige
Anzeige

KI-Forscher Demis Hassabis. (Fot: Debby Wong / Shutterstock)

In einem kürzlich geführten Interview mit dem Guardian äußerte Demis Hassabis, seines Zeichens Leiter der KI-Abteilung bei Google in Großbritannien, seine Sorgen über die potenziellen Bedrohungen, die durch die Entwicklung von künstlicher Intelligenz entstehen könnten. Dabei verglich er die Gefahr mit dem Ausmaß des Klimawandels und betonte die Notwendigkeit, die Risiken künstlicher Intelligenz ernsthaft zu berücksichtigen.

Anzeige
Anzeige

Hassabis brachte verschiedene Bedenken vor, darunter die Möglichkeit, dass Menschen ein superintelligentes KI-System entwickeln könnten, das unkontrollierbar wird. Unter anderem erwähnte er die Option, dass KI die Herstellung von Biowaffen in Zukunft erleichtern könnte. Damit so etwas nicht passiert und die Risiken gering gehalten werden können, forderte er im Interview die Einrichtung eines unabhängigen Gremiums zur Überwachung der KI. Bei diesem Unterfangen erhält er auch vom ehemaligen Google-CEO Eric Schmidt Unterstützung.

Angst trifft auf Innovation

Um diesen Anliegen Nachdruck zu verleihen, kündigten Google, Microsoft, OpenAI und Anthropic tatsächlich kurz nach der Veröffentlichung des Interviews einen KI-Sicherheitsfonds in Höhe von zehn Millionen US-Dollar an. Dieser Fond soll die Forschung vorantreiben, um effektive Tools zur Prüfung und Bewertung der leistungsfähigsten KI zu entwickeln. Hassabis betonte die Bedeutung dieses Schrittes und bezeichnete die gegenwärtige Zeit als entscheidenden Moment in der Geschichte der KI.

Anzeige
Anzeige

Trotz seiner Warnungen und Bedenken vor betrügerischer KI scheint Hassabis dennoch fest entschlossen zu sein, eine solche zu entwickeln. Diese Ambivalenz spiegelt die kontroverse Natur der KI-Branche wider. Der Weg zu einer sicheren und ethischen KI-Entwicklung ist und bleibt eine komplexe Herausforderung.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige