Anzeige
Anzeige
Fundstück

Existenzielle Bedrohung: MIT-Forscher vergleicht Umgang mit KI mit „Don’t Look Up“

Immer mehr Forschende äußern sich warnend vor dem Einsatz einer künstlichen Universalintelligenz (AGI). MIT-Professor Max Tegmark sieht Parallelen zum apokalyptischen Film „Don’t Look Up.“

3 Min.
Artikel merken
Anzeige
Anzeige

Rast die KI so vernichtend auf uns zu wie der Asteroid in "Don't look up"? (Bild: dpa)

Der MIT-Professor und KI-Forscher Max Tegmark zeigt sich besorgt über die möglichen Auswirkungen einer künstlichen Universalintelligenz (AGI: Artificial General Intelligence) auf die menschliche Gesellschaft. In einem Essay für das Time-Magazin zeichnet Tegmark ein düsteres Bild von einer Zukunft, die von einer KI bestimmt wird, die nicht mehr kontrolliert werden kann. Er schreibt: „Leider habe ich jetzt das Gefühl, dass wir den Film ‚Don’t Look Up‘ für eine andere existenzielle Bedrohung erleben: eine universelle Superintelligenz.“

Anzeige
Anzeige

Lasche Reaktion der Regierungen auf KI-Bedrohung könnte sich rächen

Seiner Meinung nach reagieren Regierungen weltweit viel zu lasch auf die wachsende AGI-Bedrohung. Der Vergleich mit dem Netflix-Streifen „Don’t Look Up“ ist recht drastisch.

Immerhin erzählt der Film die fiktive Geschichte eines Astronomenteams, das einen erdvernichtenden Asteroiden auf unseren Planeten zurasen sieht. Die Forschenden versuchen, die Menschheit zu warnen, müssen aber feststellen, dass sich der Großteil der Menschheit nicht darum kümmern will. Am Ende des Films wird die Erde folgerichtig vernichtet.

Anzeige
Anzeige

Tegmark ist der Meinung, dass diese Geschichte auch auf das Risiko des Einsatzes einer AGI passen kann. Er schreibt: „Eine kürzlich durchgeführte Umfrage ergab, dass die Hälfte der KI-Forscher der KI eine mindestens zehnprozentige Chance einräumt, die Menschheit auszulöschen. Da wir schon so lange über diese Bedrohung nachdenken und darüber, was wir dagegen tun können – von wissenschaftlichen Konferenzen bis hin zu Hollywood-Blockbustern -, könnte man erwarten, dass die Menschheit einen hohen Gang einlegt, um die KI in eine sicherere Richtung zu lenken als eine außer Kontrolle geratene Superintelligenz.“

Stattdessen handele es sich bei den prominentesten Reaktionen aber lediglich um Kombinationen aus „Leugnung, Spott und Resignation, die so düster-komisch war, dass sie einen Oscar verdient hätte.“

Anzeige
Anzeige

Vernichtung der Menschheit möglich

Der Professor sieht in AGI eine sehr reale Bedrohung. Die menschliche Gesellschaft tue nicht annähernd genug, um sie zu stoppen oder sorge zumindest nicht dafür, dass die AGI mit den menschlichen Grundwerten in Einklang gebracht wird. Das könne am Ende dazu führen, dass die Menschheit, wie im Netflix-Film, ihrer eigenen Vernichtung tatenlos zusehen wird.

Sicher ist Tegmarks Behauptung zunächst einmal vornehmlich provokant. Sie berücksichtigt nicht, dass viele Experten entweder nicht der Meinung sind, dass es eine AGI jemals tatsächlich geben wird, oder andere Experten sie zwar kommen sehen, prognostizieren aber noch viele Jahrzehnte an erforderlicher Forschungsarbeit, bevor es so weit sein könnte.

Anzeige
Anzeige

„Mir wird oft gesagt, dass es AGI und Superintelligenz nicht geben wird, weil es unmöglich ist: Intelligenz auf menschlichem Niveau ist etwas Geheimnisvolles, das nur in Gehirnen existieren kann“, schreibt Tegmark. „Solcher Kohlenstoff-Chauvinismus ignoriert eine Kernerkenntnis der KI-Revolution: dass es bei Intelligenz nur um Informationsverarbeitung geht, und dass es keine Rolle spielt, ob die Informationen von Kohlenstoffatomen in Gehirnen oder von Siliziumatomen in Computern verarbeitet werden.“

Tegmark erwartet AGI weit kurzfristiger als andere Experten

Dabei zeigt sich Tegmark überaus pessimistisch und prognostiziert die schnelle Verfügbarkeit einer AGI. Sie sei schnell zu erwarten, jedenfalls „kurzfristiger als z.B. der Klimawandel und die Altersvorsorge der meisten Menschen“.

Dazu verweist er auf eine aktuelle Microsoft-Studie, in der behauptet wird, dass das große Sprachmodell GPT-4 von OpenAI bereits „Funken“ von AGI zeige. Ebenso verweist er auf einen Vortrag, den der Deep-Learning-Forscher Yoshua Bengio kürzlich gehalten hat und in dem er ebenfalls zum Handeln aufruft.

Anzeige
Anzeige

Der KI-Industrie wirft Tegmark vor, bislang keinen Fokus auf eine „langsame und sichere Entwicklung“ gelegt zu haben. Er warnt davor, einer AGI beizubringen, wie man programmiert. Ebenso wenig solle man sie mit dem Internet verbinden oder ihr gar eine öffentliche API geben.

„Obwohl die Menschheit auf eine Klippe zurast, sind wir noch nicht dort, und es ist immer noch Zeit für uns, das Tempo zu drosseln, den Kurs zu ändern und einen Sturz zu vermeiden – und stattdessen die erstaunlichen Vorteile zu genießen, die eine sichere, angepasste KI zu bieten hat“, schreibt Tegmark. „Dazu muss man sich darüber im Klaren sein, dass die Klippe tatsächlich existiert und ein Sturz von ihr niemandem nützt.“

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige