Anzeige
Anzeige
Analyse MIT Technology Review

“Weltuntergangs-Forschung” geht unter: Von Elon Musk gefördertes Institut muss schließen

Von Wolfgang Stieler
Seite 2 / 2
Anzeige
Anzeige

Nach 19 Jahren ist nun Schluss: Das von dem Philosophen Nick Bostrom gegründete Future of Humanity Institute (FHI) ist seit dem 16. April 2024 geschlossen. Die Schriften von Bostrom sind bei der Elite des Silicon Valley sehr beliebt. Zu seinem 2014 erschienen Buch „Superintelligenz“ lieferten Sam Altman, Bill Gates und Elon Musk die Klappentexte. Musk spendete dem FHI zudem 2015 eine Million Pfund, um die Bedrohung der Menschheit durch Künstliche Intelligenz zu erforschen. 2018 erhielt das Institut zudem 13,3 Millionen Pfund vom Open Philanthropy Project, einer gemeinnützigen Organisation, die von Facebook-Mitbegründer Dustin Moskovitz finanziell unterstützt wird.

Anzeige
Anzeige

Das Institut erforschte „existenzielle Risiken“ für die Menschheit und war ein wichtiges intellektuelles Zentrum für die Philosophie des „Effektiven Altruismus“ (EA). Die philosophische Fakultät der Universität Oxford hatte bereits Ende 2023 beschlossen, die Verträge der verbleibenden Mitarbeiter des Instituts nicht zu verlängern. In einer Erklärung der Fakultät heißt es, man erkenne zwar „den wichtigen Beitrag des Instituts“ an. Die Mehrzahl der Forschenden an dem Institut seien jedoch keine Philosophen gewesen. Bostrom selbst spricht in einer Erklärung von „Tod durch Bürokratie“. Allerdings stehen sowohl die Philosophie von EA als auch die Person Nick Bostrom seit einiger Zeit massiv in der Kritik.

Was für eine Philosophie vertritt Nick Bostrom?

Das Nachdenken über existentielle Risiken – der Begriff wurde von Bostrom selbst geprägt – gehört ebenso zum Fundus von EA, wie das Argument, eine intelligente KI werde versuchen, Menschen zu manipulieren, um ihre Ziele zu erreichen. Ursprünglich war Effektiver Altruismus zunächst mal nur eine Denkschule, die versucht, Neoliberale Ökonomie und Ethik miteinander zu verbinden. Die Grundprämisse ist: Es gibt zu viel Elend, zu viele Probleme auf der Welt. Die können nicht alle gelöst werden. Also entwickelt EA Methoden, mit denen das „knappe Gut“ Hilfe möglichst „gewinnbringend“ eingesetzt werden kann.

Anzeige
Anzeige

Daraus ergeben sich eine Reihe weiterer Schlussfolgerungen. Eine davon ist das „Earn to Give“-Prinzip: Weil jeder Mensch nur begrenzte Zeit und Energie aufwenden kann, sagt EA, ist es ethisch geboten, so schnell wie möglich, so viel Geld wie möglich zu machen, um einen Teil dieses Geldes dann zu spenden. Traditionelle ethische Überlegungen wie „Finanzspekulationen werden von Gier getrieben und sind nicht in Ordnung“ werden von diesem Prinzip übergeregelt. Einer der größten Fans dieses Prinzips war beispielsweise Sam Bankman-Fried, Gründer der Kryptbörse FTX, der wegen Finanzbetrugs kürzlich zu 25 Jahren Haft verurteilt wurde.

Anfang der 2000er entwickelte EA sich zunächst jedoch vor allem im Silicon Valley zu einer einflussreichen Bewegung, die über viel Geld verfügte, weil sie prominente Investoren wie Peter Thiel, Elon Musk oder eben auch Sam Bankman-Fried anzog.

Anzeige
Anzeige

Longtermism

Während sich die Bewegung zunächst auf „evidenzbasierte“ Hilfsprojekte konzentrierte, gewann jedoch zunehmend ein ideologischer Zweig an Bedeutung, der „Longtermism“ genannt wird – ein Begriff, für den es noch immer keine gute deutsche Übersetzung gibt. Einer der wichtigsten Vordenker dieser Richtung ist Nick Bostrom.

Die Idee: Weil in der Zukunft bedeutend mehr Menschen leben werden als bisher gelebt haben, bedeutet die Maximierung des menschlichen Glücks zunächst mal, die Existenz der Menschheit zu sichern. Glaubt man Nick Bostrom, liegt das Schicksal der Menschheit darin, Intelligenz im Kosmos zu verbreiten. EA steht damit in der Tradition von Technischen Utopien wie dem Transhumanismus.

Anzeige
Anzeige

Longtermism darf jedoch nicht mit langfristigem Denken verwechselt werden. Wer glaubt, dass sich aus dem Nachdenken über existenzielle Risiken ein entschiedener Kampf gegen den Klimawandel ableiten lässt, der irrt. Da der Klimawandel voraussichtlich nicht zum Aussterben der Menschheit führen wird, gilt er in EA-Kreisen nicht als existenzielle Bedrohung. Ein Atomkrieg, eine von Menschen verursachte Pandemie, der Ausbruch eines Supervulkans, kaskadierendes Systemversagen und natürlich auch eine außer Kontrolle geratene Super-Intelligenz gehören dagegen ganz sicher zu den existentiellen Krisen, und sind somit auf jeden Fall zu vermeiden.

Rassismus-Vorwürfe gegen Bostrom

Bostrom selbst wird zudem vorgeworfen, sich in E-Mails und Postings aus den 1990er Jahren rassistisch geäußert zu haben. Für Kritiker seines Denkens wie die KI-Ethikerin Timnit Gebru ist das weder ein Ausrutscher noch ein Zufall: Gemeinsam mit anderen Autoren wie Émile P. Torres zieht Gebru eine historische Linie von den amerikanischen Eugenien über die Transhumanisten zu den führenden Köpfen von OpenAI, in der es nie um die Zukunft und das Wohl der gesamten Menschheit ging, sondern darum, alles „Unnütze und Überflüssige“ auszusortieren.

Tatsächlich ist Gebru nicht die erste, die auf das schwierige Erbe der Intelligenzforschung verweist: Bereits 1981 kritisierte der Biologe Stephen Jay Gould in seinem Buch „Der falsch vermessene Mensch“ das Konzept „Intelligenz“ als objektive Messlatte für allgemeine kognitive Fähigkeiten. Dieses Konzept und die zugehörigen Tests wurden ganz wesentlich von Forschern wie Charles Spearman vorangetrieben, einem hochrangigen Mitglied der britischen Eugenischen Gesellschaft. Die statistischen Methoden, die Spearman erstellte, entwickelte Frank Rosenblatt dann später für das erste künstliche neuronale Netz weiter.

Anzeige
Anzeige

Eugenik?

Wie sein Lehrer, der britische Naturforscher Francis Galton war Spearman davon überzeugt, dass man durch politische Eingriffe dafür sorgen müsse, dass intelligente Menschen sich stärker vermehren als der Rest – eine Idee, die letztendlich zur Rassenlehre der Nazis führte. Doch auch nach dem Ende des zweiten Weltkriegs war die Eugenik nicht restlos diskreditiert.

In den 1990er Jahren entwickelte sich in den USA mit dem Transhumanismus eine Ideologie, die den Grundgedanken der Eugenik aufgriff, aber nicht mehr auf Biopolitik, sondern auf individuelle Verbesserungen durch KI oder Gentechnik setzte. Aus dem Transhumanismus, so Gebru, sei schließlich auch der „Effektiven Altruismus“ hervorgegangen, denn Bostrom spreche in seinen Schriften unter anderem von Dysgenik als existentiellem Risiko – also der Tatsache, dass durch fehlenden evolutionären Druck die genetische Basis der Menschheit immer schlechter werde. Bostrom selbst entschuldigte sich in einer Erklärung 2023 für die rassistichen Äußerungen. Den Vorwurf, er sein ein Eugeniker wies er – teilweise – zurück mit der Formulierung „nicht in dem Sinne, wie der Begriff allgemein verstanden wird.“

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige