Existenzielle Bedrohung: MIT-Forscher vergleicht Umgang mit KI mit „Don’t Look Up“
Der MIT-Professor und KI-Forscher Max Tegmark zeigt sich besorgt über die möglichen Auswirkungen einer künstlichen Universalintelligenz (AGI: Artificial General Intelligence) auf die menschliche Gesellschaft. In einem Essay für das Time-Magazin zeichnet Tegmark ein düsteres Bild von einer Zukunft, die von einer KI bestimmt wird, die nicht mehr kontrolliert werden kann. Er schreibt: „Leider habe ich jetzt das Gefühl, dass wir den Film ‚Don’t Look Up‘ für eine andere existenzielle Bedrohung erleben: eine universelle Superintelligenz.“
Lasche Reaktion der Regierungen auf KI-Bedrohung könnte sich rächen
Seiner Meinung nach reagieren Regierungen weltweit viel zu lasch auf die wachsende AGI-Bedrohung. Der Vergleich mit dem Netflix-Streifen „Don’t Look Up“ ist recht drastisch.
Immerhin erzählt der Film die fiktive Geschichte eines Astronomenteams, das einen erdvernichtenden Asteroiden auf unseren Planeten zurasen sieht. Die Forschenden versuchen, die Menschheit zu warnen, müssen aber feststellen, dass sich der Großteil der Menschheit nicht darum kümmern will. Am Ende des Films wird die Erde folgerichtig vernichtet.
Tegmark ist der Meinung, dass diese Geschichte auch auf das Risiko des Einsatzes einer AGI passen kann. Er schreibt: „Eine kürzlich durchgeführte Umfrage ergab, dass die Hälfte der KI-Forscher der KI eine mindestens zehnprozentige Chance einräumt, die Menschheit auszulöschen. Da wir schon so lange über diese Bedrohung nachdenken und darüber, was wir dagegen tun können – von wissenschaftlichen Konferenzen bis hin zu Hollywood-Blockbustern -, könnte man erwarten, dass die Menschheit einen hohen Gang einlegt, um die KI in eine sicherere Richtung zu lenken als eine außer Kontrolle geratene Superintelligenz.“
Stattdessen handele es sich bei den prominentesten Reaktionen aber lediglich um Kombinationen aus „Leugnung, Spott und Resignation, die so düster-komisch war, dass sie einen Oscar verdient hätte.“
Vernichtung der Menschheit möglich
Der Professor sieht in AGI eine sehr reale Bedrohung. Die menschliche Gesellschaft tue nicht annähernd genug, um sie zu stoppen oder sorge zumindest nicht dafür, dass die AGI mit den menschlichen Grundwerten in Einklang gebracht wird. Das könne am Ende dazu führen, dass die Menschheit, wie im Netflix-Film, ihrer eigenen Vernichtung tatenlos zusehen wird.
Sicher ist Tegmarks Behauptung zunächst einmal vornehmlich provokant. Sie berücksichtigt nicht, dass viele Experten entweder nicht der Meinung sind, dass es eine AGI jemals tatsächlich geben wird, oder andere Experten sie zwar kommen sehen, prognostizieren aber noch viele Jahrzehnte an erforderlicher Forschungsarbeit, bevor es so weit sein könnte.
„Mir wird oft gesagt, dass es AGI und Superintelligenz nicht geben wird, weil es unmöglich ist: Intelligenz auf menschlichem Niveau ist etwas Geheimnisvolles, das nur in Gehirnen existieren kann“, schreibt Tegmark. „Solcher Kohlenstoff-Chauvinismus ignoriert eine Kernerkenntnis der KI-Revolution: dass es bei Intelligenz nur um Informationsverarbeitung geht, und dass es keine Rolle spielt, ob die Informationen von Kohlenstoffatomen in Gehirnen oder von Siliziumatomen in Computern verarbeitet werden.“
Tegmark erwartet AGI weit kurzfristiger als andere Experten
Dabei zeigt sich Tegmark überaus pessimistisch und prognostiziert die schnelle Verfügbarkeit einer AGI. Sie sei schnell zu erwarten, jedenfalls „kurzfristiger als z.B. der Klimawandel und die Altersvorsorge der meisten Menschen“.
Dazu verweist er auf eine aktuelle Microsoft-Studie, in der behauptet wird, dass das große Sprachmodell GPT-4 von OpenAI bereits „Funken“ von AGI zeige. Ebenso verweist er auf einen Vortrag, den der Deep-Learning-Forscher Yoshua Bengio kürzlich gehalten hat und in dem er ebenfalls zum Handeln aufruft.
Der KI-Industrie wirft Tegmark vor, bislang keinen Fokus auf eine „langsame und sichere Entwicklung“ gelegt zu haben. Er warnt davor, einer AGI beizubringen, wie man programmiert. Ebenso wenig solle man sie mit dem Internet verbinden oder ihr gar eine öffentliche API geben.
„Obwohl die Menschheit auf eine Klippe zurast, sind wir noch nicht dort, und es ist immer noch Zeit für uns, das Tempo zu drosseln, den Kurs zu ändern und einen Sturz zu vermeiden – und stattdessen die erstaunlichen Vorteile zu genießen, die eine sichere, angepasste KI zu bieten hat“, schreibt Tegmark. „Dazu muss man sich darüber im Klaren sein, dass die Klippe tatsächlich existiert und ein Sturz von ihr niemandem nützt.“