Anzeige
Anzeige
MIT Technology Review Analyse

Bewusstsein der KI: Wie die Forschung untersucht, ob ChatGPT und Co. die reale Welt erleben

Nicht nur Philosophen, sondern auch Kognitionswissenschaftler und Ingenieure beschäftigen sich mit der Frage, was nötig wäre, damit KI ein Bewusstsein erlangt.

Von MIT Technology Review Online
16 Min.
Artikel merken
Anzeige
Anzeige
(Illustration: Stuart Bradford)

Mit dieser Einladung hatte David Chalmers nicht gerechnet. Als führende Autorität auf dem Gebiet des Bewusstseins reist Chalmers zwar regelmäßig um die Welt und hält Vorträge. Allerdings spricht er in der Regel auf akademischen Tagungen zu Philosophen – der Art von Menschen, die stundenlang darüber debattieren können, ob die Welt außerhalb ihres eigenen Kopfes real ist. Doch diese Anfrage kam 2022 von den Organisatoren der Conference on Neural Information Processing Systems (NeurIPS), einer der größten Konferenzen für Künstliche Intelligenz weltweit.

Anzeige
Anzeige

Der Hintergrund dieser Anfrage war, dass weniger als sechs Monate zuvor Blake Lemoine mit der Behauptung an die Öffentlichkeit gegangen war, dass LaMDA, eines der KI-Systeme seines Arbeitgebers Google, ein Bewusstsein erlangt habe. Lemoine wurde entlassen, und seine Behauptungen stellte Google als haltlos dar. Aber dann, zum Zeitpunkt der Konferenz im November 2022, kam ChatGPT.

Das Studium des Bewusstseins

Wenn es jemanden gibt, der über Künstliche Intelligenz und Bewusstsein sprechen kann, dann Chalmers. Der Philosoph beschäftigt sich seit rund 30 Jahren mit dieser Frage, hat mehrere Bücher dazu geschrieben und eine internationale Wissenschaftsvereinigung zum Studium des Bewusstseins mitbegründet.

Anzeige
Anzeige

Dieser Text ist zuerst in der Ausgabe 3/2024 von MIT Technology Review erschienen. Darin beschäftigen wir uns damit, wie es nach ChatGPT weitergehen könnte. Hier könnt ihr die TR 3/2024 als Print- oder pdf-Ausgabe bestellen.

Hätte er in den 90er-Jahren mit Systemen wie LaMDA und ChatGPT interagieren können, wäreer davon ausgegangen, dass die Wahrscheinlichkeit groß ist, dass sie ein Bewusstsein haben, sagt Chalmers. Aber als er Ende November 2022 – kurz nach der Veröffentlichung von ChatGPT – in der für ihn typischen Lederjacke bei der NeurIPS vor sein Publikum trat, kam er zu einer ganz anderen Einschätzung: Ja, große Sprachmodelle seien beeindruckend. Aber, so sagte er, ihnen fehlten zu viele der potenziellen Voraussetzungen für Bewusstsein, als dass wir annehmen könnten, dass sie die Welt tatsächlich erleben. Bei dem halsbrecherischen Tempo der KI-Entwicklung könnten sich die Dinge aber natürlich schnell ändern. Die Chancen, in den nächsten zehn Jahren eine bewusste KI zu entwickeln, schätzt er auf über eins zu fünf.

Der Philosoph David Chalmers

Der Philosoph David Chalmers glaubt nicht, dass aktuelle große Sprachmodelle ein Bewusstsein haben. Das könne sich aber schon bald ändern. (Foto: Claudia Passos-Ferreira)

Eine KI mit Bewusstsein. In den nächsten zehn Jahren. Das wirft eine große Menge schwieriger Fragen auf: Was ist dieses Bewusstsein? Wie kann man es nachweisen? Können Maschinen überhaupt ein Bewusstsein haben oder nur Lebewesen? Und wenn ja, was dürfen wir dann mit ihnen tun und was nicht? In den letzten Jahrzehnten hat sich nur eine kleine Forschungsgemeinschaft hartnäckig mit solchen Fragen beschäftigt. Und ihre Bemühungen haben zu echten Fortschritten in einem Bereich geführt, der einst als unlösbares Problem galt.

Anzeige
Anzeige

Nicht nur Informationen verarbeiten, sondern auch erleben

„Ich versuche zu verstehen, was im Gehirn dafür sorgt, dass wir nicht nur Informationen verarbeiten können, sondern dass wir die Informationen, die wir verarbeiten, auch erleben“, sagt Liad Mudrik, Neurowissenschaftlerin an der Universität Tel Aviv, die das Bewusstsein seit Anfang der 2000er-Jahre erforscht. Wenn Mudrik ihre Forschung erklärt, beginnt sie gerne mit einem ihrer Lieblingsbeispiele: Schokolade. Wenn man ein Stück in den Mund nimmt, wird eine Symphonie neurobiologischer Ereignisse ausgelöst – die schließlich dazu führen, dass Neuronen tief im Kopf den chemischen Stoff Dopamin freisetzen, der wiederum ein Glücksgefühl erzeugt. Keine dieser Erklärungen erfasst jedoch, wie es sich anfühlt, die Alufolie aufzureißen, ein Stück Schokolade aus der Tafel zu brechen und es im Mund zergehen zu lassen.

Neurowissenschaftlerin Liad Mudrik

Die Neurowissenschaftlerin Liad Mudrik erforscht, was im Gehirn vor sich geht, wenn wir etwas bewusst erleben.
(Foto: Glenn Allenspach)

Um das zu verstehen, beobachten Mudrik und ihr Team im Labor, was im Gehirn passiert, wenn sie das bewusste Erleben von Menschen verändern. Das ist im Prinzip einfach: Geben Sie jemandem ein Stück Brokkoli zu essen, und seine subjektive Erfahrung wird ganz anders sein als beim Verzehr eines Stücks Schokolade – und wird wahrscheinlich zu einem anderen Gehirnscan führen. Es wäre allerdings unmöglich, an den Scans zu erkennen, welche der Unterschiede durch andere Informationen ausgelöst werden – Brokkoli und Schokolade aktivieren sehr unterschiedliche Geschmacksrezeptoren – und welche tatsächlich auf ein anderes bewusstes Erleben zurückzuführen sind.

Anzeige
Anzeige

Der Trick besteht nun darin, die Erfahrung zu modifizieren, ohne den Stimulus zu verändern. Also zum Beispiel jemandem ein Stück Schokolade zu geben und dann gewissermaßen einen Schalter im Gehirn umzulegen, damit er sich fühlt, als würde er Brokkoli essen.

Untersuchungen, wie das Bewusstsein funktioniert

Beim Geschmack ist das zwar nicht möglich, beim Sehen aber schon. Beispielsweise indem Forschende Menschen mit Spezialbrillen zwei verschiedene Bilder gleichzeitig betrachten lassen – eines mit jedem Auge. Obwohl die Augen beide Bilder aufnehmen, ist es unmöglich, beide Bilder gleichzeitig bewusst wahrzunehmen. Die Versuchspersonen berichten oft, dass ihr Seherlebnis „umschlägt“: Zuerst sehen sie das eine Bild und dann spontan das andere. Indem die Forschenden die Hirnaktivität während dieses Wechsels der bewussten Wahrnehmung verfolgen, können sie beobachten, was passiert, wenn die eingehenden Informationen gleich bleiben, sich aber deren Wahrnehmung ändert.

Mit diesen und anderen Ansätzen ist es Mudrik und ihren Kollegen gelungen, einige Fakten darüber zu ermitteln, wie das Bewusstsein im menschlichen Gehirn funktioniert. So scheint das Kleinhirn, eine Hirnregion an der Schädelbasis, die einem faustgroßen Knäuel von Engelshaar-Nudeln ähnelt, für das bewusste Erleben keine Rolle zu spielen – obwohl es für unbewusste motorische Aufgaben wie das Fahrradfahren von entscheidender Bedeutung ist. Rückkopplungsverbindungen hingegen scheinen für das Bewusstsein wesentlich zu sein – wie solche, die „höhere“, kognitive Regionen des Gehirns mit Regionen verbinden, die an der grundlegenderen sensorischen Verarbeitung beteiligt sind. (Deshalb zweifeln viele Forscher daran, dass LLMs ein Bewusstsein haben, denn ihnen fehlen wesentliche Rückkopplungsverbindungen.)

Anzeige
Anzeige

„Wenn wir in der Lage sind, die Theorien und die Erkenntnisse, die wir haben, zu nutzen, um zu einem guten Test für das Bewusstsein zu gelangen, wird das wahrscheinlich einer der wichtigsten Beiträge sein, die wir leisten können“, sagt Mudrik.

Tatsächlich gelang es einer Gruppe italienischer und belgischer Neurowissenschaftler vor einigen Jahren, einen Test für das menschliche Bewusstsein zu entwickeln, bei dem sie transkranielle Magnetstimulation (TMS) einsetzen. Das ist eine nicht-invasive Form der Hirnstimulation, bei der ein Magnetfeld am Kopf angelegt wird. Allein anhand der sich daraus ergebenden Muster der Hirnaktivität war das Team in der Lage, Menschen bei Bewusstsein von solchen zu unterscheiden, die unter Narkose standen oder tief schliefen, und sie konnten sogar einen vegetativen Zustand (bei dem jemand wach, aber nicht bei Bewusstsein ist) von dem Locked-in-Syndrom (bei dem ein Patient bei Bewusstsein ist, sich aber überhaupt nicht bewegen kann) unterscheiden.

Analyse der Strukturen

Das war zwar ein enormer Fortschritt in der Bewusstseinsforschung, aber es bedeutet wenig für die Frage nach bewusster KI: Die GPT-Modelle von OpenAI haben kein Gehirn, das mit einem Magnetfeld stimuliert werden kann. Um KI-Bewusstsein zu testen, reicht es nicht aus, die Strukturen zu identifizieren, die im menschlichen Gehirn zu Bewusstsein führen. Man muss wissen, warum diese Strukturen zum Bewusstsein beitragen, und zwar auf eine Art und Weise, die allgemein genug ist, um auf jedes System, ob menschlich oder nicht, anwendbar zu sein.

Anzeige
Anzeige

Eine sehr nahe liegende Theorie dazu lautet: Jedes Wesen, das intelligent genug ist und das in der Lage ist, erfolgreich auf eine ausreichende Vielfalt von Kontexten und Herausforderungen zu reagieren, muss ein Bewusstsein haben. Aber Bewusstsein und Intelligenz sind nicht dasselbe. Auch wenn weitere Iterationen von GPTs sich als immer intelligenter erweisen – und immer breitere Anforderungsspektren erfüllen, die vom Bestehen der Anwaltsprüfung bis zur Erstellung einer Website reichen –, kann ihr Erfolg nicht als Beweis für ihr Bewusstsein gewertet werden.

Wenn Mudrik ihren Versuchspersonen Bilder zeigt, fordert sie sie nicht auf, über etwas nachzudenken, oder testet ihre Problemlösungsfähigkeiten. Selbst eine Krabbe, die über den Meeresboden krabbelt, ohne sich ihrer Vergangenheit bewusst zu sein oder über ihre Zukunft nachzudenken, empfindet vermutlich Freude über einen leckeren Krabbenhappen oder den Schmerz einer verletzten Schere.

„Hard Problem“

Vor ein paar Jahrzehnten wären wir an dieser Stelle also vielleicht noch völlig verloren gewesen. 1974 schrieb der Philosoph Thomas Nagel in einem – noch immer viel zitierten – Essay, dass wir wahrscheinlich niemals verstehen könnten, wie andere Lebewesen die Welt erleben oder „wie es ist, eine Fledermaus zu sein“. Auch David Chalmers war 1995 nur wenig optimistischer: Er bezeichnete die Suche nach einer naturwissenschaftlichen Erklärung für subjektives Erleben als „Hard Problem“ – das sich möglicherweise niemals lösen ließe. Ungeachtet dessen haben sich in den vergangenen 30 Jahren mehrere Theorien herausgebildet, die zu erklären versuchen, was Bewusstsein ist.

Anzeige
Anzeige

Die meisten dieser Theorien – und Neurowissenschaftler – gehen von einem materialistischen Standpunkt aus: Ein „göttlicher Funke“, eine „unsterbliche Seele“ oder etwa „Feinstoffliches“ kommen darin nicht vor. Das Universum besteht aus physischem Material, und Bewusstsein als Phänomen kann nur mit physischer Materie und ihren Wechselwirkungen arbeiten. Einzig der „Panpsychismus“ passt nicht ganz in das Schema der modernen Theorien: Die Vertreter dieser Schule argumentieren zwar auch materialistisch, gehen aber davon aus, dass Bewusstsein so etwas wie eine Ureigenschaft jeder Form von Materie ist.

Theorien, das Bewusstsein zu messen

Wesentlich abstrakter hat sich der italienische Hirnforscher Giulio Tononi dem Bewusstsein genähert. Seine 2004 entwickelte Integrated Information Theory (IIT) ordnet jedem physikalischen System eine Bewusstseins-Maßzahl zu. Diese Zahl Φ (der griechische Buchstabe Phi) liegt zwischen 0 und 1 und beschreibt, grob gesagt, die Menge an Informationen, die über die Summe der Informationen hinausgeht, die seine einzelnen Teile erzeugen. Obwohl Tononis Theorie sehr abstrakt und teilweise kontraintuitiv ist, ging aus ihr ein Testverfahren hervor, mit dem sich messen lässt, ob Koma-Patienten bei Bewusstsein sind. Es stellt die genaueste Bewusstseinsmessung dar, die es bislang gibt. Kritiker der IIT verweisen allerdings darauf, dass die IIT Bezüge zum Panpsychismus aufweise – und daher unwissenschaftlich sei.

Andere Theorien gehen davon aus, dass Bewusstsein eine Funktion hat – etwa die Informationsverarbeitung im Gehirn zu verbessern. Die Aufmerksamkeitsschema-Theorie des Bewusstseins (AST) etwa beruht auf dem Konzept der Meta-Kognition, des Denkens über das Denken: Danach konstruiert Bewusstsein ein Modell von Aufmerksamkeit, das Fakten über die aktuellen Objekte der Aufmerksamkeit repräsentiert. Gleichzeitig hilft es, Aufmerksamkeit zu kontrollieren, ähnlich wie ein Körperschema bei der Kontrolle von Körperbewegungen hilft. Das bewusste Erleben hängt von den Inhalten dieses Aufmerksamkeitsschemas ab.

Anzeige
Anzeige

Die „Global-Workspace-Theorie“ wurde von dem Psychologen Bernard Baars erstmals 1988 vorgeschlagen und von dem Neurowissenschaftler Stanislas Dehaene erweitert. Nach dieser Theorie werden mentale Inhalte wie Wahrnehmungen, Gedanken oder Emotionen in verschiedenen Hirnregionen autonom verarbeitet. Sie gelangen in das Bewusstsein, wenn mehrere Hirnregionen synchronisiert auf diese Inhalte zugreifen, die dann in einem „globalen Arbeitsbereich“ zur Verfügung stehen. Die bewusste Wahrnehmung eines Objektes erlaubt es, mit dem Objekt Aktionen zu planen oder durchzuführen. Die Theorie gehört damit zu den „funktionalen“ Erklärungen, nach denen Bewusstsein in erster Linie über seinen Nutzen erklärt werden muss.

Das Gehirn als Prognose-Maschine

„Predictive Processing“-Theorien hingegen beschreiben das Gehirn als selbstständig lernende Prognose-Maschine: Das Gehirn bildet ständig Hypothesen über die Ursachen und den weiteren Verlauf der eingehenden Daten – und zwar so, dass der Unterschied zwischen der Hypothese und den Sinnesdaten möglichst klein wird. Bewusstsein sei, schreibt Anil Seth in seinem Buch Being You: Eine neue Wissenschaft des Bewusstseins, das Resultat dieses Abgleichs, eine „kontrollierte Halluzination“, eine Vorstellung darüber, wie die Welt ist, basierend auf den Signalen der Sinne.

Darüber hinaus gibt es eine Reihe von Theorien, für die das „Embodiment“, also das Vorhandensein eines physischen Körpers, wichtig ist. Nach der sensomotorischen Theorie des Bewusstseins beispielsweise entstehen bewusste Erfahrungen aus der Interaktion mit der Umwelt: Das Bewegen des Kopfes ermöglicht es uns, ein Objekt aus einer anderen Perspektive zu sehen. Das Bild sieht anders aus, obwohl es sich immer noch um dasselbe Objekt handelt – die bewusste Wahrnehmung des Objektes ist somit eine Abstraktion aus verschiedenen Perspektiven. Eine notwendige Voraussetzung dafür ist „Agency“, die Fähigkeit, körperlich mit der Umgebung zu interagieren.

Anzeige
Anzeige

Im Wust der Theorien

Mudrik versucht nun herauszufinden, was diese Vielfalt an Theorien für die KI bedeutet. Sie arbeitet mit einem interdisziplinären Team von Philosophen, Informatikern und Neurowissenschaftlern zusammen, das ein Paper mit praktischen Empfehlungen zur Erkennung von KI-Bewusstsein herausgegeben hat. Das Team stützt sich darin auf eine Reihe von Theorien – unter der Annahme, dass eine dieser Theorien wahr ist. Daraus erstellt es eine Art Checkliste für Bewusstsein: eine Liste von Merkmalen, die darauf hindeuten, dass eine KI ein Bewusstsein hat. Zu diesen Merkmalen gehören bestimmte Rückkopplungsverbindungen, die Nutzung eines globalen Arbeitsbereichs, die flexible Verfolgung von Zielen und die Interaktion mit einer externen Umgebung (ob real oder virtuell).

Mit dieser Strategie erkennen die Forschenden an, dass die wichtigsten Theorien über das Bewusstsein eine gewisse Chance haben, sich als wahr zu erweisen. Stimmen mehrere Theorien darin überein, dass eine KI ein Bewusstsein hat, ist es wahrscheinlicher, dass sie tatsächlich eins hat. Den Autoren des Whitepapers zufolge gibt es demnach keine größeren technologischen Hürden, die dem Aufbau von KI-Systemen im Wege stehen, die in ihrem Ranking gut abschneiden würden. Allerdings decken die Kriterien aus diesem Paper längst nicht alle Möglichkeiten für Bewusstsein ab, denn sie stammen nur aus dem Bereich funktionaler Theorien. Wie könnten wir, ohne uns auf bestimmte Theorien festzulegen, nur aufgrund von Beobachtungen feststellen, dass eine Maschine tatsächlich ein Bewusstsein hat? Und was dürfen wir mit einer potenziell bewussten Maschine tun?

Test für „künstliches Bewusstsein“

Susan Schneider, Direktorin des Center for the Future Mind an der Florida Atlantic University, hat zusammen mit dem Princeton-Physiker Edwin Turner solch einen Test für „künstliches Bewusstsein“ entwickelt. Er erfordert allerdings, dass ein KI-Agent während seines gesamten Trainings von allen Informationen über das Bewusstsein isoliert wird. (Dies ist wichtig, damit er nicht wie LaMDA einfach menschliche Aussagen über das Bewusstsein nachplappern kann.)

Ist das System trainiert, stellt der Tester ihm Fragen, die es nur beantworten könnte, wenn es etwas über das Bewusstsein wüsste – ein Wissen, das es nur erwerben könnte, wenn es sich selbst bewusst wäre. Kann es die Handlung des Films Freaky Friday verstehen, in dem eine Mutter und ihre Tochter die Körper tauschen, wobei sich ihr Bewusstsein von ihrem physischen Selbst trennt? Kann es das Konzept des Träumens begreifen – oder sogar selbst vom Träumen berichten? Kann es sich Reinkarnation oder ein Leben nach dem Tod vorstellen?

Dieser Ansatz hat eine große Einschränkung: Er setzt die Fähigkeit zur Sprache voraus. Menschliche Säuglinge und Hunde, von denen weithin angenommen wird, dass sie ein Bewusstsein haben, könnten diesen Test mangels Sprachfähigkeit unmöglich bestehen, und auch eine KI könnte möglicherweise ein Bewusstsein erlangen, ohne überhaupt Sprache zu benutzen. Die Prüfung einer sprachbasierten KI wie GPT ist ebenfalls unmöglich, da sie in ihrem Training mit der Idee des Bewusstseins in Berührung gekommen ist.

Einblick ins Innere der KI

Wenn Schneiders Test also nicht narrensicher ist, bleibt nur noch eine Möglichkeit: das Öffnen der Maschine. Zu verstehen, wie eine KI im Inneren funktioniert, könnte ein wesentlicher Schritt sein, um festzustellen, ob sie ein Bewusstsein hat oder nicht. Falls die Maschine allerdings tatsächlich ein Bewusstsein hat, könnte diese Prozedur sie zerstören. Ein Dilemma, das in der Science-Fiction bereits ausführlich behandelt wurde.

1989, also lange bevor die Neurowissenschaft des Bewusstseins ihre volle Bedeutung erlangte, wurde eine entsprechende Episode von Star Trek: The Next Generation ausgestrahlt. Im Mittelpunkt der Episode The Measure of a Man steht die Figur Data, ein Androide, der einen Großteil der Serie damit verbringt, zu verstehen, was es bedeutet, ein Mensch zu sein, um selbst menschlicher zu werden. In dieser Folge will ein Wissenschaftler Data gewaltsam zerlegen, um herauszufinden, wie er funktioniert. Data weigert sich, weil er befürchtet, dass ihn das Zerlegen tatsächlich umbringen könnte. Captain Picard muss vor Gericht sein Recht verteidigen, die Prozedur abzulehnen.

Lösung in Star Trek?

Picard beweist nicht, dass Data ein Bewusstsein hat. Vielmehr zeigt er, dass niemand diesen Umstand widerlegen kann. Er argumentiert, dass das Risiko, Data zu schaden und möglicherweise die Androiden, die nach ihm kommen, zur Sklaverei zu verdammen, zu groß sei, um es in Kauf zu nehmen. Damit bieten die Drehbuchautoren eine verlockende Lösung für das Rätsel des fragwürdigen KI-Bewusstseins: jedes potenziell bewusste System so behandeln, als ob es wirklich ein Bewusstsein hätte, und damit das Risiko vermeiden, einem Wesen zu schaden, das wirklich leiden kann. Eine echte KI vor Leid zu bewahren, könnte sich jedoch als wesentlich schwieriger erweisen, meint Robert Long vom Center for AI Safety in San Francisco und einer der Hauptautoren des Papers Consciousness in Artificial Intelligence.

„Bei Tieren können wir davon ausgehen, dass sie im Grunde die gleichen Dinge wollen wie wir“, sagt er. „Es ist schwer zu sagen, was das im Fall von KI ist.“ Der Schutz der KI erfordere nicht nur eine Theorie des KI-Bewusstseins, sondern auch eine Theorie der Freuden und Schmerzen, der Wünsche und Ängste der KI.

Sich um andere Lebewesen zu kümmern, bedeutet allerdings, sie vor Schaden zu bewahren, und das schränkt die Möglichkeiten der Menschen ein, ethische Entscheidungen zu treffen. „Ich mache mir keine großen Sorgen über Szenarien, in denen wir uns zu sehr um Tiere kümmern“, sagt Long. Die Abschaffung der Massentierhaltung hat nur wenige Nachteile. „Aber bei KI-Systemen“, fügt er hinzu, „könnte es wirklich eine Menge Gefahren geben, wenn wir dem Bewusstsein zu viel Bedeutung beimessen.“ KI-Systeme könnten Fehlfunktionen aufweisen und müssen abgeschaltet werden; sie müssen möglicherweise strengen Sicherheitstests unterzogen werden. Das sind einfache Entscheidungen, wenn die KI leblos ist, aber philosophische Probleme, wenn die Bedürfnisse der KI berücksichtigt werden müssen.

Das Risiko einer emotionalen Beziehung zur KI

Anil Seth, der eine bewusste KI zumindest in absehbarer Zukunft für relativ unwahrscheinlich hält, macht sich dennoch Gedanken darüber, was die Möglichkeit eines KI-Bewusstseins für den Menschen emotional bedeuten könnte. „Es wird die Art und Weise verändern, wie wir unsere begrenzten Ressourcen der Fürsorge für Dinge verteilen“, sagt er. Das mag wie ein Problem für die Zukunft erscheinen. Aber es begleitet uns schon jetzt: Blake Lemoine ging ein persönliches Risiko für eine KI ein, die er für bewusstseinsfähig hielt, und verlor seinen Job. Wie viele andere würden wohl Zeit, Geld und persönliche Beziehungen für leblose Computersysteme opfern?

Das Wissen, dass ChatGPT kein Bewusstsein hat, ändert nichts an der Illusion, dass man mit einem Wesen spricht, das eine Perspektive, Meinungen und eine Persönlichkeit hat. Selbst einfache Chatbots können eine unheimliche Anziehungskraft ausüben: Schon das Programm Eliza, das in den 1960er-Jahren von Joseph Weizenbaum entwickelt wurde, um eine Gesprächstherapie zu simulieren, überzeugte viele Nutzer davon, dass es in der Lage sei, zu fühlen und zu verstehen.

Im Zweifel lieber nichts tun

Bereits 2015, Jahre bevor diese Bedenken aktuell wurden, formulierten die Philosophen Eric Schwitzgebel und Mara Garza eine Reihe von Empfehlungen, die vor solchen Risiken schützen sollen. Eine bezeichneten sie als „Emotional Alignment Design Policy“: Jede unbewusste KI solle absichtlich so gestaltet sein, dass die Nutzer nicht glauben, dass sie bewusst ist. Unternehmen haben einige kleine Schritte in diese Richtung unternommen – ChatGPT spuckt eine hart kodierte Verneinung aus, wenn man es fragt, ob es bewusst ist. Aber solche Antworten tragen wenig dazu bei, die allgemeine Illusion zu stören.

Schwitzgebel, Philosophieprofessor an der University of California, Riverside, will jede Unklarheit aus dem Weg räumen. In ihrem Papier aus dem Jahr 2015 schlugen Garza und er deshalb eine „Excluded Middle Policy“ vor: Wenn unklar ist, ob ein KI-System ein Bewusstsein haben wird, sollte es nicht gebaut werden. „Wir wollen die Menschen nicht verwirren“, sagt Schwitzgebel.

Eine KI aus mehreren neuronalen Netzen

Die Vermeidung der Grauzone des umstrittenen Bewusstseins umgeht sowohl die Risiken, einer bewussten KI zu schaden, als auch die Nachteile, eine leblose Maschine als bewusst zu behandeln. Das Problem: Das ist möglicherweise nicht realistisch. Denn viele Forscher arbeiten mittlerweile aktiv daran, KI mit den potenziellen Grundlagen eines Bewusstseins auszustatten. So auch Rufin VanRullen, Forschungsdirektor am französischen Centre Nationale de la Recherche Scientifique. VanRullen will mit einem Team eine KI bauen, die aus mehreren neuronalen Netzen besteht, die jeweils auf eine spezielle Aufgabe – Sprachverarbeitung, Bilder erkennen – trainiert sind. Diese neuronalen Netze wollen die Forscher in einem gemeinsamen Arbeitsbereich miteinander verbinden. Und der ist laut der Global-Workspace-Theorie ein notwendiges Kriterium für Bewusstsein.

Der Nachteil eines Moratoriums bei der Entwicklung potenziell bewusster Systeme besteht laut VanRullen darin, dass Systeme wie das, das er zu entwickeln versucht, effektiver sein könnten als derzeitige KIs. „Wann immer wir von der aktuellen KI-Leistung enttäuscht sind, liegt das daran, dass sie hinter dem zurückbleibt, was das Gehirn zu leisten imstande ist“, sagt er. „Es ist also nicht unbedingt mein Ziel, eine bewusste KI zu schaffen, sondern das Ziel vieler KI-Forscher ist es, diese fortgeschrittenen Denkfähigkeiten zu entwickeln.“ Solche fortschrittlichen Fähigkeiten könnten echte Vorteile mit sich bringen: Bereits jetzt werden von KI entwickelte Medikamente in klinischen Versuchen getestet. Es ist nicht unvorstellbar, dass KI in der Grauzone Leben retten könnte.

Vorgehen von Google und OpenAI

VanRullen ist sich der Risiken bewusst. Aber gerade diese KI-Risiken, sagt er, machen seine Forschung so wichtig. Die Chancen stehen gut, dass bewusste KI nicht zuerst aus einem sichtbaren, öffentlich finanzierten Projekt wie dem seinen hervorgehen wird; es könnte sehr gut sein, dass ein Unternehmen wie Google oder OpenAI dafür zunächst tief in die Tasche greifen muss. Diese Unternehmen, so VanRullen, würden die ethischen Probleme, die ein bewusstes System mit sich brächte, wahrscheinlich nicht begrüßen. „Bedeutet das, dass sie, wenn etwas im Labor passiert, einfach so tun, als wäre es nicht passiert? Heißt das, dass wir nichts davon wissen werden?“, sagt er. „Ich finde das ziemlich besorgniserregend.“

Schwitzgebel sähe es lieber, würden wir die Grauzone ganz meiden. Angesichts des Ausmaßes der damit verbundenen Unsicherheiten räumt er jedoch ein, dass diese Hoffnung wahrscheinlich unrealistisch ist – vor allem, wenn sich bewusste KI als profitabel erweist. Und sind wir erst einmal in der Grauzone – müssen wir die Interessen von Wesen mit fragwürdigem Bewusstsein ernst nehmen –, werden wir uns auf noch schwierigerem Terrain bewegen. Wir werden mit moralischen Problemen von nie dagewesener Komplexität konfrontiert sein, ohne dass wir einen klaren Plan haben, wie wir sie lösen können. Es ist an den Forschenden aus Philosophie, Neurowissenschaften und Informatik, diesen Plan zu skizzieren.

Der Text stammt von der Journalistin Grace Huckins und dem TR-Redakteur Wolfgang Stieler.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige