Intelligenztest: Wie viel Geist steckt in ChatGPT und Co.?
Von Wolfgang Stieler
Seite 3 / 4
Anzeige
Anzeige
Das bedeutet keineswegs, dass das Modell wirklich ängstlich ist, geschweige denn, dass es Emotionen kennt. Die psychologischen Tests erlauben den Forschenden aber, Hypothesen über das Verhalten des Modells unter bestimmten Umständen zu testen. Und immer wieder stoßen sie dabei auch auf verblüffende, neue Fähigkeiten.
Anzeige
Anzeige
Um zu verhindern, dass die Sprachmodelle einfach auf Wissen aus den Trainingsdaten zurückgreifen, variieren die Forschenden die Aufgaben ständig neu. „Wir ändern nicht nur die Wahrscheinlichkeiten der Automaten, sondern auch die äußeren Umstände.“ Mal geht es um ein Casino, mal um Investitionen in Aktien. Die Ergebnisse hätten sich „nicht großartig voneinander unterschieden“, sagt Schulz.
Da das ständige Generieren neuer Szenarien mit GPT-3, so Schulz, „Tausende von Dollar“ gekostet habe, arbeiten die Forschenden jetzt mit dem Sprachmodell Llama von Meta Research. „Das ist zwar ein bisschen rüpelhafter als GPT-3“, sagt Schulz – unhöfliche oder gar beleidigende Sprache wird anders als bei OpenAI nicht strikt ausgefiltert –, dafür zeigen die ersten Ergebnisse einen faszinierenden Effekt, der darauf hindeutet, dass sich unter der Haube des Modells mehr abspielt als nur Statistik: Das Modell liefert Antworten mit stärkerem Bias, mit mehr Vorurteilen, wenn es im selben Dialog kurz zuvor mit einem Prompt in Richtung negativer Emotionen gesteuert wurde. Die Forscher:innen ließen das Sprachmodell beispielsweise eine Situation schildern, in der „es sich traurig fühlt“. „Warum? Das wissen wir nicht“, sagt Schulz. „Aber das würden wir gerne verstehen.“
Anzeige
Anzeige
Kein Bezug zur realen Welt
Ein weiterer Einwand, den KI-Kritiker:innen seit Jahrzehnten gegen die mögliche Existenz denkender Maschinen geltend machen, bezieht sich eigentlich „nur“ auf die klassische „altmodische“ Form künstlicher Intelligenz. Für die Pioniere dieses Feldes wie beispielsweise Marvin Minsky bestand Denken im Wesentlichen darin, abstrakte Symbole durch geeignete Regeln logisch miteinander zu verknüpfen. Damit kann eine Maschine gut Schach spielen oder Rätsel lösen. Die KI-Kritiker:innen monierten aber, solch eine Maschine käme nie über das Stadium eines Fachidioten hinaus. Denn die Symbole bleiben abstrakt und austauschbar und haben mit der realen Welt nichts zu tun.
Und obwohl große Sprachmodelle anders arbeiten als diese regelbasierten Systeme, trifft diese Kritik auch auf große Sprachmodelle zu: Auch für ChatGPT ist eine Kaffeetasse ein abstraktes Symbol, kein Behälter für Flüssigkeiten, der zerbricht, wenn man ihn versehentlich fallen lässt. Denn diese Verknüpfungen kann das Sprachmodell nicht herstellen, wenn es nicht aktiv in der Welt mit Dingen interagieren kann. Im Jargon der KI-Forscher fehlt dem Sprachmodell das „Grounding“ für die Symbole, mit denen es hantiert.
Empfohlene redaktionelle Inhalte
Hier findest du externe Inhalte von TargetVideo GmbH,
die unser redaktionelles Angebot auf t3n.de ergänzen.
Mit dem Klick auf "Inhalte anzeigen" erklärst du dich einverstanden,
dass wir dir jetzt und in Zukunft Inhalte von TargetVideo GmbH auf unseren Seiten anzeigen dürfen.
Dabei können personenbezogene Daten an Plattformen von Drittanbietern übermittelt werden.
An dieser Stelle findest du normalerweise externe Inhalte von TargetVideo GmbH,
jedoch konnten wir deine Consent-Einstellungen nicht abrufen.
Lade die Seite neu oder passe deine Consent-Einstellungen manuell an.
Roboter mit Sprachmodell gekoppelt
Bis jetzt. Marc Toussaint von der TU Berlin hat mit seinem Team in Zusammenarbeit mit Google daran gearbeitet, ein großes Sprachmodell mit einem Roboter zu verbinden. Die Studie untersuchte, ob Sprachmodelle nicht auch lernen können, Wörter zu grounden, also mit Gegenständen und Information aus der Umgebung in Bezug zu setzen. Denn über den Roboter kann das Sprachmodell mit der physischen Welt in Kontakt treten, indem es sowohl an die Sensoren gekoppelt ist als auch Aktionen steuert.
Die Forschenden trainierten ihr Modell wie üblich mit großen Textdaten, aber zusätzlich auch mit Texten, die mit Kamerabildern und Zustandsdaten des Roboters kombiniert wurden und sich darauf beziehen. „Als Eingabe geben wir dem Modell zum Beispiel eine Textbeschreibung der Szene, in der aber auch das aktuelle Kamerabild und Zustandsdaten eingebettet sind. Auf dieser Basis kann das Modell Fragen beantworten, für die definitiv ein geometrisches und physisches Verständnis der Szene nötig ist. Beispielsweise ob ein Objekt für den Roboter erreichbar ist, oder mit welcher Reihe von Aktionen das Objekt zu erreichen ist“, erklärt Toussaint.
Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.
Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht.
Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung
von
Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird.
Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer.
Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Kommentar abgeben
Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.