Software, die solche Probleme auch ohne ein großes Sprachmodell lösen kann, hat Toussaint zwar ebenfalls entwickelt, aber die hat zwei Probleme: Zum einen ist sie auf exakte Informationen angewiesen, zum anderen ist der Rechenaufwand recht hoch. „Der klassische Algorithmus berechnet systematisch alle physikalischen Möglichkeiten durch, was schon bei moderaten Problemen Minuten dauern kann“, sagt Toussaint. Das Sprachmodell Palm-E wurde darauf trainiert, die Lösungen des klassischen Algorithmus vorherzusagen und ist deshalb bedeutend schneller. Zudem arbeitet es direkt mit unvollständigen Sensorinformationen. Allerdings ist auch hier der Rechenaufwand beachtlich. „Das Modell läuft im Moment auf den Servern von Google“ sagt er.
In Experimenten konnte der Roboter die Sprachbefehle eines Nutzers mit der Umgebung in Bezug setzen und dadurch zum Beispiel Befehle umsetzen wie „Bring mir die Chips aus der Schublade im Schrank“ oder „Schiebe die roten Bauklötze in die rechte obere Ecke“. Gewinnt der Roboter damit wirklich eine Art Verständnis der Welt? „Zumindest kann das Sprachverständnis großer Sprachmodelle nun mit unserer physischen Welt in Bezug gesetzt werden“, sagt Toussaint.
Empfehlungen der Redaktion
Wissenschaft und Politik
Können große Sprachmodelle nun also „denken“ oder etwas von der Welt verstehen? Eindeutig beantworten lässt sich die Frage noch immer nicht. Und als wäre der wissenschaftliche Streit nicht schon schwierig genug, wird die Debatte um die Fähigkeiten großer Sprachmodelle mittlerweile aber auch von einer politischen Auseinandersetzung überlagert. Murray Shanahan vom Imperial College London etwa warnt in seinem Aufsatz „Talking about Large Language Models“ eindringlich davor, im Zusammenhang mit großen Sprachmodellen leichtfertig „philosophisch aufgeladene“ Begriffe wie „Denken“ oder „Intelligenz“ zu verwenden, denn Menschen würden ohnehin dazu neigen, diese Maschinen „zu vermenschlichen“, weil ihr Auftreten dazu verführe. Das würde eine nüchterne, rationale und damit wissenschaftliche Erklärung ihrer Fähigkeiten nur überdecken.
Andere KI-Skeptiker:innen nehmen weniger Rücksicht auf akademische Höflichkeiten. Die Computerlinguistin Emily Bender etwa, die mit Timnit Gebru und Meredith Whittaker die Diskussion um die Gefahren großer Sprachmodelle ganz wesentlich mit angestoßen hat, hält auch nach GPT-4 große Sprachmodelle für maßlos überschätzt. Das Paper über die „Funken allgemeiner Intelligenz“ sei keine wissenschaftliche Veröffentlichung, sondern bestenfalls „Fan-Fiction“, das Werk technikverliebter, unkritischer Nerds.
Ein offener Brief des „Future of Life Institute“, in dem prominente KI-Forscher:innen und Investor:innen einen KI-Entwicklungsstopp für sechs Monate forderten, um in dieser Zeit über Regulierung und Sicherheitsmaßnahmen zu diskutieren, ist für Bender nur PR. Damit wollten sich Tech-Bros nur umso wichtiger machen – während sie gleichzeitig von der enormen Macht, die sich bei ihnen konzentriert, ablenken. Die Diskussion um solche Fragen wird die Zukunft der KI vermutlich stärker beeinflussen als die Debatte über die Intelligenz großer Sprachmodelle.
Fast fertig!
Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.
Du willst noch weitere Infos zum Newsletter?
Jetzt mehr erfahren