Humanoide Roboter zwischen Hype und Wirklichkeit: Was Maschinen wirklich schon können – und was nicht

Die zweijährlich stattfindende Messe Automatica gilt als Leitmesse für die Robotik. 800 Aussteller zeigen in sechs Hallen rund 1.200 Roboter – die meisten allerdings in Form von konventionellen, fest montierten Roboterarmen.
Dass auf der Messe dennoch viel über menschenähnliche, humanoide Roboter diskutiert wurde, zeigt das Interesse der Industrie an den menschenähnlichen, zweibeinigen Robotern. Denn die könnten ohne große Änderung der Prozesse und Anlagen da arbeiten, wo jetzt Menschen arbeiten, werden nicht müde, streiken nicht und gehen auch nicht in Rente. Wenn sie denn soweit sind.
Wie Roboter mit KI lernen
Dass autonome Roboter zumindest im Prinzip dazu fähig sind, in Fabriken zu arbeiten, hat viel mit ChatGPT zu tun – beziehungsweise mit großen Sprachmodellen, den sogenannten Transformern. „Smarte“ Roboter werden mittlerweile meist von „Vision Language Models“ (VLM) gesteuert, die sowohl mit Texten als auch mit Bildern und Videos trainiert worden sind.
Das VLM macht in der Regel aus einer allgemeinen Anweisung („Reich mir mal den Kaffee rüber“) eine Reihe von Unteraufgaben – finde die Kaffeetasse, steuere den Greifer so, dass er die Tasse greifen kann etc. Weil es auch mit Bildern und Videos trainiert worden ist, kann es auch Objekte in der Umgebung erkennen und lokalisieren. Die konkrete Steuerung des Roboters – beispielsweise für Arme und Beine – läuft in der Regel (noch) nicht über das VLM, sondern wird von kleineren Spezialmodellen übernommen, die auf die jeweilige Aufgabe trainiert worden sind.
Der ChatGPT-Moment der Robotik liegt allerdings noch in der Zukunft.
Jagd nach Daten für das Roboter-Training
Das liegt unter anderem daran, dass auch VLMs – ähnlich wie Sprachmodelle – nicht besonders gut generalisieren und konsistent über längere Zeit planen können. Die großen KI-Player wie die Google-Tochter Deepmind wollen das Problem auf die für Google übliche Art lösen: mit mehr und vor allem vielfältigen Daten.
Allerdings, und das war auf der Automatica oft zu hören, gibt es zu wenig Daten, mit denen die Robotermodelle trainiert werden können. Viel Training findet deshalb in Simulationen statt. KI-Chipspezialist Nvidia ist hier stark engagiert. Aber der Transfer von der Simulation zur realen Welt hält wiederum zahlreiche neue Probleme bereit.
Humanoider Roboter aus Deutschland
Die technisch führenden humanoiden Roboter werden zurzeit entweder in den USA oder in China entwickelt. Eine der ganz wenigen Ausnahmen ist das deutsche Unternehmen Neura Robotics.
Auf der Automatica stellte das Unternehmen einen autonomen Haushaltsroboter und die dritte Generation seines Humanoiden vor. Mit 4NE1 (sprich „For Anyone“) präsentiert Neura Robotics einen humanoiden Roboter, der nach Angaben des Unternehmens „autonom und sicher in realen Umgebungen mit Menschen zusammenarbeitet. Er kommt ohne Schutzkäfig aus und verfügt über kognitive Intelligenz.“
Mit dem „patentierten Neura Omnisensor“ kann die Maschine, die mit zwei Händen Lasten von bis zu zehn Kilogramm bewegen kann, sei Neura Robotics zudem „ein Durchbruch in der sicheren Mensch-Roboter-Kollaboration gelungen“, schreibt das Unternehmen. „4NE1 kann zuverlässig Menschen von Objekten unterscheiden, sie erkennen und sein Verhalten daran anpassen. Diese Technologie ermöglicht die direkte Zusammenarbeit mit Robotern.“
Kognitive Roboter
Was Neura Robotics etwas blumig „kognitive Roboter“ nennt, sind Maschinen, die von mehreren miteinander verbundenen KI-Modulen gesteuert werden. Ein „Vision“-Modul etwa erkennt Objekte und ihre räumliche Lage in den Bildern der bordeigenen Kamera, ein „Sprachmodul“ übersetzt Anweisungen des Menschen in Text. Die einzelnen Module tauschen Daten und Anweisungen miteinander aus – bei Neura nennen sie das den „Model Zoo“, der wiederum Teil des „Neuraverse“ ist – im Prinzip so eine Art App-Store für Robotik.
Der „Omnisensor“ könnte zu einem wichtigen Bestandteil der Sicherheitszertifizierung der Roboter werden. Denn die ist insbesondere bei humanoiden, autonomen Robotern ein offenes Problem: Für konventionelle Roboter wie auch für Cobots lässt sich jederzeit vorhersagen, welche Bewegungen sie ausführen – und welche sie nicht ausführen dürfen. Bei einem von einer KI gesteuerten Roboter ist das aber nicht der Fall, denn die KI greift nicht auf explizit programmierte Regeln zurück – und kann sich deshalb auch völlig unvorhersehbar verhalten.
Und wenn bei einem Roboterarm die Energieversorgung ausfällt, bleibt das Ding einfach stehen. Ein zweibeiniger, laufender Roboter dagegen kippt dann wahrscheinlich um. Führende Robotiker haben deshalb erst kürzlich Sicherheitsregeln für humanoide Roboter gefordert.
Roboter in der Fabrik
Die fehlende Zertifizierung ist übrigens auch einer der Gründe dafür, dass BMW seine Tests mit den humanoiden Robotern von Figure AI in den USA durchführt, erzählte Carolin Richter, Head of Next Gen Robotics BMW bei einem Talk auf dem Automatica-Forum. Aus dem ging auch hervor, dass sich BWM im Grunde genommen wenig für den Formfaktor des humanoiden Roboters (zwei Arme, zwei Beine) interessiert. Das Augenmerk des Autobauers liegt vielmehr darauf, das KI-Model von Figure mit bestehenden klassischen Automatisierungstechniken zusammenarbeiten zu lassen. Für Figure AI ist das auf der anderen Seite auch interessant, weil die Roboter neue Skills lernen und die Stabilität des Roboters in komplexen Umgebungen testen.
Für den echten Arbeitseinsatz in der Fabrik wären humanoide Roboter deshalb interessant, weil man die Prozesse und Arbeitsplätze dafür nicht ändern müsste. In der Praxis sei es aber für die Roboter bereits ein großer Unterschied gewesen „nicht mehr im Labor zu laufen, sondern in der Fabrik auf ergonomischen Matten mit einer ganz anderen Beleuchtung“, sagt Richter. Und „die Erwartung ist natürlich, dass die Technologie dann auch zu 100 Prozent funktioniert. Das ist eine große Herausforderung.“
Was man sich auch schon in den Messehallen vor Augen führen kann: 4NE1, der humanoide Roboter von Neura Robotics, steht auf dem Messestand und bewegt sich nicht. Sieht zwar beeindruckend aus, könnte aber ein Dummy sein. Der humanoide Roboter Toro vom DLR läuft zwar über den Messestand, wird aber vorsichtshalber an einem fahrbaren Sicherheitsgerüst aufgehängt. Ein humanoider und ein vierbeiniger Roboter des chinesischen Herstellers Unitree zeigen zwar beeindruckende agile Bewegungen, sie werden aber von einem unauffällig im Hintergrund stehenden Mitarbeiter ferngesteuert.
Navel, ein freundlicher, kleiner sozialer Roboter mit expressiver Mimik und Kulleraugen redet zwar mit mir. Weil es in der Halle aber ziemlich laut ist, weiß das kleine Kerlchen oft nicht, wann ich wirklich aufgehört habe, zu sprechen – und er eigentlich antworten sollte. Also schaut Navel von mir weg Richtung Decke, klimpert mit den Wimpern und sieht so aus, als ob er über ein wichtiges Problem nachdenken würde, um schließlich Antworten zu liefern, die auch schon Eliza hätte liefern können. Die Roboter-Revolution ist das alles jedenfalls nicht. Noch nicht.
Dieser Artikel wurde ursprünglich am 01.07.2025 veröffentlicht, interessiert jedoch immer noch sehr viele unserer Leser:innen. Deshalb haben wir ihn aktualisiert und hier nochmals zur Verfügung gestellt.