Neue Pläne für ChatGPT: Microsoft will den Chatbot in die Robotik holen

Microsoft treibt die Einbindung von ChatGPT in verschiedene Systeme voran – und hat jetzt einen weiteren Ansatz vorgestellt, wie das KI-Modell von OpenAI zum Einsatz kommen könnte. Die Idee: ChatGPT soll in der Robotik zwischen Mensch und Maschine vermitteln.
„Wir wollen den Menschen die Interaktion mit Robotern erleichtern, ohne dass sie komplexe Programmiersprachen oder Details über Robotersysteme lernen müssen“, schreibt Microsoft in einem Blogbeitrag.
Drohne steuern per ChatGPT: Microsoft macht den Anfang
Erste Tests, wie ein Zusammenspiel funktionieren kann, hat Microsoft bereits mit Drohnen und einem Roboterarm durchgeführt. Die Erkenntnisse daraus wurden unter dem Titel „ChatGPT für Roboter: Designprinzipien und Modell-Fähigkeiten“ dokumentiert. Das Fazit: „Wenn man unsere Designprinzipien befolgt, kann ChatGPT Code für Robotikszenarien generieren“, so Microsoft.
Konkret heißt dass, dass es eben noch nicht reicht, dem Modell einen konkreten Befehl à la „Öffne mir die Tür“ zu geben. ChatGPT braucht ziemlich spezifische und gut strukturierte Details, zum Beispiel zur Navigation und zum Setting, in dem die Aktion stattfinden soll. Daraus kann die KI-Anwendung dann Code produzieren, über den die Steuerung der Drohne erfolgt.
Wissen darüber, wie sich diese Abfragen und Befehle am besten formulieren lassen, sollen Forscher:innen künftig im GitHub-Projekt Prompt-Craft Robotics sammeln.
ChatGPT: Bei Bing läuft noch nicht alles glatt
Bei der Integration von ChatGPT in Microsofts Suchmaschine Bing hat es zuletzt einige Probleme gegeben, weil der Chatbot in längeren Konversationen teils skurrile Richtungen eingeschlagen hatte. Microsoft hat daraufhin eine Beschränkung eingeführt: Pro Sitzung darf die KI-Anwendung jetzt nur noch fünf Fragen beantworten.
Und auch in der Forschungsarbeit zum Einsatz von ChatGPT im Umgang mit Robotern gibt es eine entsprechende Einschränkung. Die Forscher:innen betonen, dass „diesen Tools nicht die volle Kontrolle über die Robotik-Pipeline gegeben werden sollte, insbesondere nicht bei sicherheitskritischen Anwendungen“. Im Paper heißt es weiter: „Angesichts der Neigung von Large Language Models (LLM), teilweise falsche Antworten zu generieren, ist es sehr wichtig, […] die Sicherheit des Codes unter menschlicher Aufsicht sicherzustellen, bevor er auf einem Roboter ausgeführt wird.“