Humanoide Roboter: Figure AI zeigt natürliche Interaktion dank ChatGPT
Künstliche Intelligenz sorgt für einen Entwicklungsschub in der Robotik. Das jüngste Beispiel zeigt ein Anwendungsvideo des US-Herstellers, in dem der Roboter KI-Modelle von OpenAI verwendet.
Plötzlich scheint es einen enormen Schub bei der Interaktion zwischen Menschen und Robotern zu geben. Neben längst etablierter Sensorik und Mikroelektronik ist das vor allem der Kombination mit generativer KI und Sprachmodellen wie ChatGPT zu verdanken. Jüngstes Beispiel ist ein am 13. März 2024 veröffentlichtes Video, das das Zusammenspiel eines humanoiden Roboters von Figure AI mit KI-Modellen von OpenAI zeigt. Auch wenn nicht genau erkennbar ist, wie lange dafür trainiert wurde, zeigt es, wohin die Reise geht. Laut Figure AI sind alle im Video gezeigten Verhaltensweisen erlernt und laufen mit der realen Geschwindigkeit ab. Der Roboter werde also nicht teleoperiert.
Hier wird Ihnen ein externer Inhalt von youtube.com angezeigt.
Mit der Nutzung des Inhalts stimmen Sie der Datenschutzerklärung
von youtube.com zu.
Roboter unterscheidet Geschirr und Lebensmittel dank KI
Parallel zur Unterhaltung mit dem Menschen in natürlicher Sprache erledigt der Roboter Figure 01 dabei Aufgaben. Er erkennt die Gegenstände auf dem Tisch und reicht dem Mann auf Bitte um Essen den Apfel. Während der Roboter zusammengeknülltes Papier in einem Korb sortiert, erklärt er auf Nachfrage, warum er den Apfel und nicht das Geschirr angereicht hat. Anschließend sortiert er einen leeren Becher zum restlichen Geschirr im Trockenständer. Auch wenn Umgebungen im Alltag meist viel komplexer sind, scheinen solche Anwendungen in der Praxis damit deutlich schneller realisierbar als vor wenigen Jahren noch vermutet.
Lesetipp: IFR sieht 2024 fünf wesentliche Roboter-Trends
Mit dem „großen vortrainierten multimodalen Modell“ ergeben sich laut dem Hersteller neue Möglichkeiten. Der Roboter könne damit beispielsweise seine visuellen Eindrücke beschreiben, zukünftige Aktionen planen und „den gesunden Menschenverstand nutzen“. Er habe ein Gedächtnis, das ihn zum Nachdenken befähige und könne seine Überlegungen verbal erklären.
KI-Modell interpretiert Sprache und Bilder
Das Unternehmen spricht dabei von einem Vision-Sprachmodell (VLM): Die Bordkameras der Figure-Roboter speisten dazu Informationen in ein großes, von OpenAI trainiertes Bild-Sprach-Modell ein, das sowohl Bilder als auch Text verstehe. Dieses Modell verarbeite den gesamten Gesprächsverlauf – einschließlich zuvor erfasster Bilder. Daraus würden dann Antworten formuliert, die dem Menschen zurückgesprochen werden. „Dasselbe Modell ist für die Entscheidung verantwortlich, welches gelernte, geschlossene Verhalten der Roboter ausführen soll, um einen bestimmten Befehl auszuführen“, heißt es in einer Mitteilung von Figure.
Lesen Sie auch: BMW will humanoide Roboter in der Produktion einsetzen
Technisch beschreibt der Hersteller den Vorgang als „gelernte bimanuelle Manipulation auf niedriger Ebene“: Das Verhalten des Roboters wird durch visuelle und motorische (visuomotorische) Transformationsstrategien des neuronalen Netzes gesteuert, die Pixel direkt auf Aktionen abbilden. Demnach nehmen diese Netzwerke On-Board-Bilder des Roboters mit 10 Hz auf und erzeugen mit 200 Hz sogenannte 24-DOF-Aktionen, beispielsweise zur Steuerung von Handgelenkspositionen und Fingergelenkwinkel.