Ob es manchmal ein Fortschritt wäre, wenn ein Robot «Dinge greift, wie ein Mensch sie greifen würde», mag dahingestellt bleiben. Das Deutsche Luft- und Raumfahrtzentrum (DLR) wirbt damit jedenfalls als Vorteil für einen humanoiden «Agile Justin», der mit seinen Roboterhänden auch «fühlen» kann.
Demnach könne der humanoide Roboter Dinge mit der Hand auch in jede gewünschte Richtung drehen, ohne dabei hinzuschauen – was bei Arbeitenden, obwohl unerwünscht, bekanntlich ausgesprochen oft der Fall ist.
Agile Justin hat Sensoren in seinen beiden vierfingrigen Roboterhänden: Er «fühlt» damit die Gegenstände. Seine Fähigkeiten hat er kürzlich bei der automatica Messe gezeigt. Die Fingerfertigkeit gilt unter Robotik-Forschenden als grosse Herausforderung. «Durch neue Verfahren der lernenden künstlichen Intelligenz ist es erstmalig gelungen, Fähigkeiten mit der mechatronisch hochentwickelten DLR-Hand zu zeigen, die nahe an die menschliche Geschicklichkeit heranreichen: Insbesondere das blind ausgeführte Drehen und Manipulieren von Objekten mit einer nach unten offenen Hand war eine Herausforderung», sagt Professor Berthold Bäuml vom DLR-Institut für Robotik und Mechatronik in Oberpfaffenhofen. Berthold Bäumls KI-Forschung bringt den humanoiden Roboter Justin schon seit vielen Jahren voran: Justin fängt zum Beispiel Bälle, die ihm zugeworfen werden, oder erkennt Materialien durch Abtasten mit den Fingern. Jetzt hat selbstständig lernende KI Justins Möglichkeiten entscheidend erweitert.
Die Wissenschaftlerinnen und Wissenschaftler nutzen sogenanntes «Deep Reinforcement Learning». Das bedeutet, Justin lernt völlig eigenständig, was richtig oder falsch ist. In dieser Anwendung zum Beispiel durch «Das Objekt in Richtung Zielvorgabe drehen ist gut» und «Das Objekt fallen lassen ist schlecht». Das maschinelle Lernen von Geschicklichkeiten dauert nur zwei bis drei Stunden in einer Simulation. Dann beherrscht Justin die Aufgabe. Die Bewegungsstrategie für die Finger entwickelt er dabei ganz ähnlich wie ein Mensch durch Ausprobieren. «Der Roboter kann seine Lösungen in der realen Umgebung anschliessend direkt umsetzen. Auch wir als Forschende sind oft überrascht. Die Möglichkeiten unserer neuen lernenden KI-Methoden sind faszinierend», sagt Bäuml.
Zusätzlich ist eine weitere Premiere in der KI-Robotik gelungen: Justin greift beliebige Objekte mit seiner mehrfingrigen Hand. Hier haben die Forschenden zwei wesentliche Probleme durch KI gelöst. Aus 50.000 Beispielen hat der Roboter ein sogenanntes «Foundational Model» gelernt, wodurch er von der sichtbaren Vorderseite auf die Form der Rückseite schliessen kann. Justin hat also ein Verständnis für 3D-Formen erworben. Als Zweites kann Justin eine optimale Position der Hand finden und seine insgesamt zwölf Fingergelenke passend einstellen. Menschen greifen Gegenstände intuitiv. Um diese Intuition auch dem Roboter zu vermitteln, wurde eine weitere KI mit tausenden Beispielen für zehntausende Objekte gefüttert. «Die Berechnung benötigte einige Tage. Aber jetzt kann der Roboter den richtigen Griff innerhalb von Sekundenbruchteilen abrufen», erklärt Bäuml. Auf der automatica hat Justin seine Fingerfertigkeit schon mit Gegenständen gezeigt, die aus dem Publikum gereicht wurden.
Fotos: DLR
«Noch nie waren Roboter-Hände in der Lage, eine so grosse Vielzahl von Objekten so schnell und so präzise zu manipulieren. Der Erfolg war nur durch den kombinierten Einsatz von neuesten KI-Methoden mit modelbasierten methodischen Ansätzen und langjähriger Robotik-Erfahrung möglich», sagt Professor Alin Albu-Schäffer, Direktor des DLR-Instituts für Robotik und Mechatronik. «Bisher ging man häufig davon aus, dass man zum Erlernen von geschickter Objekthandhabung mit Roboterhänden eine sehr grosse Menge an Daten braucht. Im Gegensatz zu den Daten für Large Language Models, sind Experimentdaten in der Robotik, selbst wenn man sie durch Simulation erzeugt, sehr aufwendig. Das DLR-Forschungsteam hat nun einen Weg gefunden, weniger Daten zu benötigen, indem es mehr Robotik-Wissen und eine neue Lernarchitektur nutzt. So kann das Team diese Modelle sogar auf einfachen Rechnern trainieren und braucht keinen grossen Cluster. »
Der nächste grosse Schritt der Robotik könnte in der industriellen Fertigung erfolgen. Mehrfingrige Roboterhände könnten sehr komplexe und kleine Teile montieren, wenn sie die flexible, standardmässig intelligente Manipulation beherrschen. DLR-Forschende arbeiten daran zum Beispiel in einem Projekt «SmartHand».
Die Forschungsgruppe von Bäuml setzt auf Deep Learning als Kernprinzip für den Bau autonomer Roboter. Sie sollen sich durch die Verbindung von Sensorik und Motorik mit lernender KI menschlichen Fähigkeiten annähern. Die hochqualifizierten Mitarbeitenden der jungen KI-Forschungsgruppe kommen vor allem aus der Technischen Universtität München. Ausserdem bestehen Forschungskooperationen mit renommierten Technologieunternehmen.
- Details