Autonomes Objektlernen
Roboter, die in einer für Menschen gemachten Umgebung arbeiten sollen, brauchen die Fähigkeit, verschiedenste Objekte zu erkennen und mit ihnen zu interagieren (z.B. Greifen). Insbesondere müssen sie in der Lage sein, mit Objekten umzugehen, die sie vorher noch nie gesehen haben. Dazu müssen sie einiges über diese neuen Objekte lernen, z.B. wie sie aussehen, welche Form und welches Gewicht sie haben.
Um das Aussehen eines Objektes zu lernen, braucht man einen Deskriptor, der seine Erscheinung möglichst eindeutig beschreibt und eine zukünftige Wiedererkennung in den Kamerabildern des Roboters ermöglicht. Um eine solche Beschreibung erstellen zu können, muss allerdings das neue Objekt zunächst im Kamerabild segmentiert, d.h. vom Hintergrund unterschieden werden können. Das ist im Allgemeinen schwierig, insbesondere wenn der Hintergrund ebenfalls unbekannt ist oder es sich um einen Haufen aus mehreren unbekannten Objekten handelt.
In diesen Fällen ist es vermutlich nicht möglich, das neue Objekt zuverlässig vom Rest der Szene zu trennen, wenn man sich auf rein passives Betrachten beschränkt. Unser Ansatz besteht deshalb darin, dass der Roboter mit dem Objekt physisch interagiert. Indem er es bewegt, können mehrdeutigkeiten beseitigt werden und eine klare und zuverlässige Segmentierung wird möglich. Diese erlaubt dann die Erstellung von beliebigen Deskriptoren. Da durch die Bewegung verschiedene seiten des Objekts sichtbar werden, kann seine Erscheinung aus verschiedenen Perspektiven eingelernt werden.
Wenn ein unbekanntes Objekt derartig segmentiert und damit auch lokalisiert wurde, kann der Roboter es auch greifen. Klassische Greifplaner erfordern ein genaues und vollständiges 3D-Modell des Objektes, das aber im Allgemeinen und insbesondere im Fall unbekannter Objekte nicht verfügbar ist. Deshalb arbeiten wir an reaktiven Greifverfahren, die die Messungen der taktilen und Kraftsensoren in der Roboterhand nutzen.