Greifen mit Deep Learning

Bei diesem selbst initiierten Projektpraktikum an der TU München habe ich zusammen mit Kommilitonen einen Algorithmus zur Erkennung von Greifpunkten für Robotergreifer auf Alltagsgegenständen entwickelt. Der Algorithmus basiert auf Deep Learning und wurde auf dem Grasp Dataset der Cornell University trainiert. Zum Training wurden 1035 RGB-D Bilder einer Kinect Kamera verwendet. Jedes Bild ist dabei mit mehreren korrekten Greifpunkten versehen.

Obiges Bild: Beispiele von Objekten des Cornell Grasp Datasets.

Obiges Bild: Verwendete Architektur des Deep Neural Networks mit 5 Convolutional Layern und zwei Fully-Conntected Layern.

Das obige Bild zeigt die Anwendung des Algorithmus auf zehn unbekannte Objekte eines Testdatensatzes. In Rot sind die möglichen korrekten Griffe eingezeichnet, welche im Cornell Grasp Dataset zu diesen Objekten vorliegen. In Blau sind die durch das trainierte Netz berechneten Griffe dargestellt. Das Deep Neural Network erreicht eine Trefferquote von 71%.

 

Projektbericht zum Download:

Grasping (1).pdf
PDF-Dokument [2.7 MB]