• Zielgruppen
  • Suche
 

Simultan-Lokalisation und Kartierung System unter Verwendung von Luftkamera

Gerade in den Bereichen der Roboternavigation, der Lokalisation und Kartierung, sowie im Augmented oder Virtual Reality hat in den letzten Jahren die Nachfrage nach Echtzeit-3D-Rekonstruktionsmethoden stark zugenommen. Ein vielversprechender Ansatz zur Implementierung von 3D-Rekonstruktionsmethoden ist das Prinzip des Simltaneous Localization and Mapping, kurz SLAM genannt. Das Ziel dieser Methode ist einerseits die 3D-Rekonstruktion der Umgebung und anderseits die zu ihr relative Lokalisierung und Verfolgung bewegender Objekte.

Aufgrund vieler Vorteile, wie beispielsweise der Verfügbarkeit, den Anschaffungs- und Unterhaltungskosten, sind visuelle Sensoren, wie Farbkameras, im Zusammenhang mit SLAM Systemen weit verbreitet. In dem Kontext werden solche Systeme Visual SLAM oder vSLAM genannt.Die Verbreitung von visuellen Echtzeitsysteme zur simultanen Lokalisation und Kartierung (VSLAM) in der Forschung ) in letzter Zeit stark zugenommen. Damit einhergehenden hat die 3D Rekonstruktion gerade in Verbindung mit der Navigation von Robotern (wie bei ferngesteuerten, unbemannten Flugkörpern (UAV) eine gro0e Bedeutung erlangt. Aktuelle VSLAM-Systeme verwenden jedoch herkömmliche Bildverarbeitungsalgorithmen zur Poseschätzung, wie z.B. ORB-SLAM. Allerdings ist die Leistungsfähigkeit solcher Algorithmen bei Bildern mit vielen unterschiedlichen und komplexen Texturen stark eingeschränkt. Somit ist die Genauigkeit herkömmlicher Algorithmen bei komplexen und halb-komplexen Umgebungen sehr begrenzt.

Im Vergleich zu solchen, auf Merkmalen basierenden, indirekten VSLAM Lösungen, soll ein direktes SLAM System entwickelt werden, das sowohl auf Basis von halb-komplexen oder gar komplexen Umgebungen 3D Modelle entwickelt und hochgenaue Poseschätzungen vornimmt.

Im Rahmen des Projekts werden direkte Farbdaten genutzt, um zeitlich aufeinander folgende Frames des Videostreams zu registrieren, ohne eine zeitaufwendige Merkmalsextraktion durchzuführen. Durch die mit Hilfe der Tiefendaten gewonnenen Poseschätzungen lassen sich 3D Modelle der Umgebung rekonstruieren. Eine anschließende Sliding-Window-Optimierung erlaubt die Berechnung einer lokalen Transformationsmatrix, wodurch der Schätzungsfehler minimiert werden kann. Für eine hochgenaue 3D-Rekonstruktion wird der Ansatz des Bundle Adjustments genutzt.

Um den Algorithmus in halb-komplexen, bzw. komplexen Umgebungen zu evaluieren, soll ein Mikro-UAV mit MiniPC und einer Farbkamera mit integriertem Tiefensensor ausgestattet werden. Durch den Einsatz von Tiefendaten lässt sich das von herkömmlichen SLAM Lösungen bekannte scale-drift-Problem auf einfachem Weg umgehen. Um Daten in Echtzeit zu verarbeiten, wird der Algorithmus zweigeteilt. Die Kartierung und Poseschätzung werden direkt auf dem Mini-Computer des UAVs berechnet, wohingegen der Optimierungsalgorithmus mit einem stationären PC auf dem Boden durchgeführt wird. Die Kommunikation beider Computer wird mittels Funkübertragung durchgeführt.

 

Ansprechpartner: M.Eng. Hang Luo

DJI MAVIC PRO Drone
Kinect XBOX ONE