Zephyrnet-Logo

LIDAR-basiertes SLAM, Neues in der autonomen Navigation

Datum:

SLAM – simultane Lokalisierung und Kartierung – ist bereits eine etablierte Technologie in der Robotik. Dies beginnt im Allgemeinen mit visuellem SLAM, bei dem die Objekterkennung verwendet wird, um Orientierungspunkte und Hindernisse zu erkennen. VSLAM allein verwendet eine 2D-Ansicht einer 3D-Umgebung, was die Genauigkeit herausfordert; Verbesserungen hängen von komplementären Sensoreingängen wie Trägheitsmessungen ab. VISLAM, wie dieser Ansatz genannt wird, funktioniert gut bei guten Lichtverhältnissen und ist nicht unbedingt auf schnelle Bildraten für die visuelle Erkennung angewiesen. Nun setzen Automotive-Anwendungen SLAM ein, können aber kein gutes Seeing garantieren und erfordern schnelle Reaktionszeiten. LIDAR-basiertes SLAM, auch bekannt als LOAM – LIDAR Odometry and Mapping – ist ein wichtiger Treiber in diesem Bereich.

SLAM in der Automobilindustrie

Bevor wir über eine breitere Autonomie nachdenken, denken Sie über das Selbstparken nach. Paralleles Parken ist ein offensichtliches Beispiel, das bereits in einigen Modellen verfügbar ist. Ausgeklügelter ist die Möglichkeit für ein Auto, sich selbst auf einem Parkplatz zu parken (und bei Bedarf zu Ihnen zurückzukehren). Parkassistenzfunktionen erfordern möglicherweise kein SLAM, aber echtes autonomes Parken erfordert diese Fähigkeit unbedingt und erregt viel Aufmerksamkeit in Forschung und Industrie.

2D-Bildgebung allein reicht nicht aus, um dieses Maß an Autonomie zu unterstützen, bei dem die Kenntnis der Entfernungen zu Hindernissen um das Auto herum von entscheidender Bedeutung ist. Trägheitsmessung und andere Arten von Sensoren können dieses Loch stopfen, aber es gibt ein grundlegenderes Problem bei diesen selbstparkenden Anwendungen. Schlechte oder verwirrende Lichtverhältnisse in Parkhäusern oder Straßen bei Nacht können visuelles SLAM zu einer minderwertigen Option machen. Ohne dies wird das gesamte Lokalisierungs- und Kartierungsziel beeinträchtigt.

LIDAR ist die auf den ersten Blick naheliegende Lösung. Funktioniert gut bei schlechten Lichtverhältnissen, nachts, bei Nebel usw. Aber es gibt noch ein anderes Problem. Die Natur von LIDAR erfordert eine etwas andere Herangehensweise an SLAM.

Die SLAM-Challenge

SLAM-Implementierungen, zum Beispiel OrbSLAM, erfüllen drei Hauptfunktionen. Tracking führt eine (visuelle) Frame-zu-Frame-Registrierung durch und lokalisiert einen neuen Frame auf der aktuellen Karte. Beim Mapping werden der Karte Punkte hinzugefügt und lokal optimiert, indem ein komplexer Satz linearer Gleichungen erstellt und gelöst wird. Diese Schätzungen unterliegen Abweichungen aufgrund sich anhäufender Fehler. Die dritte Funktion, Loop Closure, korrigiert diese Drift, indem sie die Karte anpasst, wenn bereits besuchte Punkte erneut besucht werden. SLAM erreicht dies, indem es einen großen Satz linearer Gleichungen löst.

Einige dieser Funktionen können sehr effektiv auf einer Host-CPU ausgeführt werden. Andere, wie die lineare Algebra, laufen am besten auf einem stark parallelen System, für das die offensichtliche Plattform DSP-basiert sein wird. CEVA bietet bereits eine Plattform an zur Unterstützung der VSLAM-Entwicklung durch ihre SensPro-Lösung. Bietet effektive SLAM-Unterstützung in Echtzeit bei Tageslicht mit bis zu 30 Bildern pro Sekunde.

Ein anderes Problem stellt LIDAR SLAM als Alternative zu VSLAM bei schlechten Lichtverhältnissen dar. LIDAR funktioniert durch mechanisches oder elektronisches Spinnen eines Laserstrahls. Daraus baut es eine Punktwolke aus Reflexionen von umgebenden Objekten auf, zusammen mit Entfernungsinformationen für diese Punkte. Diese Punktwolke beginnt aufgrund der Bewegung der LIDAR-Plattform verzerrt. Eine Recherche schlägt eine Lösung vor, um diese Verzerrung durch zwei Algorithmen zu mildern, die mit unterschiedlichen Frequenzen laufen: einer zur Schätzung der Geschwindigkeit des LIDAR und einer zur Durchführung der Kartierung. Allein durch diese Analyse, ohne Trägheitskorrekturen oder Schleifenschließung, behaupten sie, dass sie eine Genauigkeit erreichen können, die mit herkömmlichen Batch-SLAM-Berechnungen vergleichbar ist. Dieses Papier legt nahe, dass das Hinzufügen von IM und das Schließen der Schleife die offensichtlichen nächsten Schritte sein werden 

Wir freuen uns

Die autonome Navigation hat noch viel zu bieten, noch bevor wir zu vollständig fahrerlosen Autos kommen. Jede solche Lösung, die ohne detaillierte Karten funktioniert – zum Beispiel für Parkanwendungen – muss auf SLAM angewiesen sein. VISLAM für die Outdoor-Navigation tagsüber und LOAM für schlechtes Seeing und Indoor-Navigation in beengten Räumen. Als absolut hoffnungsloser Parallelparker kann ich es kaum erwarten!

Teile diesen Beitrag über:

spot_img

Neueste Intelligenz

spot_img