Visuelle Odometrie

nero76

Moderator
Vielleicht lässt sich ja die "visuelle Odometrie" eines Tango-Smartphones auch schon mit einem Raspberry PI und einer CCD-Kamera (nur bei CCD sind alle Pixel synchron) umsetzen wenn man SVO (Fast Semi-Direct Monocular Visual Odometry) damit laufen lässt:
Code: https://github.com/uzh-rpg/rpg_svo Paper: http://rpg.ifi.uzh.ch/docs/ICRA14_Forster.pdf Video: https://www.youtube.com/watch?v=2YnIMfw6bJY
Mit beeindruckenden 55 Bilder pro Sekunde soll der Algorithmus auf einem Embedded Computer laufen (andere Algorithmen schaffen das nur auf High-End Laptops). Das sollte man ausprobieren.
 
Vielleicht lässt sich ja die "visuelle Odometrie" eines Tango-Smartphones auch schon mit einem Raspberry PI und einer CCD-Kamera (nur bei CCD sind alle Pixel synchron) umsetzen wenn man SVO (Fast Semi-Direct Monocular Visual Odometry) damit laufen lässt:
Code: https://github.com/uzh-rpg/rpg_svo Paper: http://rpg.ifi.uzh.ch/docs/ICRA14_Forster.pdf Video: https://www.youtube.com/watch?v=2YnIMfw6bJY
Mit beeindruckenden 55 Bilder pro Sekunde soll der Algorithmus auf einem Embedded Computer laufen (andere Algorithmen schaffen das nur auf High-End Laptops). Das sollte man ausprobieren.
 
Ich habe SVO heute getestet (gleiche Kamera wie im Paper) - Ergebnis: bestenfalls 30 Frame pro Sekunde auf einem High-End Rechner (Core i5) und nach 1-2 Metern versagt der Algorithmus komplett. Ganz so einfach wie im Video klappt das also nicht.
 
Hallo Alexander,


AlexanderG schrieb:
und nach 1-2 Metern versagt der Algorithmus komplett. Ganz so einfach wie im Video klappt das also nicht.

ist ja auch nicht wirklich zu erwarten gewesen, oder hast Du ein ROS am laufen gehabt? Wie war den Dein Eindruck in den ersten 2 Metern? Lohnt es sich hier weiter Research und Fehlersuche zu betreiben? 30 Frame pro Sekunde braucht bei unseren Robigeschwindigkeiten wohl auch keiner, möglicherweise läuft das viel stabiler wenn man da etwas gemütlicher ran geht.

fragt sich
Rajiva
 
Zuletzt bearbeitet von einem Moderator:
Ich teste mit ROS und bewege mich langsamer als ein Rasenroboter. Die "Erfinder" meinen dass es nur mit 70-100 Frames pro Sekunde einigermaßen läuft. Es gibt wohl eine kommerzielle Closed-Source Version die das kann.

Beim RATSLAM war damals schon eine sehr einfach gestrickte visuelle Odometrie dabei die sehr ungenau lief (Fehler: 2-3m auf 40m) aber lief. Ich denke wir haben beim Rasenroboter etwas andere Anforderungen, wir brauchen keine cm-genaue Position in Echtzeit, es würde reichen wenn wir die cm-genaue relative Position zu einem Gegenstand (über Feature Points) mit hohem Rechenaufwand alle 20 Meter im Stillstand (ohne Bewegung) ermitteln...
 
Hi Alexander,


AlexanderG schrieb:
Ich denke wir haben beim Rasenroboter etwas andere Anforderungen, wir brauchen keine cm-genaue Position in Echtzeit, es würde reichen wenn wir die cm-genaue relative Position zu einem Gegenstand (über Feature Points) mit hohem Rechenaufwand alle 20 Meter im Stillstand (ohne Bewegung) ermitteln...
ja an eine ähnliche Strategie habe ich auch gedacht. Es spricht IMHO nichts dagegen immer wieder kurz anzuhalten und sich "umzuschauen". Ich glaube auch nicht dass das auf 20 Meter funktionieren muss denn die ungefähre Position ist über einfaches GPS sehr gut feststellbar.

Gruss
Rajiva
 
Zuletzt bearbeitet von einem Moderator:
Andererseits ist eine lokale Suche (wenn ich nur Nachbarbilder vergleichen muss) viel schneller als eine globale und man braucht auch deutlich weniger Speicher. Alles nicht so einfach...
 
Oben