Google Tango robot mower

nero76

Moderator
Sehr interessant! Roomba 980 beherrscht Ortung mit einer Kamera und nicht mehr lange, dann werden es auch die ersten Rasenroboter mit einer Kamera können - das Google-Tango-Handy und der Mensch machen es ja vor wie's geht ;)

https://www.youtube.com/watch?v=7YBNigXZox4
 
Sehr interessant! Roomba 980 beherrscht Ortung mit einer Kamera und nicht mehr lange, dann werden es auch die ersten Rasenroboter mit einer Kamera können - das Google-Tango-Handy und der Mensch machen es ja vor wie's geht ;)

https://www.youtube.com/watch?v=7YBNigXZox4
 
Aber wenn ich das richtig sehe geht es bei Tango um AR und nicht um Ortung.

Mit Kamera hattest du doch auch schon experimentiert.
 
Beides - Für AR brauchst Du Ortung :) Du musst ja die 3D-Koordinaten des virtuellen Objektes so bewegen/drehen/zoomen dass sie an die richtige Position kommen - dazu musst du aber deine eigene Position (= die der Kamera) kennen :) - Es ist also ein- und dasselbe Problem.

Mit anderen Worten: erst muss die aktuelle Kamera-Position ermittelt werden (Ortung=Hauptproblem) und davon ausgehend kann das AR-Objekt von der aktuellen Kameraposition in die Zielposition gebracht werden (einfach=kein Problem).

Google schafft das inzwischen mit einer Robustheit und Präzision ... damit kann man arbeiten :) Video
 
Hi
Impressive technologie.
But for a mower ?????.
I think don't make difference between grass earth or water on flat surface or you need to first record all the mowing area so for the moment it's better to use perimeter wire, no ?

In reality i am impressive by the accurate and speed of the sensor use in the video.

Thanks for the link.
By
 
What is easier: to set up a wire or to let the mower explore the world? ;)
Imagine: you could easily change the mowing area, let the mower quickly explore new gardens, teach the mower to stay away from certain areas... plenty of options :)
 
Das hört sich wie das Huhn / Ei Problem an ;)

Aber mal im Ernst. er weiß doch wo er ist. Er ist Hier. Nach Norden ein Hindernis in x mtr Entfernung, Süden y mtr und so weiter. Wenn er Osten nicht sehen kann, kann er aber anhand der anderen Abstände immer noch sagen wo er ist. Problematisch ist nur wenn nirgends etwas sieht, dann hilft nur noch GPS um näherungsweise zu sagen wo er ist
Wenn er ein Bild von der Umgebung gelernt hat, sollte er doch sagen können wo er ist ?

Ich hab allerdings nicht mal ansatzweise eine Ahnung wie man sowas umsetzen könnte.

Stefan
 
Die Extraktion der Merkmale ist beeindruckend vor allem aus verschiedenen Perspektiven. Damit steht und fällt alles. Interessant ist auch, das er Merkmale aus vergangenen Wegpunkten noch anzeigt und in Verbindung mit den aktuellen bringt, oder irgend welche nicht erkennbaren Punkte auf der Fläche markiert und festhält. Kanten auf homogenen Flächen (kleiner Kreis) zu erkennen sollte heute keine Herausforderung mehr sein. D.h. aber noch lange nicht, dass es in der Lage ist Graskanten zu erkennen, vor allem wenn sich dann die Grasfarbe ändert, Laub drauf liegt oder ein Übergang zu Moos oder Unkraut stattfindet. Wenn dann noch ein Wall kommt der genauso grün ist wie das Gras und die gleiche Textur hat... :evil:
 
Den Ablauf für einen Rasenmäher (ohne Schleife) stelle ich mir ungefähr so vor:
https://developers.google.com/tango/
1. Explore-Modus: Anstelle eine Schleife abzufahren für eine Kartierung (wäre das Prinzip Kartierung mit einer Schleife), wird der Roboter (beginngend von der Ladestation) durch die Gegend geschickt (mit Tango Motion Tracking und gleichzeitigem Area Learning) und erstellt eine Tango-Karte der Umgebung. Hierauf trägt der Benutzer abschließend eine virtuelle Schleife ein (Bezugspunkt ist Ladestation). Diese virtuelle Schleife ist die eigentlich wichtige Information (Schleifenkontur). Die Tango-Karte wird nach Ermittlung der Schleifenkontur gelöscht, nur die Schleifenkontur wird gespeichert.

2. Mäh-Modus: bei jedem Mähstart startet der Roboter das Motion Tracking mit gleichzeitigem Area Learning neu. Es wird also jedesmal eine neue Tango-Karte neu erstellt. Die Trajektorie (Bewegung des Roboters beginngend von der Ladestation) wird hierbei präzise ermittelt. Diese Trajektorie wird nun in die Schleifekontur (aus 1) eingetragen. Damit ist die Position des Roboters bekannt und dies bei jedem Wetter und Jahreszeit.

Oder mache ich einen Denkfehler? :)
 
Ok, das ist natürlich ein anderer Ansatz. Dein Ziel ist die Position mit Motion Tracking zu berechnen wobei das Area Learning dazu dient die Trajektorie zu verbessern.

Echt cooles Device. Gerade das Area Learning und das wiedererkennen aus unterschiedlichen Perspektiven.
Scheint ja relative neu auf dem Markt zu sein.
 
Hallo,

ich schaue mir ja immer gern neue Lösungen zur Ortung an und diesmal war "Google Tango" dran - ich bin angenehm überrascht von der Präzision der Kartierung bzw. Positionserkennung. Für eine optisch-basierte Lösung kann man es eigentlich nicht besser machen, aber seht selbst :)

Erster Test zur Positionserkennung (man sieht die Präzision sehr schön bei der Kreisfläche für unseren Pool): https://www.youtube.com/watch?v=dCd_n9X-BHk
"optischer Perimeter"-Test (hier spiele ich Rasenroboter, lege zuerst die virtuelle Schleife fest und fahre dann innerhalb der Schleife umher und teste dabei ob die Schleife an richtiger Stelle erkannt wird): https://www.youtube.com/watch?v=L_uHube6Yrk
Weiterer Test zur Positionserkennung (Start- und Endpunkt der gesamten virtuellen Schleife liegen beieinnander): https://www.youtube.com/watch?v=ieqaCv9OEBo
Gruss,
Alexander
 
Hi,
das sieht ja sehr vielversprechend aus.
Welches Device hast du denn für deine Tests benutzt?
Hast du ein "Google-Tango"- kompatibles Gerät (Phablet, Tablet, Phone)?
Ich würde auch gerne testen, nur würde ich mir dazu nicht unbedingt Unsummen für Devices ausgeben. B)

Gruß Thomas
 
Die Ergebnisse haben mich ehrlich gesagt ziemlich umgehauen (hätte nicht gedacht dass es so gut funktioniert). Die Preise für 3D Kameras bzw. Handys mit 3D Kameras sind leider noch sehr hoch. Hier wird die Zeit bestimmt das Preis-Problem lösen. In jedem Handy eingesetzt sinkt der Preis für den Sensor und damit auch der Gerätepreis drastisch. So wie heute in jedem Gerät eine 2D-Kamera vorhanden und dadurch erst der Preis gesunken ist.

Zum Test habe ich ein Lenovo phab2PRO Handy eingesetzt. Ich werde noch versuchen Schwachstellen dieser Technik zu finden ;-) (eine wäre z.B. es funktioniert nicht im Dunkeln)
 
Ich habe mal eine App entworfen mit der man die aktuelle Tango-Position (x,y,z) und die aktuelle Orientierung (x,y,z,w) zu einem PC,Mac,Raspberry oder Arduino schicken kann (https://play.google.com/store/apps/details?id=de.grauonline.tangoanywhere) und somit das Anwendungsgebiet für Google Tango erweitern kann.
https://www.youtube.com/watch?v=x_KOuHPVy70
 
Hallo Alexander,
super das du dich auf Google Tango gestürzt hast. Das bietet ein extrem großes Potential zur Navigation von Robotern.
Es gibt auch schon ein elektrischen Rollstuhl-Prototyp der damit navigiert. http://www.htxt.co.za/2016/10/21/au...lchair-uses-googles-tango-tech-to-get-around/
Die 3D Kamera basiert auf einer PMD Kamera von PMD (wurde in Deutschland entwickelt).
Hier ein Link der die Funktion ganz gut erklärt: https://www.heise.de/ct/artikel/Angetestet-Erstes-Tango-Smartphone-Lenovo-PHAB2-Pro-3234183.html Das müsste eigentlich auch Nachts funktionieren, da die Kamera mit einer eigenen Infrarotbeleuchtung arbeitet und über Laufzeitmessung die Entfernung des einzelnen Bildpixel berechnet. Ich weiß allerdings nicht wieweit Google Tango das Bild der normalen Kamera mit verwendet.

Ein super Projekt das ihr hier vorantreibt!!!!

Sonnigen Gruß und allen ein schönes Weihnachtsfest

Martin
 
Ich werde noch eine zweite App bauen welche "Augmented Reality" verwendet und womit man eine virtuelle Schleife verlegen kann (die so verlegte Schleife wird also in das echte Kamera-Bild in Echtzeit an seiner richtigen Stelle eingeblendet). Dies ist viel komfortabler and auch genauer als abstrakt virtuelles Kabel auf einer 2D-Karte verlegen. Desweiteren wird es eingeblendete Wegpunkte geben welche der Roboter später abfährt bzw. der Mensch zum Test abflaufen kann damit alles gemäht wird.
 
Hier ein kurzer Test ob und wie so eine virtuelle Schleifenverlegung mit "Augmented Reality" funktionieren könnte (ich setze mit dem Finger im Bild Punkte (genauer: 3D-Punkte [x,y,z]) welche nach und nach zu einer Schleife verbunden werden). Dann teste ich ob die Kameraposition (mit anderen Worten die Position des Gerätes) immer korrekt erkannt wird, indem ich verschiedene Blickwinkel und Positionen anfahre - würde die Kameraposition dabei falsch ermittelt, würden die Punkte nicht mehr richtig in das Kamerabild projiziert was aber nicht der Fall ist (die Punkte liegen immer schön am Ort richtigen Ort und damit ist die Kameraposition immer korrekt).

https://www.youtube.com/watch?v=E5EfPGciUxc&feature=youtu.be
 
Oben