Titelaufnahme

Titel
Real-time mobile robot self-localization : a stereo vision based approach / Abdul Bais
VerfasserBais, Abdul
Begutachter / BegutachterinDietrich, Dietmar ; Sablatnig, Robert
Erschienen2007
Umfang157 S. : Ill., graph. Darst.
HochschulschriftWien, Techn. Univ., Diss., 2007
Anmerkung
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Koppelnavigation / mobile Agenten / Echtzeit / Kalman Filter / Informationsfusion / Selbstlokalisierung / Fußballroboter / Stereovision / autonome mobile Roboter / landkartenbasierte Methoden
Schlagwörter (EN)Dead-reckoning / Mobile agents / Real-time / Kalman filter / Information fusion / Self-localization / Soccer eobots / Stereo vision / Autonomous mobile robots / Landmark based methods
Schlagwörter (GND)Autonomer Roboter / Mobiler Roboter / Lokalisierung <Robotik> / Echtzeitverarbeitung / Bildverarbeitung
URNurn:nbn:at:at-ubtuw:1-17021 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Real-time mobile robot self-localization [6.13 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Das Ziel dieser Arbeit ist die Echtzeit-Selbstlokalisation von kleinen, autonomen, mobilen Robotern in bekannten, aber hochdynamischen Umgebungen basierend auf Bildverarbeitung. Dabei wird eine erste Schätzung der Position kontinuierlich aktualisiert. Für den Algorithmus zur Lokalisierung ist es nicht notwendig, zusätzliche künstliche Markierungen oder spezielle Strukturen in der Umgebung anzubringen.

Weiters ist es nicht notwendig, dass sich Orientierungspunkte direkt am Boden oder in Bodennähe befinden. Der Algorithmus erlaubt dem Roboter, seine Ausgangsposition zu bestimmen und seine aktuelle Position während der Bewegung ständig zu aktualisieren.

Eine Schätzung der Position in einer gleich bleibenden Umgebung erfolgt normalerweise von der Roboterposition aus über Entfernungs- oder Winkelmessungen zwischen bekannten Orientierungspunkten. Eine andere Möglichkeit ist der Vergleich einer lokal aus Sensordaten erstellten Landkarte mit einer vorab gespeicherten, globalen Karte der Umgebung. Im Gegensatz zu anderen Lokalisationsalgorithmen werden in dieser Arbeit aus der Stereobildverarbeitung gewonnene Tiefeninformationen verwendet.

Erkannte Orientierungspunkte werden mit Trilaterationsverfahren in eine unvollständige 3D-Karte der unmittelbaren Umgebung transformiert, die dann mit dem globalen Modell verglichen wird. Für die Modellerstellung werden Längeninformationen verwendet, da man bei dieser Methode weniger Orientierungspunkte als bei der winkelbasierten benötigt. Das Stereobildverarbeitungssystem ist auf dem drehbaren Kopf des Roboters montiert.

In dieser Arbeit wird Gradient Based Hough Transform (GBHT) als Basis für die Merkmalsextraktion verwendet. GBHT wurde gewählt, da es die stärkste Gruppierung von kolinearen Pixel mit ähnlicher Kantenausrichtung erlaubt. Eine kontinuierliche, vollständige Bestimmung der eigenen Position wäre sehr rechenintensiv und nur bei genügend sichtbaren Orientierungspunkten möglich. Daher wird die einmal bestimmte Position durch die robotereigenen Sensorwerte aktualisiert. Diese Methode ist viel schneller und ausreichend genau, da sich die Summenfehler innerhalb kurzer Zeitintervalle unterdrücken lassen. Zum Vereinigen der verschiedenen Sensorwerte wird der Extended Kalman Filter verwendet. Eine aus den Sensordaten gewonnene grobe Schätzung der Position wird als Eingangsgröße bei der Merkmalsextraktion und dem Vergleich mit ein Weltkarte verwendet und erhöht die Genauigkeit.

Bedeutende Leistungsverbesserungen sind mit einer neuen hybriden Methode erzielt worden, die die globale Positionsschätzung mit der Spurhaltung kombiniert. Simulationsergebnisse der Kartenerstellung, Merkmalsextraktion, Berechnung der Tiefeninformation, kombinierten Informationsverarbeitung mehrerer Sensorwerte und ein Test der Programmstruktur sind der Arbeit beigefügt. Die Ergebnisse dieser Arbeit können verwendet werden, um die Anzahl der notwendigen Orientierungspunkte für einen Roboter mit Bildverarbeitung zu minimieren.

Zusammenfassung (Englisch)

The main focus of this thesis is vision based real time self-localization of tiny autonomous mobile robots in a known but highly dynamic environment. The problem covers tracking the position with an initial estimate to global self-localization. The localization algorithm is not dependent on the presence of artificial landmarks or special structures in the environment nor does it require that features should lie on or close to the ground plane. The algorithm enables the robot to find its initial position and to verify its location during every movement.

Global position estimation in unmodified environments normally involves measuring distance to or angles between distinct features (natural landmarks) from the robot position or matching a local map constructed from sensor readings to a global map of the environment. On contrary to other localization algorithms stereo vision based depth computation is used for self-localization. A localization framework is in progress that uses trilateration based techniques whenever distinct landmark features are extracted. The trilateration based method is complemented by a sparse 3D map of the local environment constructed based on sensor data and matching it with the environment model. The stereo vision system is mounted on a pivoted head as an aid in feature exploration. Distance measurements are used as they require fewer landmarks compared to methods using angle measurements.

Visual features are extracted using Gradient Based Hough Transform (GBHT), which provides the strongest groupings of collinear pixels having roughly the same edge orientation. Global self-localization is computationally slow and sometimes impossible if enough features are not available. Therefore, once the robot position is computed it is tracked with local sensors. This is fast and reasonably accurate as the accumulating error is suppressed after short intervals. Extended Kalman filter is used to fuse information from multiple heterogeneous sensors.

Keeping a rough estimate of the robot position helps in features extraction and matching with the global map. Significant performance improvements have been achieved with a new hybrid method that combines the global position estimation with tracking. Simulation results for the robot environment modeling, feature extraction, depth computation, information fusion, and initial test of the framework have been reported. As such marked minimization of landmarks for vision based self-localization of robots has been achieved.