Titelaufnahme

Titel
Improving accuracy and robustness of localisation and mapping algorithms using vision and inertial sensors / von Peter Gemeiner
VerfasserGemeiner, Peter
Begutachter / BegutachterinVincze, Markus ; Davison, Andrew
Erschienen2010
UmfangVI, 118 S. : Ill., graph. Darst.
HochschulschriftWien, Techn. Univ., Diss., 2010
Anmerkung
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Lokalisierung, Mapping, Robotik, Computervision, Trägheitssensoren, Time-Of-Flight Kamera
Schlagwörter (EN)Localisation, Mapping, Robotics, Computer Vision, Inertial Sensors, Time-Of-Flight Camera
Schlagwörter (GND)Roboter / Lokalisierung <Robotik> / Registrierung <Bildverarbeitung> / Mapping-Problem / Maschinelles Sehen / Beschleunigungssensor
URNurn:nbn:at:at-ubtuw:1-31543 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Improving accuracy and robustness of localisation and mapping algorithms using vision and inertial sensors [4.37 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Robotik ist eine faszinierende wissenschaftliche Disziplin, die Verbindungen zur Elektronik, der Mechanik und der Informatik hat. Die Hauptaufgabe der Robotik ist, autonome intelligente Roboter zu schaffen, die dazu fähig sind, verschiedenste Aufgaben zu lösen. Trotz langfristiger Anstregung erschienen die ersten autonomen Roboter - zwar mit beschränkter Intelligenz - erst im 20. Jahrhundert. Heute helfen Roboter den Menschen erfolgreich in vielen Gebieten, z.B. wo hohe Präzision gefordert wird, gefährliche Arbeitsbedingungen erwartet werden, oder Arbeiten an entfernten Orten durchgeführt werden müssen.

Wegen der Komplexität der Aufgaben und des Arbeitsumfeldes bleibt Robotik ein aktives Forschungsthema.

Eine der Hauptaufgaben eines beweglichen Roboters ist seine eigene Position genau feststellen zu können. Dieses Selbstlokalisieren im Raum ist a priori Bedingung für die Navigation von seiner gegenwärtigen Position hin zu einem definierten Platz. In Umgebungen, wo keine Karte gegeben worden ist, ist die Navigation zum neuen Platz schwierig, weil der Roboter zwei parallele Aufgaben lösen muss.

Diese zwei parallelen Aufgaben, allgemein bekannt als "Simultaneous Localisation and Mapping" (SLAM), zogen beträchtliche Aufmerksamkeit innerhalb der wissenschaftlichen Gemeinschaft im Laufe der letzten vierzig Jahre an sich. Wegen der fokusierten Bemühung sind mehrere fortschrittliche Algorithmen entwickelt worden, und heutzutage wird es allgemein betrachtet, dass diese Algorithmen nun ausgereift sind. In den letzten Jahren hat sich die Aufmerksamkeit der Gemeinschaft hauptsächlich auf verschiedene SLAM Anwendungen konzentriert, die mehrere Arten von Sensoren verwenden oder grosse Umgebungen darstellen.

In dieser Doktorarbeit präsentieren wir drei verschiedene Beiträge zum SLAM Forschungsthema. Unsere Beiträge haben das Ziel, die Robustheit, die Geschwindigkeit, oder die Genauigkeit des SLAM durch die verbesserte Vision, oder Fusion der Vision und Trägheitssensoren zu verbessern. Der erste Beitrag präsentiert eine Fusion der Vision und Trägheitssensoren, der eine robuste Lösung zur Lokalisierung und Mapping Problem zur Verfügung stellt. Die beteiligten Algorithmen haben dieselbe Aufgabe wie SLAM, aber arbeiten an verschiedenen Grundsätzen.

Der zweite Beitrag führt eine Hohgeschwindigkeitkamera ins SLAM ein, und erklärt ein erweitertes Bewegungsmodell. Diese Verbesserung vergrössert die Fähigkeit für den beweglichen Roboter, sich schneller im Raum zu lokalisieren.

Der letzte Beitrag ist mit der Möglichkeit verbunden, einen "Time-of-Flight" (ToF) Sensor zu verwenden. Die standard Visionkamera stellt keine Tiefenmessungen für die Szene bereit. Unser Ergebnis zeigt, wie die Verwendung der Tiefenmessungen der ToF Kamera die Genauigkeit der resultierenden Karte erhöht.

Zusammenfassung (Englisch)

Robotics is a fascinating scientific discipline, which has connections to electronics, mechanics and software algorithms. The ultimate goal of robotics is to create autonomous intelligent robots capable of solving various tasks. Despite long term efforts, the first autonomous robots, with limited intelligence, appeared only in the 20th century. Today, robots are successfully helping humans in many areas, usually where high precision is demanded, more dangerous working conditions can be expected, or long-term distant work is needed. Due to the complexity of the tasks and the working environment, robotics remains an active research topic. One of the main tasks of a mobile robot is to know its own position accurately. This self-localising in space is a priori condition for the navigation from its current position to a defined place. In environments, where no map has been given, the navigation to the new place is difficult, because the robot has to solve two parallel tasks. These two parallel tasks, commonly known as the Simultaneous Localisation and Mapping (SLAM), attracted considerable attention within the scientific community over the past forty years. Due to the concentrated effort, several advanced algorithms have been developed, and nowadays it is generally considered that these algorithms are well-matured. In recent years, the attention of the community has focused mainly on various SLAM applications, which are using different kinds of sensors or mapping large environments.

In this thesis, we present three different contributions to the SLAM research topic. Our contributions aim to improve the robustness, speed or accuracy of SLAM through enhanced vision or a fusion of vision and inertial sensors. The first contribution presents a fusion of vision and inertial sensors, which provides a robust solution to the localisation and mapping problem. The main idea is that we can use the complementary characteristics of these sensors in an efficient way. The involved algorithms have the same task as SLAM, but are working on different principles.

The second contribution introduces a high-speed camera to the SLAM framework, and discusses a more complex motion model. This improvement for the mobile robot increases the ability to move more rapidly in space.

The last contribution involves the possibility of using a Time-of-Flight (ToF) sensor. The standard vision camera does not provide direct scene depth measurements. The standard camera has to move in order to build a three-dimensional map of the unknown environment. Our result shows how the ToF camera direct scene depth measurements enhance the accuracy of the final map.