Titelaufnahme

Titel
Autonomous extrinsic calibration of a depth sensing camera on mobile robots / von Farhoud Malekghasemi
Weitere Titel
Extrinsische Kalibrierung eines Tiefensensors
Verfasser / Verfasserin Malekghasemi, Farhoud
Begutachter / BegutachterinVincze, Markus
GutachterHalmetschlager-Funek, Georg
ErschienenWien, 2018
UmfangVIII, 70 Blätter : Illustrationen, Diagramme
HochschulschriftTechnische Universität Wien, Diplomarbeit, 2018
Anmerkung
Zusammenfassung in deutscher Sprache
Anmerkung
Abweichender Titel nach Übersetzung des Verfassers
SpracheEnglisch
DokumenttypDiplomarbeit
Schlagwörter (DE)mobiler Roboter / Tiefenkamera / Kalibrierung
Schlagwörter (EN)mobile robot / calibration / depth camera
URNurn:nbn:at:at-ubtuw:1-114125 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Autonomous extrinsic calibration of a depth sensing camera on mobile robots [3.95 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Diese Arbeit präsentiert ein schnelles und autonomes System, um die starre Transformation zwischen der RGB-D-Kamera und einem lokalen Koordinatensystem auf einem mobilen Roboter zu finden. Die Hauptvorteile des Verfahrens gegenüber den herkömmlichen Kalibrierungsverfahren bestehen darin, dass keine spezielles Setup oder irgendein bekanntes Objekt in der Szene benötigt werden. Dies wird erreicht, indem die Roboterbewegung mit einer verfolgung des Kamerapose kombiniert wird. Es wird gezeigt, dass zwei kreisförmige Bewegung und eine Ebenenerkennung ausreichen, um den Roboter in unterschiedlichen Umgebungen die ein Mindestmass an Textur aufweisen, autonom zu kalibrieren. Die vorgestellte Methode wird sowohl in einer Computersimulation als auch in realen Szenarien evaluiert.

Zusammenfassung (Englisch)

This study presents a fast and autonomous system to find the rigid transformation between the RGB-D camera and a local reference frame on a mobile robot. The major advantages of the method over the conventional methods of calibration is that there is no need for a special setup or any known object in the scene. This is achieved by taking advantage of robots motion combined with camera tracking method. It is shown that two circular motion and one plane detection are sufficient to autonomously calibrate the robot in different environments with some minimal texture. The presented method is evaluated with both, computer simulation and in real-life scenarios.

Statistik
Das PDF-Dokument wurde 29 mal heruntergeladen.