Titelaufnahme

Titel
Motion estimation from integration of range and intensity data / von Sajid Ghuffar
Weitere Titel
Motion Estimation from Integration of Range and Intensity Data
Verfasser / Verfasserin Ghuffar, Sajid
Begutachter / BegutachterinPfeifer, Norbert
Erschienen2014
UmfangXI, 92 S. : Ill., graph. Darst., Kt.
HochschulschriftWien, Techn. Univ., Diss., 2014
Anmerkung
Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Kamera-Orientierung \ Bewegungsschätzung \ Range-Kamera\ RGB-D Kamera \ Microsoft Kinect\ Bündelblockausgleichung \Range Flow \ Optical Flow \ Simultaneous Localization And Mapping (SLAM)
Schlagwörter (EN)Camera Orientation \ Motion estimation \ Range Camera\ RGB-D Camera \Microsoft Kinect \ Bundle Block Adjustment \Range Flow \ Optical Flow \ Simultaneous Localization And Mapping (SLAM)
Schlagwörter (GND)Kamera / Dimension 3 / Bewegungsmessung / Schätzung / Strecke / Intensität / Messung
URNurn:nbn:at:at-ubtuw:1-74998 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Motion estimation from integration of range and intensity data [36.87 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

In den letzten Jahren haben 3D-Kameras mit hohen Bildwiederholfrequenzen und günstigem Anschaffungspreis eine große Verbreitung gefunden. Diese Kameras erlauben gleichzeitig Entfernung und Intensität zu messen und sind deshalb für viele Anwendungen interessant. Die Vermessung von Innenräumen und die selbsttätige Auto-Navigation seien als Beispiele genannt. Die Bestimmung der Bewegung der Kamera bzw. jener der beobachteten Objekte ist eine wichtige Teilaufgabe in all diesen möglichen Anwendungen. Deshalb ist es wichtig Methoden zu untersuchen, die die Bewegung unter Verwendung der simultan erfassten Strecken- und Intensitätsmessungen bestimmen. Diese Arbeit untersucht diese gemeinsame Verwendung von Strecken- und Intensitätsmessungen für die Bewegungsbestimmung. Dabei wird die Bewegungsbestimmung sowohl von einer bewegten Kamera als auch von mehreren sich unabhängig bewegenden Objekten untersucht. Die gemeinsame Verarbeitung der Entfernungs- und Intensitätsmessungen wird über Range-Flow und Optical-Flow-Bedingungen realisiert. Der in Entfernungsbildern formulierte Range-Flow und der in Intensitätsbildern formulierte Optical-Flow verwenden sehr ähnliche mathematische Beschreibungen. Daher lassen sich beide sehr gut in einer gemeinsamen Parameterschätzung zusammenfassen. Anhand dieser Flow-Algorithmen wird zuerst die relative Orientierung eines Paars von aufeinanderfolgenden Bildern bestimmt. Dabei wird ein hochgradig überbestimmtes Gleichungssystem gelöst um die sechs Parameter der relativen Orientierung zu berechnen. Die Trajektorie der bewegten Kamera ergibt sich dann aus der Sequenz aller paarweise berechneten relativen Orientierungen. Diese paarweise Aneinanderreihung führt zu einer Aufsummierung von Fehlern, was sich in einem Gangfehler in der berechneten Trajektorie niederschlägt. Um dieses Problem zu lösen und somit eine global konsistente Trajektorie zu bestimmen, werden die Ergebnisse aller relativen Orientierungen in einer gemeinsamen Bündelblockausgleichung eingeführt. Für die Schätzung einer global konsistenten Trajektorie ist es wichtig denselben Objektbereich mehrmals zu erfassen und diese so entstehenden Schleifenschlüsse zu identifizieren. Für Letzteres werden eindeutige Merkmale in den Bildern extrahiert und gematcht. In Innenraumbereichen können diese Merkmale selten auftreten wenn die Umgebung entweder einfärbig ist oder über sich wiederholende Muster verfügt. In solchen Szenarien sind die Extraktion und das Matching von robusten Merkmalen somit sehr schwierig. In dieser Arbeit wird dieses Problem durch die geschätzten relativen Orientierungen in der Bündelblockausgleichung gelöst. Somit kann die Orientierung auch dann noch genau geschätzt werden, wenn die Anzahl der Merkmale gering oder deren Verteilung ungünstig ist. Der vorgestellte Algorithmus wird anhand einer öffentlichen Datenbank an Bildern getestet. Die Einordnung der Performance des Algorithmus in die dort veröffentlichten Vergleichswerte ("Benchmark") zeigt, dass er sich im Vergleich zu anderen aktuellen Methoden sehr gut hält. Die weitere Analyse anhand der Varianz-Komponenten-Schätzung in der Bündelblockausgleichung hat gezeigt, dass die original geschätzten Genauigkeitswerte der relativen Orientierung viel zu optimistisch ausfallen. Im letzten Teil der Arbeit wird eine Methode vorgestellt, wie anhand einer statischen Kamera die Trajektorien von sich unabhängig voneinander bewegenden Objekten bestimmt werden kann. Auch hier wird wieder auf die gemeinsame Verwendung von Range-Flow und Optical-Flow zurückgegriffen. Die Bestimmung erfolgt in zwei Schritten. Im ersten Schritt werden lokale Bewegungsvektoren berechnet. Im zweiten Schritt werden diese einer globalen Optimierung unterzogen wodurch sich dann ein geglättetes dichtes Feld von Bewegungsvektoren ergibt. Der Vorteil dieses Zugangs liegt darin, dass es auf ein lineares Gleichungssystem führt, welches iterativ gelöst wird um grobe Fehler zu entfernen. Den Abschluss der Arbeit bildet ein praktisches Beispiel, bei dem die Bewegungsvektoren aufgrund eines Erdrutsches aus multi-temporalen Laserdaten bestimmt werden. Die Berechnung verwendet den Range-Flow und wendet diesen auf rasterbasierte digitale Oberflächenmodelle an. Zusammenfassend wurde in dieser Arbeit gezeigt, dass die gemeinsame Verwendung von Entfernungs- und Intensitätsmessungen, die Kombination von lokalen und globalen Modellen und die Berücksichtigung der stochastischen Eigenschaften der Messungen bei der Parameterschätzung durchführbar und auch von Vorteil sind.

Zusammenfassung (Englisch)

In recent years, low cost, high frame rate 3D or range cameras, which simultaneously provide distance and intensity information have become commercially available. These cameras have gained a lot of interest in numerous applications. Indoor mapping and autonomous mobile navigation are two example applications, which have a lot of potential for such cameras. Motion estimation is an integral part of these applications. Therefore, it is vital to investigate methods and techniques for motion estimation, which can exploit the simultaneous availability of range and intensity information provided by these 3D cameras. This thesis investigates the integration of range and intensity data for the task of motion estimation. The motion estimation of a moving camera and motion estimation of independently moving objects are both investigated. The integration of range and intensity information is realized using range flow and optical flow constraints, which have been used for motion estimation in range and intensity images respectively. Range flow and optical flow lead to similar mathematical formulations, therefore they are well integrated into one estimation problem. Using these \textit Matching distinctive features in images helps to identify loop closures and revisit of an area, which is essential in obtaining a globally consistent trajectory. However, in indoor environments features may be sparse and due to similar looking environment robust feature matching can be very challenging. Thus, the solution proposed in this thesis, utilizes the estimated relative orientations in the bundle adjustment. So, even when the feature points are low in number and not well distributed across the image, the orientation can still be accurately estimated by using information from the relative orientation. The proposed algorithm is evaluated on a publicly available dataset and benchmark, which shows that the algorithm performs well in comparison to the state of the art algorithm. Furthermore, using variance component analysis in bundle adjustment, it is shown that the original accuracy estimates of the relative orientation are far too optimistic. Furthermore, this thesis presents a method for dense 3D motion estimation of independently moving objects with a static camera, which is also based on the integration of range flow and optical flow constraints. This method is based on two steps, in the first step the motion is estimated locally, while in the second step a global regularization is performed, which leads to smooth dense flow vectors. The advantage of such an approach is that it leads to a linear equation system, which is then iteratively solved to remove the outliers. In the end, an example of motion estimation on a landslide is presented. The motion estimation is realized using range flow constraint, which is applied on raster based digital surface models generated from the multi-temporal laser scanning data of a landslide surface. The thesis demonstrates the feasibility and the benefits of integrating range and intensity data, of combining global and local models, and finally of considering stochastic properties of the measurements in the parameter estimation.

Statistik
Das PDF-Dokument wurde 61 mal heruntergeladen.