Bibliographic Metadata

Title
Outdoor Inside-Out Linear Image Sensor Tracking / von Christian Prossenitsch
Additional Titles
Outdoor Inside-Out Linear Image Sensor Tracking
AuthorProssenitsch, Christian
Thesis advisorKaufmann, Hannes
PublishedWien, 2019
Description111 Seiten
Institutional NoteTechnische Universität Wien, Diplomarbeit, 2019
Annotation
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprueft
LanguageEnglish
Document typeThesis (Diplom)
Keywords (DE)Tracking / Linear Image Sensor / Virtuelle Realität / Outdoor Tracking
Keywords (EN)Tracking / Linear Image Sensor / Virtual Reality / Outdoor Tracking
URNurn:nbn:at:at-ubtuw:1-120096 Persistent Identifier (URN)
Restriction-Information
 The work is publicly available
Files
Outdoor Inside-Out Linear Image Sensor Tracking [19.7 mb]
Links
Reference
Classification
Abstract (German)

Tracking Systeme sind eine weit verbreitete Technologie in digitalen Anwendungen. Ohne Positionsbestimmung könnten viele computer-gestützte Anwendungen wie z.B. Robotersysteme nicht funktionieren. Vor allem aber durch die zunehmende Verbreitung von Virtual Reality / Augmented Reality Brillen wird eine genaue und schnelle Positionsbestimmung immer wichtiger. In diesen Anwendungen ist es äußerst wichtig, dass die Kopfposition des Benutzers genau und latenzfrei erfasst wird, um Nebenwirkungen wie Übelkeit vorzubeugen. Weiters müssen Tracking Systeme portabel und billig verfügbar sein, um auf dem Massenmarkt bestehen zu können. In dieser Arbeit wird eine neuartige Tracking-Methode vorgestellt, die auf der optischen Fokussierung und Brechung von Licht basiert. Das Herzstück der Methode bildet ein linearer Bildsensor, der gemeinsam mit einem fix montiertem Linsensystem als Lichtsensor fungiert. Das Licht wird von im Raum verteilten Leuchtdioden (LEDs) ausgestrahlt, die von einem Mikrocontroller abwechselnd geschalten werden. Die Lichtkegel der LEDs müssen überlappend angeordnet sein, damit der lineare Bildsenor mindestens zwei Messungen unterschiedlicher Lichtquellen aufnimmt. Die Lichtstrahlen werden durch das Linsensystem auf den Sensor fokussiert. Durch Bewegung des Trackers ändert sich der Einfallswinkel des Lichts, wodurch die Lichtstrahlen in einem anderen Winkel gebrochen werden. Der Bereich, in dem Lichtstrahlen auf den Sensor treffen, ändert sich dadurch. Ein Mikrocontroller kann durch diese Abweichungen eine schnelle und akkurate Positionsänderung berechnen und ausgeben. Das Projekt lässt sich in zwei Teile unterteilen: Der erste Teil besteht aus einer Simulation des Tracking Systems. Mittels Matrizenoptik wurde die Lichtbrechung durch verschiedene Linsenanordnungen simuliert. Dadurch konnten die Grenzen des Tracking Systems berechnet und die passenden Linsen mit korrekten Abständen zueinander angeordnet werden. Der zweite Teil besteht aus der Umsetzung der Simulation. Dabei wurde ein funktionierender Prototyp entwickelt, mit dem die Ergebnisse der Simulation in der Realität getestet und umgesetzt wurden. Ein Mikrocontroller übernimmt das Auslesen des linearen Bildsensors und die Ansteuerung der LEDs. Die gemessenen Intensitätswerte des Sensors werden an einen Raspberry Pi geschickt, der aus diesen Daten die Positionsänderung bestimmt. Das Tracking System kann zweidimensionale Translationen erfassen. Eine dritte Achse könnte durch einen zusätzlichen Sensor und LEDs hinzugefügt werden. Im Anschluss an die Entwicklung des Prototyps wurde die Genauigkeit und die Latenz des Tracking Systems evaluiert.

Abstract (English)

Tracking systems are a widely used technology in physical computing. Without a positioning system, many applications like robotic systems could not function properly. Especially Virtual Reality / Augmented Reality headsets rely heavily on the position data of such systems. For this emerging technology, accurate and fast position data is crucial, in order to prevent side effects like motion sickness. Furthermore, tracking systems have to be cheap and portable to be competitive on the mass market. In this thesis, a new kind of tracking system is presented, based on the refraction of light and optical focus. The main part of the system forms a linear image sensor together with a 4-piece lens system. Light originates from Light Emitting Diodes (LEDs) placed in the tracking environment. These LEDs are controlled by a microcontroller one at a time. The LED light cones need to be overlapping, in order to get at least two intensity measurements by different light sources. Light rays travel through the lens system, which focuses light on the sensor. When the sensor moves, the angle of the refracted light changes, thus reaching a different part of the sensor. A microcontroller can then compute the tracking systems change of position. The project can be split into two parts: The first part consists of a tracking system simulation. The simulation makes use of Ray Transfer Matrix Analysis, a ray tracing technique utilized in the design of optical systems. Using the simulation, the size of the tracking area has been calculated and the right lenses with correct distances to each other have been chosen. The second part consists of the actual implementation. A functional prototype has been developed, to turn the insights of the simulation into a real-life solution. A microcontroller is used to read the linear image sensor and control the LEDs. The intensity values are sent to a Raspberry Pi, which calculates the position change of the tracker. With only one linear image sensor, the system is able to track translations in two dimensions. However, through adding an additional sensor with corresponding LEDs, tracking of a third axis is possible in theory. Finally, the accuracy and latency of the tracking system prototype have been evaluated.

Stats
The PDF-Document has been downloaded 3 times.