Titelaufnahme

Titel
Unterstützung der menschlichen Selbstlokalisierung / von Manuel Schmitzer
Weitere Titel
Supporting Human Self-localization
Verfasser / Verfasserin Schmitzer, Manuel
Begutachter / BegutachterinGiannopoulos, Ioannis
ErschienenWien, 2018
Umfang51 Blätter : Illustrationen, Diagramme
HochschulschriftTechnische Universität Wien, Diplomarbeit, 2018
Anmerkung
Zusammenfassung in englischer Sprache
Anmerkung
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
SpracheDeutsch
DokumenttypDiplomarbeit
Schlagwörter (DE)Selbstlokalisierung / Orientierung / Wegsuche / UX / Kognitive Belastung / Mobile Anwendung / Augmented Reality / Bilderkennung / Sichtbarkeitsanalyse / Mentale Rotation / Landmarken
Schlagwörter (EN)Self-localization / Orientation / Wayfinding / UX / Cognitive Workload / Mobile Application / Augmented Reality / Image Recognition / Viewshed / Mental Rotation / Landmarks
URNurn:nbn:at:at-ubtuw:1-116612 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Unterstützung der menschlichen Selbstlokalisierung [18 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Die menschliche Selbstlokalisierung ist ein wichtiger Bestandteil des Alltags. Zur Bestimmung der eigenen Position und der Orientierung muss die allozentrische Darstellung, meist in Form einer Karte, mit der eigenen egozentrischen Repräsentation der realen Welt angeglichen werden. Dafür sind Objekte (Ankerpunkte) nötig, die in beiden Darstellungen vorhanden sind. In dieser Arbeit werden zwei neuwertige Ansätze vorgestellt, die den Prozess dieser Angleichung und damit auch die Selbstlokalisierung vereinfachen sollen. Der Viewshed-Ansatz basiert auf einer Sichtbarkeitsanalyse, um den NutzerInnen die Wahl geeigneter Ankerpunkte zu erleichtern. Dadurch, dass nur die in der Realität sichtbaren Gebäude in der Karte hervorgehoben werden, können die übrigen Gebäude von der Wahl ausgeschlossen werden. Der Bilderkennungs-Ansatz vereinfacht hingegen den Prozess der Selbstlokalisierung, indem ein Teil der Aufgabe automatisiert wird, und den NutzerInnen ein Ankerpunkt auf der Karte markiert wird. Anhand eines empirischen Experiments mit 30 TeilnehmerInnen im zehnten Wiener Gemeindebezirk wurden die beiden Methoden miteinander und zusätzlich auch mit einer Basis-Methode in verschiedenen Aspekten verglichen. Dabei ging es um die Effizienz, das Nutzererlebnis aber auch um die kognitive Belastung und den nötigen Aufwand. Die Ergebnisse zeigen, dass die Bilderkennungs-Methode bei der Selbstlokalisierung die beste Unterstützung bot und auch bei den NutzerInnen am beliebtesten war. Die Viewshed-Methode blieb deutlich hinter den Erwartungen zurück.

Zusammenfassung (Englisch)

Human self-localisation is an important part of everyday life. In order to determine one's own position and orientation, the allocentric representation, usually in the form of a map, has to be aligned with one's own egocentric representation of the real world. This requires objects (anchor points) that are present in both representations. In this thesis, two novel approaches are presented, which aim to simplify the process of the alignment and thus the self-localisation. The Viewshed approach is based on a visibility analysis to assist the user choose appropriate anchor points. By highlighting only those buildings of the map that are visible for the user in reality, the remaining buildings can be excluded from the selection. The image recognition approach simplifies the process of self-localisation by automating parts of the task and highlighting an anchor point on the map. On the basis of an empirical experiment with 30 participants in Vienna's 10$_

Statistik
Das PDF-Dokument wurde 18 mal heruntergeladen.