Titelaufnahme

Titel
Getting past passive vision - on the use of an ontology for situated perception in robots / Matthias Johannes Schlemmer
VerfasserSchlemmer, Matthias Johannes
Begutachter / BegutachterinVincze, Markus ; Stojanov, Georgi
Erschienen2009
UmfangXI, 150 S. : Ill., graph. Darst.
HochschulschriftWien, Techn. Univ., Diss., 2009
Anmerkung
Zsfassung in dt. Sprache
SpracheEnglisch
Bibl. ReferenzOeBB
DokumenttypDissertation
Schlagwörter (DE)Kognitive Robotik / Heimrobotik / Situiertes Sehen / Kognitives Sehen / Künstliche Intelligenz / Bildverarbeitung / Objektkonzept / Ontologie / Interdisziplinarität / Angewandte Philosophie
Schlagwörter (EN)Cognitive Robotics / Home Robotics / Situated Vision / Cognitive Vision / Artificial Intelligence / Image Processing / Object Concept / Ontology / Interdisciplinarity / Applied Philosophy
Schlagwörter (GND)Maschinelles Sehen / Robotik / Künstliche Intelligenz / Kognition / Ontologie <Wissensverarbeitung>
URNurn:nbn:at:at-ubtuw:1-23968 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Werk ist frei verfügbar
Dateien
Getting past passive vision - on the use of an ontology for situated perception in robots [8.55 mb]
Links
Nachweis
Klassifikation
Zusammenfassung (Deutsch)

Das Feld der Computer Vision hat in den letzten Jahrzehnten eine beachtliche Anzahl an komplexen Methoden hervorgebracht, die es ermöglichen, spezifischen Problemen mit spezifischen Lösungen zu begegnen. Das Gebiet der Heimrobotik sieht sich ihrerseits mit alltäglichen und variierenden Umgebungen konfrontiert, welche große Herausforderungen an ihre Wahrnehmungsfähigkeit stellen, die nicht mit Nischenlösungen zu behandeln sind. Beispielsweise ist für die autonome Robotik die Detektion von Objektkonzepten, durch das von allen Instanzen geteilte Zugrundeliegende definiert, eine entscheidende Fähigkeit, die im Gegensatz zur Detektion einzelner Instanzen ganz andere Schwierigkeiten birgt.

Diese Arbeit zielt darauf ab, wichtige Aspekte in Hinblick auf das (Wieder)Zusammenführen von Computer Vision und Robotik (als Artifi cial Intelligence) zu diskutieren. Sie beginnt mit typischen Beispielen, die zeigen sollen, wie in der Computer Vision üblicherweise Problemstellungen behandelt werden: mit einer Methode zur Texturkantenerkennung und einer weiteren zur Objektverfolgung mittels interest points. Anschließend wird die Brücke zu theoretischen Überlegungen zur kognitiven Robotik (als Grundlage für die Heimrobotik) geschlagen und ein theoretischer Rahmen im Sinne von kognitiven Funktionen vorgestellt. Die Vorannahmen hierfür werden dargelegt und es wird der Überzeugung gefolgt, dass eine solch komplexe Aufgabenstellung nur unter Miteinbeziehen unterschiedlicher Fachgebiete möglich ist.

Daher wird in dieser Arbeit wiederholt auf Philosophie, Psychologie und Kognitionswissenschaft verwiesen.

Namentlich werden Intentionalität, Prädiktion, Abstraktion, Symbol Binding und Generalisierung als jene Funktionen vorgestellt und diskutiert, welche als entscheidend für die situierte Wahrnehmung in autonomen Robotern erachtet werden. Ein weiterer wissenschaftlicher Beitrag ist die Begründung einer von diesen Funktionen geteilten Ontologie, welche sowohl die Objektkonzepte als auch zusätzliche semantische Information zu beherbergen vermag, welche die Verbindung zu weiterer Kognition darstellt.

In einem abschließenden praktischen Teil werden Experimente vorgestellt, die einen möglichen Aufbau einer solchen Ontologie zeigen, wobei eine rezente Ontologiesprache (OWL) mit der Computer Vision verknüpft wird.

Es wird gezeigt, wie visuelle Abstraktion, eine der genannten kognitiven Funktionen, auf diese Weise implementiert werden kann und wie verschiedenartige Vision-Techniken ausgenützt und verbunden werden können unter konsistenter Aufrechterhaltung eines Szenenverständnisses.

Außerdem wird dadurch deutlich, wie auf diese Weise eine ontologische Repräsentation sowohl zu einem klaren Umgang mit explizitem Wissen als auch zur Entfaltung der präsentierten kognitiven Funktionen und der benötigten Transition von quantitativen Daten zu qualitativer Information führen kann.

Zusammenfassung (Englisch)

Computer vision has achieved many highly complex techniques to solve specific problems with specific solutions. Research on robot companions, however, deals with varying and cluttered environments that pose challenges to perception, which cannot be overcome with niche solutions. For example the detection of object concepts defined by the common substrate that all instances share as opposed to the detection of specific instances only is of crucial necessity for autonomous robots.

This dissertation aims to discuss important issues and topics with respect to the goal of bringing these disciplines closer together again.

It thus starts by exemplifying how work in computer vision is usually approached: by presenting a texture edge detection and an interest point tracking technique. We then give thorough theoretical considerations pertaining to what cognitive robotics - as a foundation for robot companions - is in need of and propose a theoretical framework in terms of cognitive functions that bridge to computer vision techniques.

Besides giving a clear position on what the presuppositions of such a view on vision and robotics are, one of our main concerns that lie behind our functional approach, is the continuous incorporation of various disciplines. Hence, we give comprehensive references to philosophy, psychology and cognitive science in general throughout this thesis.

In particular, we present intentionality, prediction, abstraction, symbol binding and generalisation as functions that seem to be of crucial importance for situated perception in autonomous robots, as far as our focus on visual cognition is concerned. Another key finding is that those functions find their common connecting point in an ontology which might hold the needed object concepts, as well as further semantic information that allows for connecting to further cognition.

Experiments include the presentation of how such an ontology can be set up, introducing the use of a recently defined ontology language from the semantic web movement. We show how visual abstraction, one of the cognitive functions found to be important, can be performed and how different vision techniques can be exploited while simultaneously retaining grounded and situated scene understanding. In this way, we can show how an ontological representation accounts for explicit knowledge handling, the deployment of the presented cognitive functions, and the needed transition from quantitative data to qualitative information.