Bibliographic Metadata

Title
Real-time rendering of measured materials / von Thomas Mühlbacher
AuthorMühlbacher, Thomas
CensorWimmer, Michael ; Tobler, Robert
Published2012
DescriptionVI, 124 S. : Ill., graph. Darst.
Institutional NoteWien, Techn. Univ., Dipl.-Arb., 2012
Annotation
Zsfassung in dt. Sprache
Bibliographic Source
http://www.harmanic.at/dipl_tomm/diplomarbeit_Final.pdf
LanguageEnglish
Document typeThesis (Diplom)
Keywords (DE)Echtzeitgraphik / gemessene Materialien / Beleuchtungsmodelle / Obeflächenmodelle / planare Reflektionen / Filtern von Environment Maps / deterministische Abtastung
Keywords (EN)Real-time rendering / measured materials / illumination models / surface models / planar reflections / environment map filtering / deterministic sampling
URNurn:nbn:at:at-ubtuw:1-51622 Persistent Identifier (URN)
Restriction-Information
 The work is publicly available
Files
Real-time rendering of measured materials [36.7 mb]
Links
Reference
Classification
Abstract (German)

Interaktive Szenenrundgänge sind ein beliebtes Werkzeug zur Präsentation neuartiger Architektur, Einrichtung oder Innenraumbeleuchtung. Für eine hinreichende Szenenimmersion während solcher Rundgänge ist eine realistische Darstellung von Materialien wichtig, diese in Echtzeit zu berechnen ist jedoch eine große technische Herausforderung. In dieser Arbeit wird ein Algorithmus vorgestellt, der das Echtzeit-Rendering von blickwinkelabhängigen Materialien in statischen Szenen ermöglicht. Für statische Szenen kann die globale blickpunktunabhängige Lichtausbreitung in einem Vorverarbeitungsschritt berechnet und abgespeichert werden. Nur der letzte Schritt, in dem ermittelt wird, wieviel Licht der Szene das Auge erreicht, wird dynamisch zur Laufzeit berechnet. Der diffuse Anteil wird direkt aus der vorberechneten Bestrahlungsstärke abgeleitet, der spiegelnde Teil wird durch Integration des einfallenden Lichtes gemäß den Materialeigenschaften ermittelt. Die Verteilung des einfallenden Lichts wird für gekrümmte Flächen als environment map gespeichert. Für ebene Flächen wird die Szene vor der Berechnung jedes Bildes zunächst von einer gespiegelten Kamera aus in einen Zwischenspeicher gerendert, welcher dann als näherungsweise Repräsentation der einfallenden Beleuchtung dient. Materialeigenschaften werden durch ein parametrisches Modell ausgedrückt, welches sich besonders zur Anpassung an gemessene Lichtstreudaten eignet.

Zur Laufzeit wird der blickpunktabhängige Teil der lokalen Beleuchtung durch Sampling der einfallenden Beleuchtungsrepräsentation unter Gewichtung der Samples nach den Materialeigenschaften angenähert. Ein rauschfreies Bild wird durch Wiederverwendung des exakt gleichen Abtastmusters an allen Punkten eines Objekts und zusätzliches Filtern der eingehenden Strahldichte erreicht. Die einfallende Beleuchtung wird regelmäßig und ausschließlich im Bereich des specular lobe abgetastet, um eine möglichst uniforme Abdeckung des wichtigsten Integrationsbereichs auch bei geringer Abtastauflösung zu erzielen.

Dadurch produziert der Algorithmus eine physikalisch inkorrekte aber glaubwürdige Darstellung von blickpunktabhängigen Materialien in Echtzeit. Das Verfahren ist schneller als bestehende zufallsbasierte Sampling-Methoden, da weniger Samples nötig sind um eine rauschfreie und gleichmäßige Abdeckung der specular lobes zu erzielen.

Abstract (English)

Interactive walkthroughs of virtual scenes are not only common in fictional settings such as entertainment and video games, but also a popular way of presenting novel architecture, furnishings or illumination. Due to the high performance requirements of such interactive applications, the presentable detail and quality are limited by the computational hardware. A realistic appearance of materials is one of the most crucial aspects to scene immersion during walkthroughs, and computing it at interactive frame rates is a challenging task.

In this thesis an algorithm is presented that achieves the rendering of static scenes featuring view-dependent materials in real-time. For walkthroughs of static scenes, all light propagation but the last view-dependent bounce can be precomputed and stored as diffuse irradiance light maps together with the scene geometry. The specular part of reflection and transmission is then computed dynamically by integrating the incident light approximatively according to view and local material properties. For this purpose, the incident radiance distribution of each object is approximated by a single static environment map that is obtained by rendering the light-mapped scene as seen from the object. For large planar reflectors, a mirror rendering is performed every frame to approximate the incident light distribution instead of a static environment map. Materials are represented using a parametric model that is particularly suitable for fitting to measured reflectance data. Fitting the parameters of a compact model to material measurements provides a straightforward approach of reproducing light interactions of real-world substances on a screen.

During walkthroughs, the view-dependent part of the local illumination integral is approximated by sampling the representation of incident light while weighting the samples according to the material properties.

Noise-free rendering is achieved by reusing the exact same sampling pattern at all pixels of a shaded object, and by filtering the samples using MIP-maps of the incident light representation. All available samples are regularly placed within the specular lobe to achieve a uniform symmetric coverage of the most important part of the integration domain even when using very few (5-20) samples. Thus, the proposed algorithm achieves a biased but stable and convincing material appearance at real-time frame rates. It is faster than existing random-based sampling algorithms, as fewer samples suffice to achieve a smooth and uniform coverage of specular lobes.