Tesselation
Projection Mapping umfasst die Projektion von perspektivisch korrekt verzerrten Bildern auf beliebige dreidimensionale Oberflächen mit Videoprojektoren. In der 3D Game Engine Unity wird ein Kalibrierungsverfahren entwickelt, mithilfe dessen beliebig viele Projektoren innerhalb einer 3D Szene ausgerichtet werden können. Dadurch entsteht die Möglichkeit, komplexe Installationen mit mehreren Projektoren zu entwerfen, die in Echtzeit und unter anderem mit Physikund Grafikeffekten von Unity betrieben werden können. Darüber hinaus werden wichtige Eigenschaften der Projektionshardware, sowie generelle Vorgehensweisen zum Thema Projection Mapping diskutiert.
In der vorliegenden Arbeit wird die Implementation eines Verfahrens vorgestellt, mit dem statische 3D Umgebungsmodelle interaktiv gemacht werden können. Dafür werden sie in ein Computerspiel geladen, in dem mit Objekten interagiert werden kann. Beispielsweise können Türen geöffnet und geschlossen werden. Mit einer Erweiterung des Las Vegas Surface Reconstruction Toolkits werden die Modelle in einzelne Komponenten zerteilt. Diese Komponenten werden einem Typ zugeordnet und je nach Typ werden ihnen Attribute hinzugefügt. In einer HDF5 Struktur wird das Umgebungsmodell exportiert und in Unity importiert.
Wenn mit einem Laserscanner Scans aus mehreren Positionen aufgenommen werden, zum Beispiel von einem mobilen Roboter, ist es f¨ur anschließende Berechnungen und Analysen wichtig, die genaue Position und Ausrichtung des Scanners zur Zeit der Aufnahme zu wissen. Ein Verfahren zur Bestimmung dieser Pose heißt Simultaneous Localisation And Mapping (SLAM). Für dieses Verfahren gibt es aktuell jedoch wenige Implementierungen, insbesondere für die Variante mit 6 Freiheitsgraden, die für den 3D-Raum benötigt wird.
Die vorliegende Arbeit beschäftigt sich mit der Implementierung und Optimierung des Growing- Cell-Structures-Algorithmus (GCS) zur Rekonstruktion der Oberfläche dreidimensionaler Punktdaten. Es wird eine Integration des Algorithmus in das Las Vegas Reconstruction Toolkit (LVR2), sowie - damit verbunden - eine Abkapslung von der Computational Geometry Algorithms Library (CGAL) angestrebt, deren Datenstrukturen in einer vorigen Implementation des Algorithmus im LVR1 verwendet wurden. Zur Unterstützung der benötigten Operationen wird die Halfedge-Mesh Datenstruktur des LVR2 um einen Vertex-Split erweitert.
Die bildgebende Spektroskopie ist ein gängiges Verfahren der Fernerkundung zur Auswertung und Analyse von multi- und hyperspektralen Luft- und Satellitenaufnahmen der Erdoberfläche. Die Arbeitsgruppe Wissensbasierte Systeme der Universität Osnabrück erzeugte im Rahmen des Las-Vegas-Surface-Reconstruction-Projekts hyperspektrale Panoramaaufnahmen im terrestrischen Nahbereich über 150 Strahlungskanäle. Zusätzlich zu den Hyperspektralaufnahmen wurde jeweils ein Laserscan der aufgenommenen Umgebung erzeugt, sodass pro Aufnahme eine dreidimensionale mit Hyperspektralinformationen annotierte Punktwolke generiert werden kann. Ziel dieser Arbeit ist es, derartige Panoramaaufnahmen mithilfe von Techniken und Werkzeugen der Fernerkundung in Materialklassen einzuteilen, um so einen Beitrag zum Forschungsgebiet des Semantic Mapping zu leisten.
Mittels der universitätseigenen Bibliothek Las Vegas Reconstruction (kurz LVR) ist es möglich, Polygonnetze aus 3D-Punktwolken zu generieren. Diese Bibliothek wird mit dem Dual Marching Cubes Algorithmus um eine weitere Variante der Oberflächenrekonstruktion erweitert. Besonderer Fokus liegt dabei auf der Adaptivität der Rekonstruktion. D.h. das rekonstruierte Polygonnetz besteht aus verschieden großen Polygonen. Dabei sind die einzelnen Polygone in Bereichen mit hohem Detailreichtum sehr klein, um diese Details gut approximieren zu können. In Bereichen, die weit weniger Details enthalten sind die Polygone hingegen deutlich größer.
Das Las Vegas Reconstruction Toolkit (LVR) erzeugt aus Laserscandaten eine digitale 3D-Umgebungsrepräsentation in Form eines Polygonnetzes. Um eine effiziente Echtzeitvisualisierung zu ermöglichen, werden dabei feine Details ausgeblendet und eine Repräsentation geringen bis mittleren Detailgrades erstellt. Dies führt beispielsweise dazu, dass eine auf diese Weise digitalisierte Steinmauer als ebene Fläche dargestellt wird, obwohl der ursprüngliche Laserscan genauere geometrische Informationen (Fugen, Struktur, etc.) enthält. Das Ziel dieser Bachelorarbeit ist es, diese Detailinformationen, welche sich zusätzlich zum digitalen 3D-Modell als stückweise diskrete Höhenkarte (Detail Map) repräsentieren lassen, durch Echtzeitverfeinerung des Polygonnetzes während der Visualisierung wieder einzufügen.
In verschiedenen Anwendungsfällen im Bereich der Computergrafik und der Simulation besteht der Bedarf, semi-reguläre Vierecksnetze von 3D-Objektoberflächen in voll-reguläre Teile zu partitionieren. Idealerweise sollte diese Partition so simpel wie möglich, d.h. die Anzahl der Teile so gering wie möglich, sein. Der sogenannte Motorcycle-Graph approximiert diese Idealpartition in effizienter Weise. Gerade im Bereich aufwendiger Simulationen, z.B. mittels der Finite Elemente Methode, werden jedoch häufig auch Hexaedernetzrepräsentationen des gesamten Volumens von 3D-Objekten verwendet.