<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel rdf:about="https://hdl.handle.net/20.500.11811/1466">
<title>Schriftenreihe des Instituts für Geodäsie und Geoinformation</title>
<link>https://hdl.handle.net/20.500.11811/1466</link>
<description/>
<items>
<rdf:Seq>
<rdf:li rdf:resource="https://hdl.handle.net/20.500.11811/8787"/>
<rdf:li rdf:resource="https://hdl.handle.net/20.500.11811/8620"/>
<rdf:li rdf:resource="https://hdl.handle.net/20.500.11811/8567"/>
<rdf:li rdf:resource="https://hdl.handle.net/20.500.11811/8566"/>
</rdf:Seq>
</items>
<dc:date>2026-04-06T07:44:42Z</dc:date>
</channel>
<item rdf:about="https://hdl.handle.net/20.500.11811/8787">
<title>A water storage reanalysis over the European continent: assimilation of GRACE data into a high-resolution hydrological model and validation</title>
<link>https://hdl.handle.net/20.500.11811/8787</link>
<description>A water storage reanalysis over the European continent: assimilation of GRACE data into a high-resolution hydrological model and validation
Springer, Anne
Continental water storage and redistribution within the Earth’s system are key variables of the terrestrial water cycle. Changes in water storage and fluxes may affect resources for drinking water and irrigation, lead to drought or flood conditions, or cause severe changes of ecosystems e.g., through salinification. Hydrological models, which map water storages and fluxes, are being continuously improved and deepen our understanding of geophysical processes related to the water cycle. However, models are built on a simplified representation of reality, which leads to limited predicting skills of the simulation results. Assimilating remotely sensed total water storage variability from the Gravity Recovery and Climate Experiment (GRACE) mission has become a valuable tool for reducing uncertainties of hydrological model simulations. Simultaneously, coarse GRACE observations are disaggregated spatially and temporally through data assimilation.&lt;br&gt; In this thesis, GRACE data are assimilated into the Community Land Model version 3.5 (CLM3.5) yielding a unique daily 12.5 km reanalysis of total water storage evolution over Europe (2003 to 2010). Independent observations are evaluated to identify model deficits and to validate the performance of data assimilation. For the first time, the effect of data assimilation on modeled total water storage is also shown on the level of GRACE K-band observations. Optimal strategies for assimilating GRACE data into a high-resolution hydrological model are investigated through synthetic experiments. These experiments address the choice of the assimilation algorithm, localization, inflation of the ensemble of model states, ensemble size, error model of the observations, and spatial resolution of the observation grid. &lt;br /&gt;As the assimilation of GRACE data into CLM3.5 is realized within the Terrestrial Systems Modeling Platform (TerrSysMP), future assimilation experiments can be extended for the groundwater and atmosphere components included in TerrSysMP.; &lt;strong&gt;Eine Reanalyse des europäischen Wasserspeichers: Assimilierung von GRACE Daten in ein hochaufgelöstes hydrologisches Modell und Validierung&lt;/strong&gt;&lt;br&gt; Änderungen im kontinentalen Wasserspeicher und im Transport von Wasser durch das Erdsystem sind wichtige Einflussgrößen für die Verfügbarkeit von Frischwasserresourcen, die Entstehung von Dürren und Überschwemmungen, sowie für die Erhaltung von Ökosystemen, welche z.B. durch Versalzung gefährdet werden. Hydrologische Modelle, die die Speicherung und den Transport von Wassermassen abbilden, werden stetig verbessert und helfen unser Verständnis von hydrologischen Prozessen zu vertiefen. Allerdings ermöglichen hydrologische Modelle nur eine vereinfachte Abbildung der Realität, sodass die Aussagekraft der Simulationsergebnisse beschränkt ist. Die Assimilierung von Wasserspeicheränderungen, gemessen von den GRACE (Gravity Recovery and Climate Experiment) Satelliten, kann hydrologische Simulationen verbessern und erlaubt gleichzeitig eine räumliche und zeitliche Differenzierung der grobaufgelösten GRACE Beobachtungen.&lt;br&gt; In dieser Doktorarbeit werden GRACE Daten in das Land-Oberflächen-Modell CLM3.5 (Community Land Model Version 3.5) assimiliert, um eine neuartige Reanalyse täglicher Wasserspeicheränderungen (2003 bis 2010) für Europa mit 12.5 km Auflösung zu generieren. Durch unabhängige Beobachtungen werden Defizite des Modells identifiziert und das Ergebnis der Datenassimilierung beurteilt. Zum ersten Mal wird auch die Auswirkung der Assimilierung direkt auf Basis der GRACE K-Band Beobachtungen untersucht. Mit Hilfe synthetischer Experimente wird die beste Strategie zur Assimilierung von GRACE Daten in ein hochaufgelöstes hydrologisches Modell ermittelt. Dabei wird der Einfluss unterschiedlicher Assimilierungsstrategien untersucht, unter anderem die Wahl des Assimilierungsalgorithmus, die Lokalisierung des Einflussbereichs von Beobachtungen, die Erhöhung der Spannweite der Ensemblemitglieder des Modells, die Ensemblegröße, das Fehlermodell der Beobachtung und die räumliche Auflösung des Beobachtungsgitters. &lt;br /&gt;Da die Assimilierung von GRACE in das CLM3.5 Modell unter Verwendung von TerrSysMP (Terrestrial Systems Modeling Platform) geschieht, können die Assimilierungsexperimente in Zukunft auf die zusätzliche Verwendung des in TerrSysMP enthaltenen Grundwasser- und des Atmosphärenmodells erweitert werden.
</description>
<dc:date>2019-04-18T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/20.500.11811/8620">
<title>Development of a one-step 3D approach for the phase unwrapping process in a D-InSAR stack based on SBAS interferograms</title>
<link>https://hdl.handle.net/20.500.11811/8620</link>
<description>Development of a one-step 3D approach for the phase unwrapping process in a D-InSAR stack based on SBAS interferograms
Esch, Christina
Differential Interferometric Synthetic Aperture Radar (D-InSAR) is a unique technique to detect and map deformations of the Earth's surface over large temporal and spatial scales. Processing a whole stack of multitemporal data allows the generation of multidimensional deformation time series. One of the most important and critical steps in the analysis is the determination of phase ambiguities which is called phase unwrapping. The development of the phase unwrapping step in the context of the Small BAseline Subset (SBAS) method to analyze interferograms is the main focus of this work. In addition to the Permanent Scatterer Interferometry (PSI), the SBAS method is one of the most widely used methods for the multitemporal analysis of a D-InSAR stack. The SBAS method is especially suitable for noisy data because it provides a spatially more dense result. State of the art in the SBAS analysis is the Minimum Cost Flow (MCF) algorithm to spatially unwrap one single interferogram and the extended MCF (EMCF) algorithm to multitemporally unwrap a D-InSAR stack in two steps. Therefore, the problem is divided into two problems of smaller dimension, the temporal and the spatial phase unwrapping, which in turn can be solved as a two dimensional MCF problem. The MCF problem can be defined as a Linear Program (LP). The first contribution of this thesis is based on a detailed and consistent overview and discussion of the different formulations and solution methods of the MCF problem in order to find the most efficient solution for the problem in the context of SBAS. &lt;br&gt;&#13;
Methodologically, the two-step algorithm is not optimal as the spatial phase unwrapping which follows in the second step destroys the temporal constraints which are fulfilled after the temporal phase unwrapping. So the goal of this thesis is the development of a one-step three dimensional approach. The number of papers that solve the phase unwrapping multitemporally in one step with help of the MCF problem is limited. Existing theoretical considerations and basic frameworks have not been resulting in an optimal solution. In particular the problem of temporal inconsistency, which occurs with spatially filtered so called multilooked interferograms, remains unsolved. The spatial filter is of particular importance especially with noisy data as it reduces the noise and makes phase unwrapping easier. &lt;br&gt;&#13;
The second contribution of this thesis provides analysis and further refinements of the two-step EMCF algorithm. Based on these results a multitemporal one-step phase unwrapping procedure is finally developed. This approach is specifically designed for multilooked and multitemporally filtered SBAS interferograms. Both, simulated and real data are used to validate this approach. The test region is the Lower-Rhine-Embayment in the southwest of North Rhine-Westphalia, Germany, a very rural region with noisy data. Thus, there are only very few stable scatterers that can be evaluated. However, this region requires regular monitoring observations since one of the largest brown coal occurrences in Europe within this area leads to continuous movements of the Earth's surface. This work shows that the new approach provides more consistent results so that the deformation time series of the analyzed pixels can be improved. The performed simulations also demonstrate that the new approach leads to an improvement, especially in the case of very noisy data. In conclusion, using the methods developed in this work besides the stable scatterers, distributed scatterers can also be included in the analysis leading to a spatially increased density of the deformation time series.; &lt;strong&gt;Entwicklung eines einstufigen dreidimensionalen Ansatzes zur Lösung der Phasenmehrdeutigkeiten in einem differentiellen InSAR Stapel basierend auf Small BAseline Subset (SBAS)-Interferogrammen&lt;/strong&gt;&lt;br&gt;Das differentielle interferometrische Radarverfahren mit synthetischer Apertur (D-InSAR) ist eine bewährte Technik zur Erkennung und Abbildung von Deformationen der Erdoberfläche über große zeitliche und räumliche Skalen. Die Auswertung eines ganzen Stapels von multitemporalen Daten ermöglicht die Erzeugung von mehrdimensionalen Deformationszeitreihen. Einer der wichtigsten und kritischsten Schritte bei der Analyse ist die Auflösung der Phasenmehrdeutigkeiten. Die Untersuchung der Phasenabwicklung im Kontext der Small BAseline Subset (SBAS) Methode steht im Mittelpunkt dieser Arbeit. Neben der Permanent Scatterer Interferometry (PSI) ist die SBAS Methode eine der am weitesten verbreitetsten Methoden für die multitemporale Analyse eines DInSAR Stapels. Die SBAS Methode ist besonders für verrauschte Daten geeignet, da sie ein räumlich dichteres Ergebnis liefert.  &lt;br&gt;&#13;
Stand der Technik in der SBAS Analyse ist der Minimum Cost Flow (MCF) Algorithmus zur Lösung der Phasenmehrdeutigkeiten eines einzelnen Interferogramms und der erweiterte MCF (EMCF) Algorithmus zur multitemporalen Phasenabwicklung eines D-InSAR Stapels in zwei Schritten. Dabei wird das Problem in zwei einfachere Probleme mit kleinerer Dimension unterteilt, die zeitliche und die räumliche Phasenmehrdeutigkeitslösung, die wiederum als zweidimensionales MCF Problem gelöst werden können. Das MCF Problem kann als lineares Programm definiert werden. Der erste Beitrag dieser Arbeit beruht auf einer detaillierten und konsistenten Übersicht und Diskussion der verschiedenen Formulierungsarten und Lösungsmethoden des MCF Problems, um die für dieses Problem effizienteste Lösungsmethode zu finden. &lt;br&gt;&#13;
Methodisch ist der zweistufige Algorithmus nicht optimal, da die im zweiten Schritt durchgeführte räumliche Phasenabwicklung die zeitlichen Bedingungen, die während der zeitlichen Phasenabwicklung erfüllt werden, wieder zerstört. Das Ziel dieser Arbeit ist daher die Entwicklung eines einstufigen dreidimensionalen Ansatzes. Die Anzahl der Arbeiten, die die dreidimensionale Phasenmehrdeutigkeitslösung in einem Schritt mit Hilfe des MCF Problems lösen, ist begrenzt. Existierende theoretische Überlegungen und Grundgerüste haben zu keiner optimalen Lösung geführt. Insbesondere das Problem der zeitlichen Inkonsistenz, das bei räumlich gefilterten Interferogrammen auftritt, bleibt ungelöst. Das räumliche Filtern ist jedoch gerade bei verrauschten Daten von großer Bedeutung, da es das Rauschen reduziert und das Lösen der Phasenmehrdeutigkeiten somit erleichtert. Der zweite Beitrag dieser Arbeit liefert Analysen und weitere Verfeinerungen des zweistufigen EMCF Algorithmus, so dass die Phasenmehrdeutigkeiten letztendlich in einem Schritt multitemporal mittels eines selbst entwickelten Ansatzes gelöst werden können. Dieser Ansatz ist speziell für räumlich und multitemporal gefilterte SBAS-Interferogramme entwickelt. Zur Überprüfung dieses Ansatzes werden sowohl simulierte als auch reale Daten verwendet. Die Testregion ist die Niederrheinische Bucht im Südwesten Nordrhein-Westfalens, eine sehr ländliche Region mit verrauschten Daten. Daher gibt es nur sehr wenige stabile Rückstreuer, die ausgewertet werden können. Die Region erfordert jedoch eine regelmäßige Überwachung, da eines der größten Braunkohlereviere Europas innerhalb des Gebietes zu kontinuierlichen Bewegungen der Erdoberfläche führt. Die Arbeit zeigt, dass der neue Ansatz konsistentere Ergebnisse liefert, so dass die Deformationszeitreihen der analysierten Pixel verbessert werden können. Anhand der simulierten Daten kann zudem gezeigt werden, dass der neue Ansatz insbesondere bei sehr stark verrauschten Daten zu einer deutlichen Verbesserung führt. Zusammenfassend lässt sich sagen, dass mit den in dieser Arbeit entwickelten Methoden neben den stabilen auch noch verrauschte Rückstreuer in die Analyse einbezogen werden können, sodass flächendeckender Deformationszeitreihen resultieren.
</description>
<dc:date>2020-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/20.500.11811/8567">
<title>Visual Odometry and Sparse Scene Reconstruction for UAVs with a Multi-Fisheye Camera System</title>
<link>https://hdl.handle.net/20.500.11811/8567</link>
<description>Visual Odometry and Sparse Scene Reconstruction for UAVs with a Multi-Fisheye Camera System
Schneider, Johannes
Autonomously operating UAVs demand a fast localization for navigation, to actively explore unknown areas and to create maps. For pose estimation, many UAV systems make use of a combination of GPS receivers and inertial sensor units (IMU). However, GPS signal coverage may go down occasionally, especially in the close vicinity of objects, and precise IMUs are too heavy to be carried by lightweight UAVs. This and the high cost of high quality IMU motivate the use of inexpensive vision based sensors for localization using visual odometry or visual SLAM (simultaneous localization and mapping) techniques.&lt;br&gt; The first contribution of this thesis is a more general approach to bundle adjustment with an extended version of the projective coplanarity equation which enables us to make use of omnidirectional multi-camera systems which may consist of fisheye cameras that can capture a large field of view with one shot. We use ray directions as observations instead of image points which is why our approach does not rely on a specific projection model assuming a central projection. In addition, our approach allows the integration and estimation of points at infinity, which classical bundle adjustments are not capable of. We show that the integration of far or infinitely far points stabilizes the estimation of the rotation angles of the camera poses.&lt;br&gt; In its second contribution, we employ this approach to bundle adjustment in a highly integrated system for incremental pose estimation and mapping on light-weight UAVs. Based on the image sequences of a multi-camera system our system makes use of tracked feature points to incrementally build a sparse map and incrementally refines this map using the iSAM2 algorithm. Our system is able to optionally integrate GPS information on the level of carrier phase observations even in underconstrained situations, e.g. if only two satellites are visible, for georeferenced pose estimation. This way, we are able to use all available information in underconstrained GPS situations to keep the mapped 3D model accurate and georeferenced.&lt;br&gt; In its third contribution, we present an approach for re-using existing methods for dense stereo matching with fisheye cameras, which has the advantage that highly optimized existing methods can be applied as a black-box without modifications even with cameras that have field of view of more than 180 deg. We provide a detailed accuracy analysis of the obtained dense stereo results. The accuracy analysis shows the growing uncertainty of observed image points of fisheye cameras due to increasing blur towards the image border. Core of the contribution is a rigorous variance component estimation which allows to estimate the variance of the observed disparities at an image point as a function of the distance of that point to the principal point. We show that this improved stochastic model provides a more realistic prediction of the uncertainty of the triangulated 3D points.; Autonom operierende UAVs benötigen eine schnelle Lokalisierung zur Navigation, zur Exploration unbekannter Umgebungen und zur Kartierung. Zur Posenbestimmung verwenden viele UAV-Systeme eine Kombination aus GPS-Empfängern und Inertial-Messeinheiten (IMU). Die Verfügbarkeit von GPS-Signalen ist jedoch nicht überall gewährleistet, insbesondere in der Nähe abschattender Objekte, und präzise IMUs sind für leichtgewichtige UAVs zu schwer. Auch die hohen Kosten qualitativ hochwertiger IMUs motivieren den Einsatz von kostengünstigen bildgebenden Sensoren zur Lokalisierung mittels visueller Odometrie oder SLAM-Techniken zur simultanen Lokalisierung und Kartierung.&lt;br&gt; Im ersten wissenschaftlichen Beitrag dieser Arbeit entwickeln wir einen allgemeineren Ansatz für die Bündelausgleichung mit einem erweiterten Modell für die projektive Kollinearitätsgleichung, sodass auch omnidirektionale Multikamerasysteme verwendet werden können, welche beispielsweise bestehend aus Fisheyekameras mit einer Aufnahme einen großen Sichtbereich abdecken. Durch die Integration von Strahlrichtungen als Beobachtungen ist unser Ansatz nicht von einem kameraspezifischen Abbildungsmodell abhängig solange dieses der Zentralprojektion folgt. Zudem erlaubt unser Ansatz die Integration und Schätzung von unendlich fernen Punkten, was bei klassischen Bündelausgleichungen nicht möglich ist. Wir zeigen, dass durch die Integration weit entfernter und unendlich ferner Punkte die Schätzung der Rotationswinkel der Kameraposen stabilisiert werden kann.&lt;br&gt; Im zweiten Beitrag verwenden wir diesen entwickelten Ansatz zur Bündelausgleichung für ein System zur inkrementellen Posenschätzung und dünnbesetzten Kartierung auf einem leichtgewichtigen UAV. Basierend auf den Bildsequenzen eines Mulitkamerasystems baut unser System mittels verfolgter markanter Bildpunkte inkrementell eine dünnbesetzte Karte auf und verfeinert diese inkrementell mittels des iSAM2-Algorithmus. Unser System ist in der Lage optional auch GPS Informationen auf dem Level von GPS-Trägerphasen zu integrieren, wodurch sogar in unterbestimmten Situation - beispielsweise bei nur zwei verfügbaren Satelliten - diese Informationen zur georeferenzierten Posenschätzung verwendet werden können.&lt;br&gt; Im dritten Beitrag stellen wir einen Ansatz zur Verwendung existierender Methoden für dichtes Stereomatching mit Fisheyekameras vor, sodass hoch optimierte existierende Methoden als Black Box ohne Modifzierungen sogar mit Kameras mit einem Gesichtsfeld von mehr als 180 Grad verwendet werden können. Wir stellen eine detaillierte Genauigkeitsanalyse basierend auf dem Ergebnis des dichten Stereomatchings dar. Die Genauigkeitsanalyse zeigt, wie stark die Genauigkeit beobachteter Bildpunkte bei Fisheyekameras zum Bildrand aufgrund von zunehmender Unschärfe abnimmt. Das Kernstück dieses Beitrags ist eine Varianzkomponentenschätzung, welche die Schätzung der Varianz der beobachteten Disparitäten an einem Bildpunkt als Funktion von der Distanz dieses Punktes zum Hauptpunkt des Bildes ermöglicht. Wir zeigen, dass dieses verbesserte stochastische Modell eine realistischere Prädiktion der Genauigkeiten der 3D Punkte ermöglicht.
</description>
<dc:date>2020-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/20.500.11811/8566">
<title>Active 3D Reconstruction for Mobile Robots</title>
<link>https://hdl.handle.net/20.500.11811/8566</link>
<description>Active 3D Reconstruction for Mobile Robots
Palazzolo, Emanuele
Mapping the environment with the purpose of building a 3D model that represents it, is traditionally achieved by trained personnel, using measuring equipment such as cameras or terrestrial laser scanners. This process is often expensive and time-consuming. The use of a robotic platform for such a purpose can simplify the process and enables the use of 3D models for consumer applications or in environments inaccessible to human operators. However, fully autonomous 3D reconstruction is a complex task and it is the focus of several open research topics.&lt;br&gt; In this thesis, we try to address some of the open problems in active 3D environment reconstruction. For solving such a task, a robot should autonomously determine the best positions to record measurements and integrate these measurements in a model while exploring the environment. In this thesis, we first address the task of integrating the measurements from a sensor in real-time into a dense 3D model. Second, we focus on where the sensor should be placed to explore an unknown environment by recording the necessary measurements as efficiently as possible. Third, we relax the assumption of a static environment, which is typically made in active 3D reconstruction. Specifically, we target long-term changes in the environment and we address the issue of how to identify them online with an exploring robot, to integrate them in an existing 3D model. Finally, we address the problem of identifying and dealing with dynamic elements in the environment, while recording the measurements.&lt;br&gt; In the first part of this thesis, we assume the environment to be static and we solve the first two problems. We propose an approach to 3D reconstruction in real-time using a consumer RGB-D sensor. A particular focus of our approach is its efficiency in terms of both execution time and memory consumption. Moreover, our method is particularly robust to situations where the structural cues are insufficient. Additionally, we propose an approach to compute iteratively the next best viewpoint for the sensor to maximize the information obtained from the measurements. Our algorithm is taylored for micro aerial vehicles (MAV) and takes into account the specific limitations that this kind of robots have.&lt;br&gt; In the second part of this work, we focus on non-static environments and we address the last two problems. We deal with long-term changes by proposing an approach that is able to identify the regions that changed on a 3D model, from a short sequence of images. Our method is fast enough to be suitable to run online on a mapping robot, which can direct its effort on the parts of the environment that have changed. Finally, we address the problem of mapping fully dynamic environments, by proposing an online 3D reconstruction approach that is able to identify and filter out dynamic elements in the measurements.&lt;br&gt; In sum, this thesis makes several contributions in the context of robotic map building and dealing with change. Compared to the current state of the art, the approaches presented in this thesis allow for a more robust real-time tracking of RGB-D sensors including the ability to deal with dynamic scenes. Moreover, this work provides a new, more efficient view point selection technique for MAV exploration, and an efficient online change detection approach operating on 3D models from images that is substantially faster than comparable existing methods. Thus, we advanced the state of the art in the field with respect to robustness as well as efficiency.; Die Abbildung der Umgebung durch die Rekonstruktion dreidimensionaler Modelle wird konventionell durch Fachpersonal mit speziellem Messequipment wie Kameras oder terrestrischen Laserscannern durchgeführt. Diese Verfahrensweisen sind allerdings mit hohen Kosten und einem erheblichen Zeitaufwand verbunden. Der Einsatz von Robotern ermöglicht hingegen automatisierte Verfahren sowie die Bestimmung dreidimensionaler Modelle innerhalb von für den Menschen unzugänglichen Umgebungen und deren Verwendung für Verbraucheranwendungen. Die vollständig autonome Rekonstruktion von 3D-Modellen ist jedoch eine nicht-triviale Aufgabenstellung und Schwerpunkt vieler Forschungsarbeiten. Die in dieser Arbeit vorgestellten Techniken befassen sich mit offenen Problemstellungen zur aktiven Rekonstruktion von 3D-Modellen. Für eine automatisierte Rekonstruktion muss der Roboter zum einen selbständig die optimalen Aufnahmepositionen bestimmen und zum anderen die Beobachtungen zeitgleich zur Erkundung der Umgebung in ein Modell integrieren. In dieser Arbeit adressieren wir zunächst die echtzeitfähige Integration von Sensorbeobachtungen in dichte, dreidimensionale Modelle. Im zweiten Schritt bestimmen wir die optimalen Aufnahmepositionen des Sensors, um die unbekannte Umgebung so effizient wie möglich zu rekonstruieren. Anschließend präsentieren wir eine Methodik zur Rekonstruktion von 3D-Modellen, die im Gegensatz zu klassischen Ansätzen keine vollständig statische Umgebung voraussetzt. Mit der entwickelten Methodik zielen wir insbesondere auf langfristige Veränderungen innerhalb der Szene ab und präsentieren einen Ansatz zur deren echtzeitfähigen Identifikation und Integration in ein bestehendes 3D-Modell. Abschließend adressieren wir die Identifikation von dynamischen Elementen innerhalb der Szene sowie deren Behandlung während der Messung. &lt;br&gt; Im ersten Teil dieser Arbeit präsentieren wir unter Annahme einer statischen Umgebung eine Methodik zur Lösung der beiden erstgenannten Aufgabenstellungen, die eine echtzeitfähige Rekonstruktion von 3D-Modellen basierend auf einem kommerziellen RGB-D Sensor ermöglicht. Der vorgestellte Ansatz zeichnet sich insbesondere durch eine hohe Effizienz hinsichtlich der Laufzeit und des Speicherbedarfs aus. Darüber hinaus ist unsere Methode insbesondere robust gegenüber Szenen in denen strukturelle Merkmale unzureichend vertreten sind. Zusätzlich stellen wir eine Methodik zur iterativen Berechnung der nächstbesten Aufnahmepositionen vor, welche die aus den Messungen erhaltene Information maximiert. Der vorgestellte Ansatz ist für Kleindrohnen, auch micro aerial vehicles (MAV) genannt, optimiert und berücksichtigt deren spezifischen Beschränkungen. &lt;br&gt; Im zweiten Teil dieser Arbeiten präsentieren wir eine Methodik für nichtstatische Umgebungen und adressieren die beiden letztgenannten Aufgabenstellungen. Basierend auf einer kurzen Bildsequenz identifiziert unser Ansatz Regionen des 3D-Modells, die von langfristigen Veränderungen innerhalb der Szene betroffen sind. Die von uns vorgestellte Methodik läuft echtzeitfähig auf einem Roboter, der basierend auf dieser Information explizit die von Veränderungen betroffenen Regionen berücksichtigen kann. Abschließend präsentieren wir eine echtzeitfähige Methodik zur Rekonstruktion dreidimensionaler Modelle innerhalb dynamischer Umgebungen, die nicht-statische Elemente identifiziert und aus den Messungen herausfiltert. &lt;br&gt; Insgesamt leistet diese Arbeit mehrere Beiträge im Kontext der roboterbasierten Rekonstruktion dreidimensionaler Modelle sowie dem Umgang mit Veränderungen innerhalb der Szene. Im Vergleich zum aktuellen Stand der Technik ermöglichen die in unserer Arbeit vorgestellten Ansätze ein robusteres, echtzeitfähiges Tracking von RGB-D Sensoren sowie die Behandlung von dynamischen Elementen. Darüber hinaus präsentieren wir eine effizientere Technik zur Auswahl der Aufnahmepositionen für die Exploration der Umgebung mittels MAV sowie eine effiziente, echtzeitfähige Identifikation von Veränderungen innerhalb der Szene basierend auf 3D-Modellen aus Bilddaten, die wesentlich schneller ist als vergleichbare bestehende Methoden. In Bezug auf Robustheit und Effizienz erweitert unsere Methodik damit den aktuellen Stand der Technik.
</description>
<dc:date>2020-01-01T00:00:00Z</dc:date>
</item>
</rdf:RDF>
