Repository logoOPUS - Online Publications of University Stuttgart
de / en
Log In
New user? Click here to register.Have you forgotten your password?
Communities & Collections
All of DSpace
  1. Home
  2. Browse by Author

Browsing by Author "Fritsch, Dieter (Prof. Dr.-Ing. habil.)"

Filter results by typing the first few letters
Now showing 1 - 8 of 8
  • Results Per Page
  • Sort Options
  • Thumbnail Image
    ItemOpen Access
    Automatic modeling of building interiors using low-cost sensor systems
    (2016) Khosravani, Ali Mohammad; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Indoor reconstruction or 3D modeling of indoor scenes aims at representing the 3D shape of building interiors in terms of surfaces and volumes, using photographs, 3D point clouds or hypotheses. Due to advances in the range measurement sensors technology and vision algorithms, and at the same time an increased demand for indoor models by many applications, this topic of research has gained growing attention during the last years. The automation of the reconstruction process is still a challenge, due to the complexity of the data collection in indoor scenes, as well as geometrical modeling of arbitrary room shapes, specially if the data is noisy or incomplete. Available reconstruction approaches rely on either some level of user interaction, or making assumptions regarding the scene, in order to deal with the challenges. The presented work aims at increasing the automation level of the reconstruction task, while making fewer assumptions regarding the room shapes, even from the data collected by low-cost sensor systems subject to a high level of noise or occlusions. This is realized by employing topological corrections that assure a consistent and robust reconstruction. This study presents an automatic workflow consisting of two main phases. In the first phase, range data is collected using the affordable and accessible sensor system, Microsoft Kinect. The range data is registered based on features observed in the image space or 3D object space. A new complementary approach is presented to support the registration task in some cases where these registration approaches fail, due to the existence of insufficient visual and geometrical features. The approach is based on the user’s track information derived from an indoor positioning method, as well as an available coarse floor plan. In the second phase, 3D models are derived with a high level of details from the registered point clouds. The data is processed in 2D space (by projecting the points onto the ground plane), and the results are converted back to 3D by an extrusion (room height available from the point height histogram analysis). Data processing and modeling in 2D does not only simplify the reconstruction problem, but also allows for topological analysis using the graph theory. The performance of the presented reconstruction approach is demonstrated for the data derived from different sensors having different accuracies, as well as different room shapes and sizes. Finally, the study shows that the reconstructed models can be used to refine available coarse indoor models which are for instance derived from architectural drawings or floor plans. The refinement is performed by the fusion of the detailed models of individual rooms (reconstructed in a higher level of details by the new approach) to the coarse model. The model fusion also enables the reconstruction of gaps in the detailed model using a new learning-based approach. Moreover, the refinement process enables the detection of changes or details in the original plans, missing due to generalization purposes, or later renovations in the building interiors.
  • Thumbnail Image
    ItemOpen Access
    Echtzeitvisualisierung von SAR-Effekten mittels programmierbarer Grafikhardware
    (2007) Balz, Timo; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Für die Entwicklung neuer SAR-Systeme sowie bei der Interpretation und Auswertung von SAR-Daten sind SAR-Simulatoren wichtige Hilfsmittel. Die Berechnungszeit der SAR-Simulation spielt dabei, sowohl für viele wissenschaftliche Anwendungen als auch für die Sensorentwicklung eine eher untergeordnete Rolle. Bei der SAR-Echtzeitvisualisierung spielt die exakte Simulation eine Nebenrolle, stattdessen besteht das Ziel darin, SAR-Effekte in Echtzeit zu visualisieren. Jedoch sind damit weder neue Sensoren noch neue Konfigurationen zu simulieren bzw. zu entwickeln. Die Anwendungsbereiche liegen in der interaktiven Anwendung, z.B. bei der SAR-Auswertung, oder in der Bereitstellung simulierter Daten für automatische Mustererkennungsverfahren. Auch für die Missionsplanung oder für die Lehre und Ausbildung ist die Rechenzeit ein entscheidender Faktor. Mittels der immer leistungsfähigeren und flexibler programmierbaren Grafikkarten können SAR-Effekte in Echtzeit visualisiert werden. Radarbilder unterscheiden sich in vielerlei Hinsicht von den Bildern passiver Fernerkundungssysteme. Bei der Simulation von SAR-Bildern müssen die Unterschiede in Geometrie und Radiometrie berücksichtigt werden. Die rasante Entwicklung auf dem Gebiet der Computergrafik erlaubt eine immer realistischere Darstellung virtueller Welten. Diese Technik kann auch zur Darstellung von Radardaten benutzt werden. Hierfür sind allerdings einige Anpassungen nötig. Die durch den sogenannte Vertex-Shader der Grafikkarte dynamisch veränderten Geometrien, werden an den Pixel-Shader weitergereicht. Dieser ist für die Berechnung der Radiometrie zuständig. Durch die flexible Programmierbarkeit der Pixel-Shader können unterschiedliche Methoden zur Berechnung der Rückstreuung elektromagnetischer Wellen implementiert werden. Die Echtzeitvisualisierung hat jedoch auch ihre Grenzen. Im Gegensatz zu der üblicherweise in SAR-Simulatoren verwendeten Ray-Tracing-Methode werden bei der auf der Grafikkarte berechneten Rasterisierung die Strahlen nicht verfolgt. Deswegen können keine Mehrfachreflexionen dargestellt werden. SAR-Effektvisualisierung in Echtzeit eröffnet dem Nutzer eine Vielzahl neuer Möglichkeiten. Die Interaktivität der Simulation führt zu Verbesserungen in der Missionsplanung, der Lehre und bei der Auswertung von SAR-Daten. Die fehlenden Mehrfachreflexionen sind für viele Anwendungen irrelevant. Von der rasanten Entwicklung im Bereich der Computergrafik kann die SAR-Simulation profitieren. Der Einsatz von Grafikhardware für die SAR-Simulation ist ein neuer Ansatz, der dies ermöglicht.
  • Thumbnail Image
    ItemOpen Access
    Evaluierung generalisierter Gebäudegrundrisse in großen Maßstäben
    (2012) Filippovska, Yevgeniya; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Bei der Erzeugung von Karten werden die darzustellenden räumlichen Objekte in Abhängigkeit des angestrebten Maßstabs ausgewählt, verändert und so arrangiert, dass deren Form und Verteilung zu einem bestmöglichen Verständnis der räumlichen Gegebenheiten führt. Dabei weist die kartographische Abbildung unvermeidliche und zuweilen tiefgreifende geometrische Veränderungen im Vergleich zur Realität auf, welche durch eine übergeordnete Kontrollinstanz zu verifizieren und bewerten sind. Hierfür strebt man eine formalisierte Qualitätsbewertung der Ergebnisse an, so dass sich entsprechende Prozesse, bevorzugt mit Hilfe automatisierter Werkzeuge, umsetzen lassen. Obwohl die Lesbarkeit der Gesamtkomposition einer Karte das Ziel ist, muss die Qualitätsbewertung zuerst auf der untersten Generalisierungsebene, der sogenannten Mikroebene erfolgen, indem die Geometrie- bzw. die Formveränderungen von Einzelobjekten bemessen werden. Neben dem Straßennetz dienen den Kartennutzern häufig vor allem markante Gebäude als Orientierungshilfe, welche aus diesem Grund nicht allzu großen Veränderungen unterliegen dürfen. Im Rahmen dieser Arbeit werden daher Qualitätscharakteristiken aufgezeigt, welche auf dem direkten Vergleich zweier Gebäudegrundrisse – Original und generalisiert – basieren. Die vorliegende Arbeit beginnt mit einer theoretischen Einführung in das Thema der Qualität von Geodaten. Anschließend wird ein Wahrnehmungstest vorgestellt, welcher die Bewertung generalisierter Grundrisse durch menschliche Betrachter vornimmt. Versuche diese Wahrnehmungsprozesse mathematisch zu formalisieren wird als Ähnlichkeitsschätzung bezeichnet, deren Grundlagen darauffolgend dargelegt sind. In diesem Zusammenhang wird eine einheitliche Klassifizierung der Objektmerkmale basierend auf der zugrundeliegenden Berechnungsmethode vorgeschlagen. Ein Überblick über die bislang zur Qualitätsbewertung der Generalisierung gelaufenen Forschungsarbeiten und eine kritische Auseinandersetzung dazu runden den derzeitigen Kenntnisstand zum Themengebiet ab. Daran anschließend werden neue Charakteristiken zur Ähnlichkeitsanalyse vorgestellt, welche die 2D-Gebäudeobjekte unter den Aspekten der Kontur- und Flächentreue hin vergleichen. Da eine Zuordnung zwischen den Formelementen allgemein nicht zweifelsfrei feststellbar ist, werden die Objekte geometrisch gemäß der Standardisierung von Geodaten als Punktmengen betrachtet. Dies erlaubt es, die geometrischen Berechnungen fast ausschließlich auf den Standardoperatoren der Mengentheorie aufzusetzen und mit den topologischen Algorithmen der Graphentheorie zu kombinieren. Zur Bewertung der Konturtreue werden Charakteristiken auf Basis der objektbildenden Randmengen aufgezeigt, welche Aufschluss über die maximale Abweichung und den Anteil der Überlappung gibt. Die Flächentreue wird unter einem quantitativen und einem räumlichen Aspekt betrachtet, wobei eine Differenzierung zwischen den Elementen der Strukturveränderungen vorgenommen wird. Um die Aussagekraft und Praxistauglichkeit der vorgeschlagenen Charakteristiken zu überprüfen, wird eine Evaluierung von generalisierten Gebäudegrundrissen auf der Mikro- und Makroebene durchgeführt. Dabei spielt insbesondere auch die anschauliche Präsentation der Ergebnisse eine zentrale Rolle, so dass verschiedene Möglichkeiten zur Darstellung der einzelnen Charakteristiken bezüglich einer guten Diskriminierbarkeit der Qualitätsangaben im Fokus stehen. Die Analyse der Ergebnisse zeigt, dass alle vorgeschlagenen Charakteristiken aussagekräftig sind und eine vielseitige Beschreibung verschiedener Qualitätsaspekte der Generalisierung in deren Gesamtheit ermöglichen.
  • Thumbnail Image
    ItemOpen Access
    Integration of laser scanning and photogrammetry for heritage documentation
    (2006) Alshawabkeh, Yahya; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    The use of 3D laser scanner in documenting heritage sites has increased significantly over the past few years. This is mainly due to advances of such systems, which allow for the fast and reliable generation of millions of 3D points. Despite the considerable progress of these approaches, the highest possible degree in efficiency and flexibility of data collection will be possible, if other techniques are combined during data processing. Within the research the potential of combining terrestrial laser scanning and close range photogrammetry for the documentation of heritage sites is discussed. Besides improving the geometry of the model, the integration aims on supporting the visual quality of the linear features like edges and cracks in the historical scenes. Although the laser scanner gives very rich surface details, it does not provide sufficient data to construct outlines for all surface features of the scanned object, even though they are clearly defined in the reality. In our approach, information on edges and linear surface features is based on the analysis of the images. For this purpose an integrated segmentation process based on image data will support the ex-traction of object geometry information from the laser data. The approach applies image based semi-automated tech-niques in order to bridge gaps in the laser scanner data and add new details, which are required to build more realistic perception of the scene volume. Cultural heritage applications frequently require data collection by terrestrial laser scanning in very complex structural environments. Thus, compared to similar applications in industrial environments, this requires more complex process-ing to generate geometric models of sufficient realism. In addition to geometric data collection, texture mapping is particular important in the area of cultural heritage to have more complete documentation. Photo-realistic texturing can for example add information about the structure condition, which is not present in the 3D model such as decay of the material. Additionally, color image information is also indispensable for features like frescos and mosaics. In addi-tion to that, texture mapping considered as a requirement application for visualization and animation purposes. For this reason, some commercial 3D systems already provide model-registered color texture by capturing the RGB values of each LIDAR point using a camera already integrated in the system. However, these images frequently are not suffi-cient for high quality texturing, which is desired for documentation, since the ideal conditions for taking the images may not coincide with those for laser scanning In addition, laser scanning from many viewpoints, as it is required to capture complex structures, is still relatively time consuming. For outdoor applications these large time differences will result in varying light conditions and changing shadows, thus the recorded images will have different radiometric properties. Such problems may disturb the appearance of the resulting textured model. So it is therefore more useful to acquire geometry and texture by two independent processes and allow for an image collection at optimal position and time for texturing. This is especially true for the high requirements of realistic documentation of heritage sites. Thus, the thesis presents an approach for projective texture mapping from photographs onto triangulated surfaces from 3D laser scanning. By these means, the effort to generate photo-realistic models of complex shaped objects can be re-duced considerably. The images are collected from multiple viewpoints, which do not necessarily correspond to the viewpoints of LIDAR data collection. In order to handle the resulting problem of occlusions, the visibility of the model areas in the respective images has to be established. For this purpose, a new visible surface algorithm has been developed, the algorithm works in both image and object space and efficiently detects ambient, back-face and view frustum occlusions. Occluding polygons are labelled and separated with their connectivity to texture them recursively using the optimal of the available images until the final textured model is produced. After this visibility processing, colour values will be correctly assigned from the photograph to the visible polygons. In order to gain a high quality texture, lens distortion and colour corrections are applied during processing. The quality of the registration process, which aligns the laser scanner data with the imagery, is a crucial factor for the aspired combined processing. This registration can realized if correspondence coordinates are available in both sys-tems. Since the accurate detection and measurement of point correspondences can be difficult especially for the point clouds from laser scanning, straight lines are measured between the image and the laser data as corresponding ele-ments. The accuracy of the transformation depends on the accuracy with which the features have been extracted from the scans. For providing stable features of interest efficient segmentation algorithms have to be used to extract the features automatically for the co registration of data sets. In this thesis we have presented and discussed efficient edge detection algorithm that can detect the line features in both range and intensity images. In the proposed algorithm the distinguished points, which will comprise the edges, depend on the spatial analysis of the numerical description of the mean curvature values. The work was motivated by the fact that the optimality of edge detectors for range images has not been considered in the literature, some algorithms are limited to synthetic range images and will totally fail in the presence of noise, others which have been tested in real range images are complicated with large numbers of parame-ters. Compared to known methods in literature, the proposed algorithm exhibits the following features: computational efficiency, high accuracy in the localization of the edge points, easy to implement, and Image noise does not degener-ate its performance. Although the central task of the proposed edge detection algorithm is to reliable detect and locate edge points, a rich description of edge points give the ability to reliably detecting and characterizing the edge types as a crease and step edges, and then go further to classify the crease edges as concave or convex types. The algorithm was initially proposed for range image segmentation and has been extended to segment the intensity images with some improvements. The generality and robustness of the algorithm is illustrated on scene images with different available range sensors.
  • Thumbnail Image
    ItemOpen Access
    Mathematical methods for camera self-calibration in photogrammetry and computer vision
    (2013) Tang, Rongfu; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Camera calibration is a central subject in photogrammetry and geometric computer vision. Self-calibration is a most flexible and highly useful technique, and it plays a significant role in camera automatic interior/exterior orientation and image-based reconstruction. This thesis study is to provide a mathematical, intensive and synthetic study on the camera self-calibration techniques in aerial photogrammetry, close range photogrammetry and computer vision. In aerial photogrammetry, many self-calibration additional parameters (APs) are used increasingly without evident mathematical or physical foundations, and moreover they may be highly correlated with other correction parameters. In close range photogrammetry, high correlations exist between different terms in the ‘standard’ Brown self-calibration model. The negative effects of those high correlations on self-calibration are not fully clear. While distortion compensation is essential in the photogrammetric self-calibration, geometric computer vision concerns auto-calibration (known as self-calibration as well) in calibrating the internal parameters, regardless of distortion and initial values of internal parameters. Although camera auto-calibration from N≥3 views has been studied extensively in the last decades, it remains quite a difficult problem so far. The mathematical principle of self-calibration models in photogrammetry is studied synthetically. It is pointed out that photogrammetric self-calibration (or building photogrammetric self-calibration models) can – to a large extent – be considered as a function approximation problem in mathematics. The unknown function of distortion can be approximated by a linear combination of specific mathematical basis functions. With algebraic polynomials being adopted, a whole family of Legendre self-calibration model is developed on the base of the orthogonal univariate Legendre polynomials. It is guaranteed by the Weierstrass theorem, that the distortion of any frame-format camera can be effectively calibrated by the Legendre model of proper degree. The Legendre model can be considered as a superior generalization of the historical polynomial models proposed by Ebner and Grün, to which the Legendre models of second and fourth orders should be preferred, respectively. However, from a mathemtical viewpoint, the algebraic polynomials are undesirable for self-calibration purpose due to high correlations between polynomial terms. These high correlations are exactly those occurring in the Brown model in close range photogrammetry. They are factually inherent in all self-calibration models using polynomial representation, independent of block geometry. According to the correlation analyses, a refined model of the in-plane distortion is proposed for close range camera calibration. After examining a number of mathematical basis functions, the Fourier series are suggested to be the theoretically optimal basis functions to build the self-calibration model in photogrammetry. Another family of Fourier self-calibration model is developed, whose mathematical foundations are the Laplace’s equation and the Fourier theorem. By considering the advantages and disvantages of the physical and the mathematical self-calibration models, it is recommended that the Legendre or the Fourier model should be combined with the radial distortion parameters in many calibration applications. A number of simulated and empirical tests are performed to evaluate the new self-calibration models. The airborne camera tests demonstrate that, both the Legendre and the Fourier self-calibration models are rigorous, flexible, generic and effective to calibrate the distortion of digital frame airborne cameras of large-, medium- and small-formats, mounted in single- and multi-head systems (including the DMC, DMC II, UltraCamX, UltraCamXp, DigiCAM cameras and so on). The advantages of the Fourier model result from the fact that it usually needs fewer APs and obtains more reliable distortion calibration. The tests in close range photogrammetry show that, although it is highly correlated with the decentering distortion parameters, the principal point can be reliably and precisely located in a self-calibration process under appropriate image configurations. The refined in-plane distortion model is advantageous in reducing correlations with the focal length and improving the calibration of it. The good performance of the combined “Radial + Legendre” and “Radial + Fourier” models is illustrated. In geometric computer vision, a new auto-calibration solution which needs image correspondences and zero (or known) skew parameter only is presented. This method is essentially based on the fundamental matrix and the three (dependent) constraints derived from the rank-2 essential matrix. The main virtues of this method are threefold. First, a recursive strategy is employed subsequently to a coordinate transformation. With an appropriate approximation, the recursion estimates the focal length and aspect ratio in advance and then calculates the principal point location. Second, the optimal geometric constraints are selected using error propagation analyses. Third, the final nonlinear optimization is performed on the four internal parameters via the Levenberg–Marquardt algorithm. This auto-calibration method is fast and efficient to obtain a unique calibration. Besides auto-calibration, a new idea is proposed to calibrate the focal length from two views without the knowledge of the principal point coordinates. Compared to the conventional two-view calibration techniques which have to know principal point shift a priori, this new analytical method is more flexible and more useful. Although the auto-calibration and the two-view calibration methods have not been fully mature yet, their good performance is demonstrated in both simulated and practical experiments. Discussions are made on future refinements. It is hoped that this thesis not only introduces the relevant mathematical principles into the practice of camera self-calibration, but is also helpful for the inter-communications between photogrammetry and geometric computer vision, which have many tasks and goals in common but simply using different mathematical tools.
  • Thumbnail Image
    ItemOpen Access
    Modellierung und Nutzung von Relationen zwischen Mehrfachrepräsentationen in Geo-Informationssystemen
    (2006) Volz, Steffen; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Die wachsende Bedeutung von raumbezogenen Daten in den verschiedensten Anwendungsbereichen hat dazu geführt, dass zahlreiche Firmen und öffentliche Institutionen die Erfassung von Geodaten vorantreiben. Dabei werden ein und dieselben Realweltobjekte häufig mehrfach und aus unterschiedlichen Blickwinkeln erfasst und im Computer gespeichert. Auf diese Weise entstehen widersprüchliche bzw. inkonsistente Repräsentationen eines Objektes der Realwelt, so genannte Mehrfachrepräsentationen. Sollen diese Mehrfachrepräsentationen innerhalb von offenen Geodateninfrastrukturen, wie beispielsweise der an der Universität Stuttgart entwickelten Nexus-Plattform, bereitgestellt werden, so müssen einerseits die Datenschemas der heterogenen Ausgangsdaten zusammengeführt werden. Andererseits ist es notwendig, die Inkonsistenzen zwischen Mehrfachrepräsentationen adäquat behandeln zu können, um eine gemeinsame Datenverarbeitung zu ermöglichen. Die vorliegende Arbeit hat zum Ziel, einen Beitrag zur Forschung auf diesem Gebiet zu leisten. Im Verlauf der Untersuchung wird zunächst der Zusammenhang zwischen Interoperabilitätsbestrebungen internationaler und nationaler Institutionen und der Problematik der Mehrfachrepräsentationen aufgezeigt. Anschließend wird die Nexus-Plattform vorgestellt, da sie den Rahmen für die vorliegende Arbeit bildet. Zum Zwecke der Vermittlung von Grundlagen über die Thematik der Mehrfachrepräsentationen erfolgt eine umfassende Begriffsklärung und eine Aufarbeitung des Standes der Forschung. In der Folge wird eine Vorgehensweise präsentiert, um auf der Basis einer Untersuchung existierender Schemas für Geodaten ein übergeordnetes, globales Schema einer offenen Systemplattform ableiten zu können. Dabei werden auch die Applikationsanforderungen, denen das globale Schema zu genügen hat, berücksichtigt. Darüber hinaus werden Abbildungsregeln aufgestellt, die eine Übertragung von Daten der bestehenden Schemas in das übergeordnete Schema erlauben. Das grundlegende Konzept dieser Arbeit besteht darin, die innerhalb einer Geodateninfrastruktur auftretenden Mehrfachrepräsentationen über explizite Relationen miteinander zu verknüpfen. Zu diesem Zweck wird ein formales Modell für Relationen zwischen Mehrfachrepräsentationen eingeführt. Anhand von Testdaten werden entsprechende Relationen mit Hilfe eines semi-automatischen Verfahrens generiert. Im Mittelpunkt der Untersuchung steht zum einen, über eine Auswertung der erzeugten Relationen zwischen Mehrfachrepräsentationen eine automatische Ableitung von Korrelationsmaßen für korrespondierende Objektklassen unterschiedlicher Schemas zu ermöglichen. Zum anderen wird nachgewiesen, dass Netzwerkanalysen unter Anwendung des erarbeiteten Relationskonzeptes auf mehrfach repräsentierten Straßendaten möglich sind.
  • Thumbnail Image
    ItemOpen Access
    Optische korrelationsbasierte Messtechnik mittels zufälliger Punktemuster
    (2009) Blumrich, Frederik; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Die grundlegende Idee der optischen korrelationsbasierten Messtechnik besteht darin, die lokale Kreuzkorrelation zur Lösung des Korrespondenzproblems anzuwenden. Dazu wird ein zufälliges, und dadurch eindeutig zu korrelierendes Punktemuster in zwei unterschiedlichen Zuständen mittels einer digitalen Kamera aufgenommen. Neben der geometrischen Kalibrierung des Messsystems hängt die Genauigkeit der optischen korrelationsbasierten Messtechnik insbesondere von der Genauigkeit der Kreuzkorrelationsalgorithmen ab, die eine Messgenauigkeit im Sub-Pixel-Bereich erlauben. Daher wird im Rahmen dieser Arbeit der Schwerpunkt auf die Untersuchung der Algorithmen zur Sub-Pixel-Detektion gelegt. Es wird gezeigt, dass die bisherigen Algorithmen zur Sub-Pixel-Detektion im Falle elliptischer Korrelationsmaxima einen wesentlichen systematischen Fehler besitzen. Zusätzlich ist eine Herleitung der analytischen Beschreibung des systematischen Fehlers Teil dieser Arbeit. Die analytische Beschreibung des systematischen Fehlers wird im Rahmen einer Simulation untersucht und mit den Ergebnissen verglichen, die man beim Einsatz kommerzieller Kreuzkorrelationsalgorithmen erhält.
  • Thumbnail Image
    ItemOpen Access
    Zur maßstabsabhängigen Erzeugung von 3D-Stadtmodellen
    (2007) Kada, Martin; Fritsch, Dieter (Prof. Dr.-Ing. habil.)
    Die großflächige Erfassung von 3D-Stadtmodellen erfolgt gegenwärtig fast ausschließlich aus der (semi-) automatischen Interpretation von Luftbildern und Luftlaserdaten. Die resultierenden Gebäudemodelle besitzen zwar detaillierte Grundrisse und Dachstrukturen; eine Rekonstruktion der Fassaden erfolgt auf dieser Datengrundlage üblicherweise jedoch nicht. Neben den klassischen Anwendungen, wie z.B. der Standortplanung von Mobilfunkantennen, Ausrichtung von Solaranlagen und Lärmanalysen, nimmt die Visualisierung von 3D-Stadtmodellen einen immer höheren Stellenwert ein. Hierfür werden sowohl großflächig 3D-Gebäudedaten mit geringer Detaillierung als auch punktuell photorealistische Modelle benötigt. Die Arbeit leistet hierzu einen Beitrag, indem sowohl automatische Lösungen in Form der kartographischen Vereinfachung als auch der bildlichen und geometrischen Ausgestaltung von Fassaden vorgestellt werden. Für kartenverwandte 3D-Darstellungen und nicht-photorealistische Visualisierungen müssen die generalisierten Modelle zudem geometrischer Relationen genügen und die gebäudecharakteristische Form wiederspiegeln. Für die geometrische Vereinfachung werden zwei Verfahren mit komplementären Generalisierungsstrategien beschrieben. Im ersten Verfahren erfolgt die Generalisierung durch die Erkennung und Entfernung von gebäudespezifischen Merkmalen. Eine sich anschließende Einpassung an die Originalgeometrie korrigiert die dabei auftretenden Veränderungen in der Lage und den Proportionen. Im zweiten Verfahren wird die globale Gebäudeform nachgebaut. Hierfür werden dominante Ebenen im Ausgangsmodell identifiziert, um daraus eine Zellenzerlegung des vereinfachten Gebäudes zu erhalten. Zur Bereitstellung von Modellen mit detaillierten Fassaden werden zudem zwei Verfahren zur automatischen Ausgestaltung aus terrestrischen Daten aufgezeigt. Dies sind zum einen die Texturextraktion aus Bildern mit bekannter äußerer Kameraorientierung und zum anderen die Interpretation von 3D-Punktwolken aus terrestrischem Laserscanning.
OPUS
  • About OPUS
  • Publish with OPUS
  • Legal information
DSpace
  • Cookie settings
  • Privacy policy
  • Send Feedback
University Stuttgart
  • University Stuttgart
  • University Library Stuttgart