Bitte benutzen Sie diese Kennung, um auf die Ressource zu verweisen: http://dx.doi.org/10.18419/opus-3811
Autor(en): Fach, Martin
Titel: Navigation und Regelung eines Luftschiffes mittels optischer, inertialer und GPS Sensoren
Sonstige Titel: Navigation and flight control of an unmanned blimp by means of inertial, optical and GPS sensors
Erscheinungsdatum: 2009
Dokumentart: Dissertation
URI: http://nbn-resolving.de/urn:nbn:de:bsz:93-opus-42727
http://elib.uni-stuttgart.de/handle/11682/3828
http://dx.doi.org/10.18419/opus-3811
Zusammenfassung: In der vorliegenden Arbeit wird am Beispiel des autonomen Fluges eines unbemannten Prallluftschiffes der Einsatz optischer, inertialer und GPS-Sensorik für die Navigation und Flugführung gezeigt. Bei dem eingesetzten Versuchsträger handelt es sich um das Luftschiff des ALUSTRA-MOEWE Projektes, welches zum Ziel hat, dreidimensionale Modelle von Gebäuden und Landschaften zu erstellen. Hierfür soll das Luftschiff autonom um die entsprechenden Gebäude beziehungsweise über die Landschaften fliegen und mittels einer digitalen Kamera Aufnahmen erstellen. Diese Aufnahmen sollen im Post-Processing für die Generierung der virtuellen Modelle herangezogen werden. Dieses Projektziel erfordert eine sehr geringe Trajektoriendynamik, damit die Aufnahmen keine Bewegungsunschärfe enthalten. Zudem ist die Anforderung an die Genauigkeit der geflogenen Trajektorie sehr hoch, womit sich auch direkt die hohen Anforderungen an die Güte der Navigationssensorik ableiten lassen. Spezielles Augenmerk wird auf die Fusion der drei genannten Sensoren für die Ermittlung der sogenannten Navigationslösung bei niedriger Trajektoriendynamik gelegt. Die ermittelten Größen sind die Translations- und Rotationsgeschwindigkeiten des Flugkörpers, die Lage im Raum und die Position. Daneben wird einem nachgeschalteten Flugführungssystem noch der Abstand zu den vom optischen System verfolgten Punkten der Szene geliefert. Diese Information kann zu einer Kollisionsvermeidung herangezogen werden oder aber auch zur Abschätzung der Höhe des Flugobjektes über einem Landeplatz. Die Sensordatenfusion wird mittels eines erweiterten Kalman-Filters realisiert, das es ermöglicht, asynchron arbeitende Sensoren miteinander zu fusionieren und auch mit dem kurzzeitigen Ausfall einzelner Messungen zu Recht kommt. Dies ist zum Beispiel der Fall, wenn die Antenne des GPS-Empfängers keine freie Sicht zu den Satelliten hat. Bei der eingesetzten inertialen Messeinrichtung wird aus Gewichtsgründen auf eine low-cost Sensorik auf MEMS Basis zurückgegriffen. Genauso wie beim GPS-System handelt es sich hierbei um käufliche Komponenten, die fertig prozessierte Messwerte zur Verfügung stellen. Bei der optischen Sensorik dagegen wurde eine Echtzeitbildverarbeitung in Software aufgebaut, um die Messwerte zu erhalten. Diese Messungen sind die Koordinaten von verfolgten Merkmalen der beobachteten Szene auf dem Bildsensor. Da der Sensor für beliebige Szenen ausgelegt wurde, wird hierfür ein low-level Featuretracker auf Basis des Lucas Kandade Trackers eingesetzt. Zudem wird ein Gütemaß für die Vertraulichkeit der Merkmalsverfolgung eingeführt, damit eventuell driftende Merkmale ausgetauscht werden können. Die Informationsauswertung des optischen Systems innerhalb der Datenfusion basiert auf dem sogenannten Focus of Expansion und der Epipolarbedingung. Die eingesetzte Kamera ist eine Industriekamera, die die Bilder mittels einer Camera-Link-Verbindung an einen Framegrabber auf dem Targetrechner übermittelt, auf dem die Auswertung stattfindet. Neben der Bildauswertung ist auf diesem Rechner der Fusionsalgorithmus untergebracht, womit der komplette Sensor an Bord des Fluggerätes untergebracht ist und dem Projektziel Autonomie Rechnung getragen wird. Über eine Funkstrecke ist eine überwachende Bodenstation angeschlossen, welche vor allem im Entwicklungsstadium hilfreiche Informationen in Echtzeit visualisiert. Zudem ist dort ein Instrumentenbrett für die Beobachtung des Fluges untergebracht. Damit die Multisensordatenfusion überhaupt erst möglich ist, wird eine Kalibrierung durchgeführt. Hierfür werden jeweils die für die einzelnen Komponenten bestehenden Standardverfahren in Betracht gezogen und auf Basis einer Aufwand-Nutzen-Abschätzung, beziehungsweise einer Abschätzung der erreichbaren Genauigkeit ein Verfahren ausgewählt und realisiert. Gleiches geschieht bei der Bestimmung der Lage und Position des Sensors zum körperfesten System des Fluggerätes. Vor allem für die Tests des optischen Systems, aber auch des gesamten Sensors, wurde im Entwicklungsstadium eine fahrbare Versuchsplattform herangezogen, mit der der langsame Flug mit niedriger Trajektoriendynamik des Luftschiffes nachgestellt werden kann. Die dabei maximal erreichbare Höhe über Grund liegt bei 5 Metern, womit der tiefe Überflug als eines der kritischsten Manöver aus Sicht des optischen Systems nachempfunden werden kann. Nach erfolgreichen Tests des Sensorsystems auf dieser Plattform wird am Ende der Arbeit zunächst in einer Hardware-in-the-loop Testumgebung des Luftschiffes ein abschließender Test mit den gewonnenen Ergebnissen aus den Fahrversuchen durchgeführt. Hierfür wird nicht der gesamte Sensor in der Testumgebung nachgebildet, sondern die möglichen Fehler und das Originalrauschen aus den Messdaten der Versuchsfahrten extrahiert und damit die Messungen auf dem Prüfstand verfälscht. Abschließend wird der Funktionsnachweis beim Einsatz auf dem realen Versuchsträger ALUSTRA I bei sehr geringer Trajektoriendynamik erbracht.
This dissertation shows the application of optical, inertial and GPS sensor systems for navigation and flight control of an unmanned vehicle. The test carrier is an unmanned blimp from the project ALUSTRA-MOEWE. The aim of this project is to gain three-dimensional models from buildings and landscapes. For this the blimp needs to fly autonomously around buildings and above landscapes, taking pictures with a digital camera. The images will be used during post-processing for the generation of virtual models of the buildings and landscapes. A very low trajectory dynamic is essential to avoid blurring in the pictures. This leads to demanding requirements for the accuracy of the flown trajectory, added to which are even more demanding requirements for the performance of the navigation sensor systems. This work gives special attention to the fusion of the three sensors for the identification of the navigation solution for low trajectory dynamics. The identified values are the translational and rotational velocity of the blimp and its orientation and position in space. Moreover the optical system provides the distance to the tracked points for the follow up flight control system. This information can be used to avoid collisions as well as for an estimation of the height to the landing place. An extended kalman-filter realizes the fusion of the sensor data from the asynchronously operating measurement units. This kalman-filter also copes with a short term unavailability of measurement data, as can be the case if the antenna of the GPS receiver has no free visibility to the satellites. In order to keep the weight low, the inertial platform consists of a low-cost, MEMS-based sensor. Like the GPS, the inertial platform is a commercial off-the-shelf component which provides processed measurement values. However, it is necessary to program bespoke a real-time image processing software for the optical sensor was programmed in order to obtain the desired measurement values. These measurements consist of the coordinates of tracked points of the observed scene on the image sensor. A low level feature tracker based upon the Lucas Kandade tracker was applied to the sensor, given that it had to be designed for any arbitrary scene. Moreover a quality criteria is implemented for the reliability of the feature tracking, so that gradually drifting features can be corrected. The evaluation of information of the optical system within the data fusion is based on the focus of expansion and the epipolar constraint. The camera used is an industrial camera which transmits pictures by means of a camera link connection to a framegrabber on the target computer which then performs the data evaluation. Aside from the image analysis this data processor also contains the fusion algorithm. With this the complete sensor is installed on board the blimp and meets the aims and requirements of the project concerning autonomy. The blimp is connected via radio link to the ground control station which visualizes helpful information in real time a feature that is especially useful during the development stage. Furthermore the station contains an instrument panel for the surveillance of the flight. To allow the multi sensor data fusion in the first place, a calibration process needs to be undertaken. For each component an effort-benefit estimation is completed and, based upon these estimates of achievable accuracy, one method is chosen and implemented. A similar approach was taken for the identification of the spatial orientation and the location of the sensor related to the body-fixed system of the flight object. To simulate the slow flight with low trajectory dynamic of the blimp a drivable experimental platform was used in the development stage primarily for tests of the optical system but also used for testing the whole sensor. The maximum achievable height over ground with this platform is five meters. Hence one of the most critical maneuvers for the optical sensor, the low overflight, is very well covered by this simulation. After successful tests of the sensor system on this platform the results were used for final tests in a hardware-in-the loop testbed of the blimp. The identified possible failures and the original measurement noise from the testing with the movable platform were extracted and used to deliberately falsify the measurements within the test environment of the blimp. Thus the complete sensor did not need to be simulated for these tests. Finally the functionality of the sensor was proved and confirmed on the real test carrier, the ALUSTRA I blimp, with very low trajectory dynamic.
Enthalten in den Sammlungen:06 Fakultät Luft- und Raumfahrttechnik und Geodäsie

Dateien zu dieser Ressource:
Datei Beschreibung GrößeFormat 
NavBlimb.pdf14,54 MBAdobe PDFÖffnen/Anzeigen


Alle Ressourcen in diesem Repositorium sind urheberrechtlich geschützt.