Popis: |
Bei langen horizontalen Ausbreitungswegen in Bodennähe ist die Atmosphäre und nicht die Qualität moderner bildgebender Systeme ausschlaggebend für die Qualität aufgenommener Bilddaten. Besonders wird die Bildqualität durch atmosphärische Turbulenz beeinträchtigt, die je nach Schweregrad zeitlich und räumlich variierende Unschärfe, (scheinbare) Bildbewegungen und geometrische Deformationen, sowie Intensitätsfluktuationen (Szintillation), verringerten (Farb-)Kontrast und Rauschen verursacht. Korrekturverfahren haben entsprechend die Aufgabe, einen, mehrere oder ggfs. alle dieser Turbulenzeffekte in Bilddaten zu reduzieren und diese bestmöglich zu rekonstruieren. Im Idealfall wäre eine solche Rekonstruktion identisch mit einer Aufnahme am Diffraktionslimit ohne Turbulenz. Diverse Anwendungsgebiete, die mit der Akquisition von Bilddaten über ausgedehnte (horizontale) Wegstrecken unter potenziell turbulenten Bedingungen befasst sind, können von einer effizienten Turbulenzkorrektur deutlich profitieren. Neben speziellen Formen optischer Kommunikation betrifft dies insbesondere klassische Fernerkundungsaufgaben, wie z.B. militärische Aufklärung oder (Grenz-)Überwachung. Während für Beobachtungen punktförmiger, (annähernd) statischer Objekte über vertikalen Ausbreitungswegen bereits etablierte Korrekturmethoden existieren (z.B. Adaptive Optik für astronomische Anwendungen oder optische Freiraumkommunikation), handelt es sich bei der Turbulenzkorrektur für horizontale Bilderfassung ausgedehnter und u.U. bewegter Objekte hingegen nach wie vor um ein aktives Forschungsfeld. Hierfür bieten sich vor allem softwarebasierte Verfahren an, deren Hauptvorteile gegenüber Hardware-Lösungen nicht nur in den vergleichsweise geringen Materialkosten liegen, die zur Herstellung und Nutzung erforderlich sind, sondern hauptsächlich in ihrer Flexibilität (inkl. Mobilität) und Vielzahl von Anwendungsmöglichkeiten, wie insbesondere für den Fall ausgedehnter und ggfs. bewegter Objekte. Diese Arbeit beschäftigt sich vor allem mit den praktischen Aspekten der Frage, wie genau (d.h. mit welchen Methoden) man solche Turbulenzbeeinträchtigungen am besten (oder ggfs. am schnellsten) abmildern und die Qualität der Bilddaten mit Hilfe von problemspezifisch selektierten Rekonstruktionsverfahren gezielt verbessern kann. Ein besonderer Fokus liegt dabei auf Bildsequenzen, die insbesondere auch (gerichtete) Objektbewegung enthalten, sowie auf einer potenziellen Echtzeitfähigkeit der einzelnen Methoden. In dieser Arbeit werden verschiedene Verfahren zur Korrektur der am stärksten ausgeprägten Turbulenzeffekte untersucht. Dies umfasst die Auswahl und Implementierung geeigneter Algorithmen, sowie eine bewertende Diskussion ihrer Leistungsfähigkeit im Vergleich. Neben Entfaltungsmethoden zur Rekonstruktion hoher Frequenzanteile und Verbesserung der Bildschärfe ist dabei die Kompensation globaler und speziell lokaler Bildbewegungen mithilfe von "Block Matching"-Algorithmen und Schätzverfahren für den Optischen Fluss ein zentrales Thema. Insbesondere wird eine gerichtete lokale Bildstapelung zur Kompensation von Objektbewegungen und Reduktion von Bewegungsunschärfe konzipiert und umgesetzt, wobei es sich um eine innovative Kombination aus Bewegungsschätzung und modifizierter Bildstapelung handelt. Ein grundlegender Aspekt ist dabei die Differenzierung von eigenständiger Objektbewegung und Bewegung, die durch Turbulenz verursacht wird. Des Weiteren wird eine modifizierte mehrstufige Form der iterativen blinden Entfaltung nach Ayers und Dainty mit spezieller Gewichtung der Kanten im Bild vorgestellt, womit sich "Ringing"-Effekte in homogenen Bildregionen reduzieren lassen. Einen weiteren Kernpunkt der Arbeit bildet zudem die Entwicklung einer Methodik zum Vergleich derartiger Rekonstruktionsverfahren unter Berücksichtigung anwendungsspezifischer Prioritäten bei der Bewertung. Zwar existiert eine Vielzahl an Qualitätsmetriken, die zu Vergleichen herangezogen werden können, jedoch ist eine objektive Ergebnisevaluation ohne verfügbare "Ground Truth"-Daten eine nicht-triviale Aufgabe. Es wird daher ein tabellarischer Lösungsansatz vorgeschlagen, anhand dessen sich ähnliche Voraussetzungen zusammenfassen lassen, um Algorithmen für typische Anwendungsszenarien besser miteinander vergleichbar zu machen. |