Künstliche Intelligenz in der Luft- und Raumfahrt

Programm

Beginn: 9:00

 

Leitung Q3.4

Begrüßung der Teilnehmer

Dr. Simon Gottschalk
Universität der Bundeswehr München

Vincent Maes, Rebecca Zahn,
Airbus Defence and Space

Fabian Reinisch, Dr. Michael Strohal
Universität der Bundeswehr München

Tjorven Duflot,
Elektroniksystem- und Logistik-GmbH
Johannes Hölzl,
Walaris



SONATE-2 - Eine Technologie-Demonstrationsmission für künstliche Intelligenz

Tobias Greiner, Aerospace Information Technology, Computer Science VIII, Julius Maximilians Universität Würzburg

Abstrakt:
Der Vortrag gibt einen Überblick über die SONATE-2 Technologie-Demonstrationsmission und zeigt alle Subsysteme, wobei der Schwerpunkt auf der KI-Bildverarbeitungsnutzlast liegt. Das Hauptziel der Mission ist die In-Orbit-Demonstration einer neuen KI-Plattform, die derzeit auf Basis von COTS-Hardware entwickelt wird. Die Plattform besteht aus einem Nvidia Jetson Xavier NX-Modul mit integrierter CPU und GPU für hohe Flexibilität und hohe Leistung. Die Mission wird die Verarbeitungskapazitäten der Plattform im Weltraum durch den Einsatz mehrerer Kameras im sichtbaren und nahen Infrarotspektrum verifizieren.

Die von diesen Kameras aufgenommenen Bilder werden hierbei mit konventioneller Bildverarbeitung und KI-Modellen analysiert. Die Experimente bestehen aus vielfältigen Anwendungen, darunter die Erkennung von Blitzen, Bildsegmentierung, Objekterkennung und eigenständige Erkennung von Anomalien. Die Erkennung von Anomalien erfordert zudem ein Training der Modelle im Weltraum anhand an Bord aufgekommener Bilder.

Diese Demonstration von KI-Training an Bord kann einen Beitrag für künftige interplanetare Missionen leisten, bei denen möglicherweise nur begrenzte oder gar keine Daten über das Zielobjekt verfügbar sind.

Artificial Neural Networks for Individual Tracking and Characterization of Wake Vortices in LiDAR Measurements



Artificial Neural Networks for Individual Tracking and Characterization of Wake Vortices in LiDAR Measurements

N. Wartha, A. Stephan, F. Holzäpfel, G. Rotshteyn, L. Stietz, Deutsches Zentrum für Luft- und Raumfahrt (DLR) - Institut für Physik der Atmosphäre, Oberpfaffenhofen

Abstrakt zum Download
(PDF-Dokument)



Von Daten zu interpretierbaren physikalischen Modellen mit Methoden der Künstlichen Intelligenz

Marcel Anselment und Stephan Rudolph, Institut für Flugzeugbau, Universität Stuttgart

Abstrakt:
Sehr häufig werden KI-Methoden eingesetzt um unbekannte Zusammenhänge in Daten zu finden. Mittels der bekannten Daten lassen sich die Parameter der KI-Modelle an die Daten anpassen. Bei guter Umsetzung erhält man aus mathematischer Sicht einen Extra- oder Interpolator, der für neue Datenpunkte eine recht präzise Vorhersage treffen kann. Die KI-Methode und das hierfür eingesetzte Modell ist in der Regel aber zumeist generisch gehalten. Dadurch ist zwar eine Anpassung an die Daten über ein Lernverfahren oder ein anderes Verfahren zur Parameteroptimierung möglich, das Modell selbst enthält aber nur wenig bis keine Information über den unbekannten Zusammenhang und ist daher nach Abschluss des Lernverfahrens zur Parameteranpassung komplex und schwer verständlich bis undurchschaubar und deshalb nicht interpretierbar. Dieses typischerweise mit Black Box Verfahren assoziierte Verhalten erschwert deshalb einen Einsatz in zertifizierungspflichtigen Bereichen wie der Luft- und Raumfahrt erheblich. Im Gegensatz dazu werden in der Physik für gewöhnlich kompakte Modelle in Form von mathematischen Formeln eingesetzt. An ihnen lässt sich über eine Kurvendiskussion direkt der Einfluss verschiedener Größen ablesen. Allerdings sind diese Modelle meist mit enormem Zeitaufwand und Know-how deduktiv aus physikalischen Axiomen und Erhaltungssätzen abgeleitet worden. Daran anknüpfend wird als Machine Learning Methode zur Entwicklung physikalischer Modelle für die Anwendung in zertifizierungspflichtigen Bereichen ein modifiziertes Verfahren der sogenannten Symbolischen Regression untersucht. Hierbei werden mathematische Formeln in symbolischer Form zur Beschreibung der Zusammenhänge in den Daten verwendet. Anstatt allerdings bestimmte Funktionen über Axiome oder Erhaltungssätze herzuleiten, werden die mathematischen Ausdrücke automatisch durch einen KI-Algorithmus generiert und optimiert. Dazu wurde ein auf einer Baumsuche aufbauender KI-Algorithmus entwickelt, der explizit den Funktionenraum nach den kompaktesten Modellen absucht, die den Zusammenhang in den Daten mit zufriedenstellender Genauigkeit approximieren. Dabei werden die Modelle mit zunehmender Baumtiefe sukzessive aus elementaren mathematischen Funktionen zusammengesetzt und gewinnen dabei sowohl an Freiheitsgraden als auch an Komplexität. Durch den zusätzlichen Einsatz der Dimensionsanalyse lässt sich die Dimensionshomogenität des gefundenen Modells garantieren, was über die damit gleichzeitig gegebene Existenz von physikalischen Invarianten den Zugang zu einer physikalischen Interpretation des Modells ermöglicht. Die Leistungsfähigkeit des Verfahrens, von experimentellen Daten zu interpretierbaren Modellen zu kommen, wird anhand mehrerer Beispiele dargestellt. Dabei kann gezeigt werden, dass im Sonderfall künstlich verrauschter synthetischer Daten tatsächlich der exakte ursprüngliche Zusammenhang asymptotisch rekonstruiert werden kann.



Reinforcement Learning in der Weltraumschrottbeseitigung

Simon Gottschalk, Matthias Gerdts, Rebecca Richter, Institut für Angewandte Mathematik und Wissenschaftliches Rechnen, Die Fakultät für Luft- und Raumfahrttechnik, Universität der Bundeswehr München

Abstrakt:
Die Anzahl von unkontrollierten Teilchen im Orbit, wie z.B. Teile alter Satelliten, nimmt stark zu. Das liegt zum einen an der weiter wachsenden Anzahl von Anwendungen für Satelliten, zum anderen an der steigenden Anzahl an Satellitenherstellern und -betreibern. Das führt wiederum zu einem erhöhten Risiko von Kollisionen, welche Weltraummissionen gefährden können. Deswegen rücken Strategien zur Beseitigung von Weltraumschrott in den letzten Jahren stärker in den Fokus. Wir werden uns in unserem Vortrag mit einer Variante beschäftigen, die auf KI Methoden beruht. Das betrachtete Szenario enthält einen Service-Satelliten, welcher mit einem Roboterarm ausgestattet nach Weltraumschrott greifen und diesen entsorgen soll. Klassische mathematische Optimalsteuerungsmethoden, welche üblicherweise zur Steuerung dynamischer Systeme verwendet werden, stoßen hier an ihre Grenzen. Ein komplexes dynamisches System und komplizierte Nebenbedingungen zur Kollisionsvermeidung führen dazu, dass das Optimierungsproblem nicht in Echtzeit gelöst werden kann. Deswegen gehen wir das Problem mit Methoden aus dem Bereich des Bestärkenden Lernens (Reinforcement Learning) an. Ein in einer offline Phase trainierter Regler (Policy) ist letzten Endes in der Lage den Satelliten schnell und robust an seinen Zielort zu manövrieren. Darüber hinaus werden wir hierarchische/hybride Verfahren des Bestärkenden Lernens diskutieren um eine effizientere Trainingsphase zu erhalten. An einer Simulationsumgebung trainieren und testen wir die Methodiken und zeigen ein Dockingmanöver mit einem beweglichen Zielobjekt.



Deep Learning Based Aerodynamic Dataset Generation for Combat Aircraft

Vincent Maes, Rebecca Zahn, Airbus Defence and Space GmbH, Manching

Abstrakt zum Download
(PDF-Dokument)



Verhaltensmodellierung von Computer-Generated-Forces im Beyond-Visual-Range Luftkampf

Fabian Reinisch, Prof. Peter Stütz, Dr. Michael Strohal, Universität der Bundeswehr München

Abstrakt:
Ziel ist es, Verhalten von Computer-Generated-Forces (CGFs) für Beyond-Visual-Range (BVR) Luftkampf, mit dem Ziel der Verbesserung von Pilotentraining und Bedrohungsanalysen, zu generieren.

Hierbei wird besonderes Augenmerk auf die Verifikation und Validierung der Flugzeugmodelle gelegt, sodass sichergestellt werden kann, dass die Dynamik sowie die Daten der Modelle für diese Ziele geeignet sind.

Jedoch muss nicht nur die Dynamik der Modelle detailliert genug simuliert werden, sondern sie müssen auch ein menschenähnliches Verhalten aufweisen: Hierzu wurde der BVR Piloten-Workflow in Angriff, Verteidigung und Entscheidungsfindung, sowie selbige wiederum in Unteraufgaben wie z.B. Targeting oder Intercept, eingeteilt. Diese Aufgaben wurden mithilfe von Behavior-Trees modelliert, welche sowohl direkt ein Aircraft-Modell ansteuern, als auch für einzelne Aufgabenblöcke separat implementierte AI-Methoden aufrufen können. Zum Abschluss soll in VALID eine Verifizierung und Validierung des CGF-Verhaltens durch Piloten, welche in VR-Simulatoren gegen die CGFs fliegen, durchgeführt werden.



Towards certification of machine-learning systems for airborne applications

Christoph Stockhammer, The MathWorks GmbH

Abstract:
The remarkable progress of Machine Learning (ML) technologies in recent years has the potential to revolutionize aviation. However ML technology faces major incompatibilities with existing airborne certification standards such as ML model traceability and explainability issues and the inadequacy of traditional coverage metrics. Certification of ML-based airborne systems is problematic due to these incompatibilities and new certification standards intended to address these challenges are not yet released. To tackle these problems we proposed and implemented a custom ML certification workflow for machine learning systems which is based on existing certification standards. The presentation will introduce this custom ML certification workflow and present a case study of an airborne system developed in compliance with this workflow. The case study serves as an example of how the challenges of certifying ML-based systems can be addressed within the framework of existing certification standards.



Sichere automatisierte Drohnendetektion mittels KI-Bilderkennung

Tjorven Duflot, Elektroniksystem- und Logistik-GmbH, Johannes Hölzl, Walaris

Abstrakt:
Mit zunehmender Anzahl an Drohne im Luftverkehr wird eine zuverlässige Detektion und Verifikation der Drohnen immer wichtiger. Eine zentrale Rolle spielen dabei die Drohnendetektions - und -abwehrsysteme.

Wird eine Drohne von den Sensoren detektiert, so ist es Aufgabe des Operateurs die Detektion im Videobild zu verifizieren und ggfs. Abwehrmaßnahmen einzuleiten. Dabei muss er von Assistenzfunktionen unterstützt werden, damit die Arbeitslast beherrschbar bleibt. Diese Assistenzfunktionen umfassen unter anderem eine automatische Kameranachführung, welche die Kamera kontinuierlich auf die Detektion ausrichtet, sodass die Detektion kontinuierlich in der Bildmitte des Videostreams gehalten wird. Dazu ist allerdings eine genaue Drohnenposition mit Höheninformation und geringem Ungenauigkeitsbereich notwendig. In der Regel ist der Ungenauigkeitsbereich der Standardsensoren (RF-Peiler und Radare) insbesondere in der Höhe zu groß, sodass die Kamera nicht genau nachgeführt werden kann; zudem ist in der Regel die Updaterate des RF-Peilers bzw. Radar zu gering für eine flüssige Nachführung. Als Lösung dafür kommt die KI-basierten Software Walaris Airscout Verify zur automatisierten kameragestützten Erkennung und Verifikation von Drohnen im Zusammenspiel mit der C2 Software ELYSION der ESG zum Einsatz.

ELYSION steuerte die Kamera mit einem Suchalgorithmus, über den Ungenauigkeitsbereich der Drohne und das Videobild in Tag- und Nachtsichtkanal wird von der KI-Software Walaris AirScout Verify mittels eines innovativen Bilderkennungsalgorithmus nach der Drohne durchsucht. Nach der Klassifikation der Drohne durch die KI-Software wird der Suchalgorithmus abgebrochen und die von Walaris AirScout generierte Detektion automatisiert durch ELYSION mit den Detektionsdaten der übrigen Sensoren (RF Peiler und Radare) fusioniert. Auf diese Weise kann der Ungenauigkeitsbereich der Detektion so weit reduziert werden, dass die Kamera in der Nachführung die Drohne im Bildmittelpunkt halten kann. Selbst bei einem (zeitlich begrenztem) Verlust des Radartracks behält der KI-Tracker die Drohnen im Videobild, was insbesondere bei hovernden Drohnen relevant ist, da diese nicht von allen Radarsystemen durchgängig detektiert werden können. Dadurch erhöhen sich die Detektionsqualität signifikant. Zudem wird die Arbeitslast des Operateurs deutlich reduziert, insbesondere durch das automatische Aufschalten des Trackers auf die Drohne. Dadurch kann der Operateur den Fokus auf die visuelle Verifikation und das Einleiten von Abwehrmaßnahmen lenken. Aufgrund der ebenfalls erreichten Verbesserung der Positionsgenauigkeit kann ein gerichteter Effektor zielgenauer eingewiesen werden, wodurch sich dessen Wirksamkeit weiter erhöht.