Künstliche Intelligenz in der Luft- und Raumfahrt

Der Fachausschuss Q3.4 Softwareengineering der DGLR veranstalten am 9. Oktober 2019 einen eintägigen Workshop zum Thema

"Künstliche Intelligenz in der Luft- und Raumfahrt".

Ort: Institut für Luft- und Raumfahrt, TU München, Garching bei München

Call for Paper

(Call for Paper im PDF Format)

Künstliche Intelligenz (KI) ist in aller Munde. Sie ist Hauptbestandteil der digitalen  Revolution, die in Zukunft alle Lebensbereiche durchdringen wird. Die Bundesregierung hat bereits auf die Bedeutung der KI reagiert und die Strategie Künstliche Intelligenz  beschlossen. Auch in der Luft- und Raumfahrt wird das Thema immer wichtiger. Prominentes Beispiel dafür ist das Astronauten-Assistenzsystem CIMON, das im Herbst 2018 von Alexander Gerst auf der ISS getestet wurde.

Die Anwendungsmöglichkeiten der KI in der Luft- und Raumfahrt sind vielfältig:

  • Pilotenunterstützung, Missionsunterstützung
  • Flugplanung, Missionsplanung
  • Autonomes Fliegen
  • Autonome Steuerung von Satelliten und Explorationsvehikeln
  • Training und Simulation
  • Automatisierung in Entwicklung und Fertigung
  • Automatisierung der Qualitätskontrolle und Nachweisführung
  • Predictive Maintenance

Im Workshop "Künstliche Intelligenz" sollen deshalb u.a. die folgenden Fragen erörtert  werden:

  • Welche Methoden, Verfahren und Algorithmen der KI werden in Luft- und  Raumfahrtprojekten eingesetzt? Welche Ergebnisse wurden dabei erzielt, und welche Erfahrungen wurden gemacht?
  • Wie können die Konzepte und Algorithmen der KI in eingebetteten, isolierten und weitentfernten Echtzeitsystemen verwendet werden, ohne die schnelle Anbindung an massive Rechenleistung?
  • Wie können KI-Systeme in sicherheitskritischen Anwendungen abgesichert werden?

Für den Workshop suchen wir Vorträge und Erfahrungsberichte aus der industriellen Praxis und der industrienahen Forschung. Dabei sind auch Vorträge aus anderen Fachrichtungen als der Luft- und Raumfahrt willkommen.

Jeder Vortrag soll circa 30 Minuten dauern, gefolgt von einer 15-minütigen Diskussion des Themas. Zwecks Vorbereitung wird um die Zusendung einer Kurzfassung des Vortrags bis spätestens 19. Juli 2019 gebeten.

Der Workshop findet am 9. Oktober 2019 an der Technischen Universität München in Garching statt. Die Teilnahme ist kostenlos.

Für weitere Informationen und zur Vortragsanmeldung stehen Ihnen die Obleute des Fachausschusses Q3.4 zur Verfügung:

Programm

Beginn: 9:00

 Programm-Faltblatt

  

Obleute des Fachausschusses
Q3.4 der DGLR

Begrüßung der Teilnehmer 

 

Franziska Riegger und Julian von Lautz
MTU Aero Engines AG

Automatisierte Analyse komplexer Gefüge mittels Deep Learning zur Qualitätssicherung von Hochtemperaturlegierungen in Flugzeugtriebwerken
[Kurzfassung s.u.]

Dr. Günther Waxenegger-Wilfing
Deutsches Zentrum für Luft- und Raumfahrt (DLR)

Neuronale Netze für den Entwurf und Betrieb von Flüssigraketentriebwerken
[Kurzfassung]

Dr. Christiane Heinicke und Prof. Dr. Johannes Schöning
Uni Bremen

MARVIN: Identifying Design Requirements for an AI powered Conversational User Interface for Extraterrestrial Space Habitats
[Kurzfassung s.u.]

Dr. Daniel Leidner
Deutsches Zentrum für Luft- und Raumfahrt (DLR)

KI-Gestützte Astronaut-Roboter Kollaboration in der Planetaren Exploration
[Kurzfassung s.u.]

 

ESG Elektroniksystem- und Logistik-GmbH

KI basierte Gestensteuerung für die Einweisung von fliegenden unbemannten Systemen

 

 

Felix Heilemann
Universität der Bundeswehr

Skalierbare Autonomie und adaptive Assistenz in Manned-Unmanned Teaming Missionen
[Kurzfassung s.u.]

 

 

Andreas Graf
Itemis

Homebrewn Robocars - Eine Plattform für Fortbildung, Forschung und Entwicklung autonomer Systeme
[Kurzfassung s.u.]

 

 

Leonard Schlag und Armin Braun
Deutsche Zentrum für Luft- und Raumfahrt (DLR)

Anomaly Detection in Spacecraft Telemetry, a Machine Learning application at the German Space Operations Center
[Kurzfassung s.u.]

 

 

Dr. Stefan Görtz
Deutsches Zentrum für Luft- und Raumfahrt (DLR)

Selbstlernende aerodynamische Modelle
[Kurzfassung]

Dr. Alexander Heußner
Bauhaus Luftfahrt

Re-thinking the lifecycle
[Kurzfassung]

Bericht

„Künstliche Intelligenz“ ist derzeit für viele Branchen ein hochaktuelles und viel erforschtes Thema. In der Luft- und Raumfahrt ist sie in einigen Bereich schon im Einsatz, birgt aber noch viel Potenzial für zukünftige Anwendungen. Um Projekte zu besprechen und Herausforderungen zu diskutieren, fand am 9. Oktober 2019 der jährliche Workshop des Fachausschusses Q3.4 „Softwareengineering“ der Deutschen Gesellschaft für Luft- und Raumfahrt (DGLR) am Institut für Luft- und Raumfahrt der Technischen Universität München in Garching statt. Zu Beginn begrüßten die Leiter des Fachausschusses, Richard Seitz und Frank Dordowsky, die mehr als 50 Teilnehmer aus Forschung und Industrie.

Den ersten Vortrag des Workshops hielt Franziska Riegger von MTU Aero Engines. Sie schilderte die Untersuchung verschiedener Kombinationen und Parametrisierungen von neuronalen Netzen und Bildauswerteverfahren zur Auswertung von lichtmikroskopischen oder rasterelektronischen Aufnahmen. Damit werden bei der Wartung von Flugzeugtriebwerken die Hochtemperaturwerkstoffe und ihre Materialeigenschaften untersucht. Bislang erfolgt dies mit einem aufwendigen manuellen Verfahren. Ziel ist es, diesen Prozess zu automatisieren und damit das Verfahren zu beschleunigen. Rieggers vorgestellter Ansatz erreicht bereits die Genauigkeit eines menschlichen Auswerters.

Für die Auslegung von Kühlkanälen von Raketentriebwerken und deren Lebensdauervorhersage kommen bisher vor allem die numerische Strömungsmechanik und FEM-Verfahren (Finite-Elemente-Methode) zum Einsatz. Dr. Günther Waxenegger-Wilfing vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) berichtete im zweiten Vortrag über den Einsatz neuronaler Netze zur Ergänzung oder gar als Ersatz dieser numerischen Methoden zur Beschleunigung des Entwicklungszyklus. Die neuen Verfahren sind bereits so weit fortgeschritten, dass sie in die Entwicklungswerkzeuge integriert wurden. Waxenegger-Wilfing berichtete auch von Untersuchungen, die Verarbeitungsgeschwindigkeit neuronaler Netze so zu erhöhen, dass sie auch bei der Echtzeitüberwachung und Anomaliedetektion auf dem Prüfstand sowie für die Triebwerksregelung eingesetzt werden können.

Dr. Christiane Heinicke von der Universität Bremen stellte das Projekt MaMBA (Moon and Mars Base Analog) vor, das an einem funktionalen Prototyp für ein außerirdisches Mond- oder Marshabitat arbeitet. MARVIN ist Teil dieses Projekts und stellt eine Art „Alexa für Astronauten“ dar. Die künstliche Intelligenz soll Astronauten bei der wissenschaftlichen Arbeit und der täglichen Routine in einem solchen Habitat unterstützen. Da der Schwerpunkt dabei auf der Interaktion von Mensch und künstlicher Intelligenz liegt, wurde MARVIN im Hintergrund durch einen Menschen simuliert.

Eine Echtzeitsteuerung von Robotern bei Weltraummissionen ist aufgrund der großen Entfernungen und der damit verbundenen Signallaufzeiten nur schwer möglich. Roboter müssen daher komplexe Aufgaben zumindest teilautonom durchführen können. Dies ist das Ziel des Roboterexperiments „Rollin Justin“, von dem Dr. Daniel Leidner vom DLR berichtete. Bei einem Test im Herbst 2018 wurde der sich in Oberpfaffenhofen befindende Assistenzroboter von ESA-Astronaut Alexander Gerst sowie weiteren Astronauten von der ISS aus mit einem Tabletcomputer durch abstrakte Befehle kommandiert. Auch komplexe Aufgaben wie der Austausch eines Servicemoduls konnten ohne vorheriges intensives Training von den Astronauten durchgeführt werden. Die Intelligenz des Roboters wurde mit Action Templates, hierarchischer, objektorientierter Planung und Geometric Reasoning implementiert. Für die Zukunft ist eine Erweiterung durch maschinelles Lernen geplant. Diese Technologien können zum Beispiel auch in der Altenpflege oder als persönliches Assistenzsystem für Schwerstbehinderte eingesetzt werden.

Philipp Voigt von der ESG Elektroniksystem- und Logistik-GmbH stellte in seinem Vortrag ein System zur Einweisung von unbemannten Systemen bei Start- und Landevorgängen sowie am Boden vor. Das System ist in eine Drohne integriert und soll einen Menschen als Einweiser erkennen sowie seine Gesten interpretieren. Dazu wurde ein Demonstrator entwickelt, der mithilfe eines neuronalen Netzes auf Basis des Programms TensorFlow für Personen- und Gestenerkennung und mit Gaußcher Klassifikation für die Interpretation der Gesten ausgestattet wurde. Er stand den Teilnehmern in den Pausen des Workshops für Tests zur Verfügung.

Felix Heilemann von der Universität der Bundeswehr präsentierte ein Assistenzsystem, mit dem Militärpiloten autonom agierenden Drohnen Missionsaufträge erteilen und deren Abarbeitung überwachen können. Implementiert wurde das System mithilfe kognitiver Agenten unter Berücksichtigung der Fähigkeiten der Drohnen. Das Planungssystem operiert adaptiv, indem es den mentalen Zustand des Piloten mittels Eye-Tracking und physiologischer Sensoren ermittelt und bei Überlastung des Piloten mehr Aufgabenanteile übernimmt. Die vorgestellten Konzepte wurden in den Kampfflugzeugsimulator des Instituts für Flugsysteme der Universität der Bundeswehr in München eingebaut.

Andreas Graf von Itemis führte mit seinem Vortrag in die Welt der Robocars ein. Robocars sind sehr preiswerte Experimentalplattformen zur Erprobung des autonomen Fahrens auf Basis von künstlicher Intelligenz. Hierbei handelt es sich um ferngesteuerte Autos, die um die notwendige Technologie für autonomes Fahren ergänzt werden. Umgebungen zum maschinellen Lernen wie TensorFlow und Keras laufen auch auf preiswerter Hardware wie Raspberry oder der Nvidia-Jetson-Familie. Graf gab auch einen kurzweiligen Einblick in die Robocar-Szene und ihre Wettbewerbe.

Leonard Schlag vom DLR berichtete über das Projekt ATHMoS (Automated Telemetry Health Monitoring System) zur Erkennung von Anomalien in Telemetriedaten von Satelliten. Die Überwachung der Satelliten erfolgt rund um die Uhr, dabei werden bis zu 80.000 Telemetrieparameter in einem Zeitraum von über zehn Jahren aufgezeichnet. Die Auswertung erfolgt über klassisches maschinelles Lernen, wobei auffällige Wertkonstellationen menschlichen Experten vorgelegt werden. Deren Einschätzungen werden dann auch zur Verbesserung der Detektionsgenauigkeit verwendet.

Bei der Entwicklung von Luftfahrzeugen wird eine enorme Menge an aerodynamischen Daten aus Strömungssimulationen, Windkanal- und Flugversuchen erzeugt. Ein Ziel des von Dr. Stefan Görtz vom DLR beschriebenen Projekts ist die Zusammenführung dieser Daten mittels künstlicher Intelligenz in ein konsistentes, selbstlernendes Modell. Für die Vorhersagen dieses Modells sollen Vertrauensintervalle ermittelt werden, die anderen Entwicklungsdisziplinen zur Verfügung gestellt werden können. Die geschilderten Verfahren sollen die üblichen, rechen- und damit zeitintensiven numerischen Methoden im Flugzeugbau ergänzen und damit einen Beitrag zur Digitalisierung der Luftfahrt (Stichwort „digitaler Zwilling“) liefern.

Dr. Alexander Heußner vom Bauhaus Luftfahrt gab in seinem Vortrag einen Ausblick auf Luftfahrt und künstliche Intelligenz nach 2050. Eines der Hauptprobleme der selbst-adaptierenden Systeme ist deren Verifizierung oder Qualifizierung in den aktuellen starren aber anerkannten Lebenszyklusmodellen. Heußner schlug deswegen vor, den gesamten Lebenszyklus neu zu denken und die sich selbst-organisierenden Systeme über sich selbst-anpassende Entwicklungsprozesse zu entwickeln und den gesamten Lebenszyklus als ein komplexes, adaptierbares System aufzufassen.

Die Vorträge wurden von umfangreichen Fragen und engagierten Diskussionen begleitet, die in den beiden Kaffeepausen und während des Mittagessens fortgesetzt wurden. Die Teilnehmer nutzten auch intensiv die Gelegenheit zu einem allgemeinen Informations- und Gedankenaustausch. Aus dem Plenum kam der Vorschlag, das Thema „Künstliche Intelligenz“ im nächsten Jahr fortzusetzen.

Ein herzliches Dankeschön geht an die Vortragenden für ihre hervorragenden Präsentationen. Ein ganz besonderer Dank gilt den Mitarbeitern des Lehrstuhls für Flugsystemdynamik von Prof. Dr. Florian Holzapfel, Valentin Marvakov und Daniel Dollinger, für ihre Unterstützung bei der Vorbereitung und Durchführung des Workshops. Wir möchten uns auch bei den Firmen Airbus Defence and Space und ESG Elektroniksystem- und Logistik-GmbH für die Übernahme der Kosten für die Verpflegung in den Pausen bedanken sowie bei der TU München für die Überlassung des Hörsaals. Schließlich möchten wir uns bei allen Teilnehmern bedanken, die die Veranstaltung durch ihre rege Beteiligung erst zu einem richtigen Workshop gemacht haben.

Richard Seitz und Frank Dordowsky

Termine

Vortragsanmeldung: 19. Juli 2019

Programm und Benachrichtigung der Vortragenden: 2. August 2019

Anmeldungsschluss: 4. Oktober 2019

Workshop: 9. Oktober 2019

Allgemeine Informationen

Termin:

9. Oktober 2019

Ort:

TU München
Boltzmannstr. 15
85748 Garching
Institut für Luft- und Raumfahrt
Raum MW0250 (Maschinenwesen, Erdgeschoss)

Anfahrt:

Beschreibung

Lageplan

Teilnahmegebühr:

entfällt

Übernachtung:

Zimmerreservierungen können über die Touristeninformation im Rathaus München vorgenommen werden (Tel. 089-233-965-00).

Kurzfassung der Vorträge

Christiane Heinicke und Johannes Schöning: MARVIN: Identifying Design Requirements for an AI powered Conversational User Interface for Extraterrestrial Space Habitats

We report on our early work to design a conversational interface for astronaut scientists in an extraterrestrial habitat (e.g. a habitat on Moon or Mars) and will report on our  initial design and first evaluations of our conversational user interface called MARVIN. Our goal with MARVIN is to support scientists on their missions and during their daily  (scientific) routines within and outside the habitat. MARVIN is part of the MaMBA project (short for Moon and Mars Base Analog) which aims to build a first functional extraterrestrial habitat prototype.
 

Julian von Lautz: Automatisierte Analyse komplexer Gefüge mittels Deep Learning zur Qualitätssicherung von Hochtemperaturlegierungen in Flugzeugtriebwerken

Die quantitative Gefügeanalyse ist eine häufig genutzte Methode der Qualitätssicherung beim Einsatz von Hochtemperaturwerkstoffen. Bei mehrphasigen Werkstoffen  müssen lichtmikroskopische oder rasterelektronische Aufnahmen nach den vorliegenden Gefügeanteilen ausgewertet und bewertet werden.

Wir nutzen neuronale Netze um bei verschiedenen Anwendungsfällen eine Bildsegmentierung in die verschiedenen Phasen vorzunehmen und dadurch ein sonst manuell durchzuführendes Verfahren zu automatisieren und die Auswertung um mehrere Größenordnungen zu beschleunigen. Dabei wird die Genauigkeit von menschlichen Auswertern erreicht.

Im Vortrag möchten wir unsere Ergebnisse vorstellen und Best Practices diskutieren.
 

Dr. Daniel Leidner: KI-Gestützte Astronaut-Roboter Kollaboration in der Planetaren Exploration

Im Rahmen der METERON SUPVIS Justin Experimente des Deutschen Zentrums für Luft- und Raumfahrt, wird Künstliche Intelligenz dazu eingesetzt, die robotergestützte Erforschung des Mars zu erproben. Dazu wird der humanoide Roboter Rollin’ Justin von Astronauten an Bord der Internationalen Raumstation aus instruiert eine Solarfarm in Oberpfaffenhofen bei München zu warten. Semantische Planung erlaubt es dem Roboter autonom zu handeln, die Crew muss lediglich abstrakte Befehle mittels einer Tablet-App übermitteln. Im vergangenen August hat der deutsche Astronaut Alexander Gerst so die bis dato komplexesten Aufgaben gelöst, die bisher in Zusammenarbeit mit einem ferngesteuerten Roboter durchgeführt wurden. Es gelang Gerst nicht nur ein Solarpanel zu reinigen und eine Antenne zu montieren, sein Roboterkollege ermöglichte es ihm sogar ein durchgebranntes Servicemodul auszutauschen - ohne ein Training für derartige Notfälle zu absolvieren. In Rahmen dieses Vortrags sollen die eingesetzten Methoden, sowie die erlangten Erkenntnisse dargestellt werden.

Felix Heilemann: Skalierbare Autonomie und adaptive Assistenz in Manned-Unmanned Teaming Missionen

Die Führung unbemannter Luftfahrzeuge aus dem Cockpit ermöglicht eine Steigerung der Missionsleistung bei gleichzeitiger Reduzierung des Gefährdungspotentials der Besatzungen. Der hieraus resultierenden zusätzlichen Aufgabenlast wird mit den im Vortrag vorgestellten Verfahren und Algorithmen der skalierbaren Autonomie und adaptiven Assistenz entgegengewirkt. Die Skalierbare Autonomie beschreibt  hierbei die Selektion, Delegation und Planung von Aufträgen, sowie deren Parametrisierung im Cockpit. Im Bereich der adaptiven Assistenz wird die Erfassung des mentalen Zustands des Piloten mittels Eye-Tracking und physiologischer Sensoren und die entsprechende Adaption der Assistenz vorgestellt. Die vorgestellten Konzepte werden anhand des Kampfflugzeugsimulators des Instituts für Flugsysteme der Universität der Bundeswehr München demonstriert.
 

Andreas Graf: Homebrewn Robocars - Eine Plattform für Fortbildung, Forschung und Entwicklung autonomer Systeme

Für die Entwicklung von Funktionen in Fahrzeugen werden in Zukunft Kenntnisse in künstlicher Intelligenz und insbesondere in Machine Learning unverzichtbar sein. Bisher war der Aufbau von Qualifikationen im Automotive-Bereich oft mit Investitionen in kostspielige Hard- und Software verbunden. Gerade für Fortbildung und Experimente bildet die Initiative der Do-It-Yourself (DIY) Robocars eine attraktive, kostengünstige Alternative. Hierbei werden kleine Fahrzeuge, meist im Maßstab 1:10, auf Basis von ferngesteuerten Modellautos aufgebaut und mit der notwendigen Technologie für autonomes Fahren ergänzt. In Wettbewerben treten Teams mit ihren Fahrzeugen gegeneinander an. Die Treffen werden oft von Automotive-Firmen unterstützt (z.B. Peugot in Frankreich, Hella Agaila in Berlin). Dieser Vortrag gibt einen Überblick über die „Robocar-Szene“, inklusive der unterschiedlichen verwendeten Machine-Learning Ansätze und Hinweise zum Einstieg bzw. zum Aufbau eines eigenen Robocars:

  • Grundlagen: Communities, Regeln, Strecken
  • Eingesetzte ML-Verfahren (Behavioral Cloning, Streckenerkennung etc.)
  • Eingesetzte ML-Umgebungen: TF, Keras, Python, C++
  • Eingesetzte Hardware: Raspberry, Nvidia Jetson-Familie, Movidius
  • Plattformen: Donkey Car, AWS Racer und Custom Robocars

Leonard Schlag: Anomaly Detection in Spacecraft Telemetry, a Machine Learning application at the German Space Operations Center

Während der letzten Jahrzehnte hat die künstliche Intelligenz alle für neue Technologien so typischen Phasen erlitten, von anfänglicher Euphorie, über Ernüchterung, Anpassung der Erwartungshaltung hin zur Ausnutzung innewohnender Stärken. Die überwältigenden Erfolge auf dem Feld der Gesichtserkennung und –synthese sind ein unumstößlicher Beweis für die Nützlichkeit, die diese mittlerweilte erzielt haben.
Das Konditionieren solcher Systeme gleicht eher dem Lernprozess biologischer Lebewesen als einem expliziten Programmieren von Fall zu Fall. Das ist der Grund warum dafür der Begriff „maschinelles Lernen“geprägt wurde. Solche Systeme sind überraschend gut darin, auf Situationen zu extrapolieren, die außerhalb des Bereiches liegen innerhalb dem sie trainiert wurden.

Angewandt auf den riesigen Bestand von Telemetry-Daten, wie sie sich in einer 10 jährigen Satellitenmission angesammelt haben, besteht die Möglichkeit abnorme Zustände zu detektieren, im besten Fall, bevor diese eintreten.

Die Telemetriewerte, ihr Verlauf und Periodizitäten spannen einen mehrdimensionalen Vektorraum auf. Jeder Zustand des Raumfahrzeuges ist durch einen Punkt in diesem abstrakten Vektorraum repräsentiert. Die nominellen zustände sammeln sich in Wolken benachbarter Punkte deren Nähe zueinander in einer gewissen Metrik bestimmt werden kann. Zustandsvektoren, die deutlich aus diesen Wolken des „Wohlbehagens“ herausragen werden menschlichen Experten zur Einschätzung vorgelegt, was letzten Endes zur Fähigkeit des lernenden Systems beiträgt zwischen unkritischen Neuigkeiten und den ersten Anzeichen problematischer Entwickungen zu unterscheiden.

Dr. Günther Waxenegger-Wilfing: Neuronale Netze für den Entwurf und Betrieb von Flüssigraketentriebwerken

Die effiziente Auslegung sowie der geregelte, überwachte Betrieb von Flüssigraketentriebwerken benötigen Modelle hoher Genauigkeit. Zusätzlich soll die Verarbeitungsgeschwindigkeit groß genug sein, um umfassende Optimierungsschleifen und Echtzeitanforderungen zu erfüllen. Methoden des Maschinellen Lernens ermöglichen die Generierung geeigneter Ersatzmodelle. Am DLR Institut für Raumfahrtantriebe kommen dafür Neuronale Netze zum Einsatz. Der Vortrag erläutert anhand von zwei Bespielen aus den Bereichen Wärmeübergangs- und Lebensdauermodellierung von Raketenbrennkammern die Vorgangsweise und die damit verbundenen Vorteile sowie Nachteile. Als Abschluss werden laufende Forschungsarbeiten kurz vorgestellt, welche den Einsatz von Neuronalen Netzen für die Regelung und Zustandsüberwachung von Raketentriebwerken untersuchen.