Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Kommentar: Die sichere Landung von Drohnen ist eine große technische Herausforderung
{{{sourceTextContent.subTitle}}}
Ian Foster, Head of Engineering bei Animal Dynamics, erklärt, warum die Bewertung von Notlandeplätzen für autonome Flugzeugsysteme ein Datenproblem darstellt
{{{sourceTextContent.description}}}
Konflikte, Klimaprobleme, Zwangsumsiedlungen und akute Ernährungsunsicherheiten schaffen einen wachsenden Bedarf an neuen autonomen Lösungen aus der Luft, die Menschenleben schützen und die Versorgung mit lebenswichtigen Gütern in gefährlichen Umgebungen sicherstellen können. In den nächsten zehn bis fünfzehn Jahren werden wir Quantensprünge im Verständnis der Einsatzmöglichkeiten dieser neuen Lösungen, der Infrastrukturen, die sie ermöglichen werden, der Vorschriften, die uns schützen werden, und der Triebkräfte, die ihre Einführung beschleunigen werden, erwarten können.
Im Folgenden werde ich einen der kompliziertesten Aspekte des unbemannten Luftverkehrs beleuchten, der geklärt werden muss, bevor die Technologie sicher eingeführt und angenommen werden kann - die Bewertung sicherer Notlandeplätze bei Operationen außerhalb der Sichtlinie.
Warum die Bewertung von Notlandeplätzen ein Datenproblem ist
Im Kern ist die Bewertung von Notlandeplätzen ein Datenproblem. Es geht darum, die Welt um das Uncrewed Aircraft System herum zu verstehen und diese Informationen zu verarbeiten, um eine Reihe fundierter Entscheidungen zu treffen. Zunächst muss ein genaues Weltmodell erstellt werden, indem Datensätze aus verschiedenen Quellen und im Rahmen verschiedener Prozesse während einer Mission, wie Planung, Wahrnehmung, Segmentierung, Fusion und Landung, zusammengeführt werden.
In der Planungsphase, noch bevor ein unbemanntes Flugzeugsystem den Flug angetreten hat, muss es Zugang zu Karteninformationen, Satellitendaten, Wetterberichten oder Missionsspezifika wie Flugverbotszonen haben. All dies trägt dazu bei, ein Bild von der Umgebung zu zeichnen, durch die ein Uncrewed Aircraft System fliegen wird, wie es in der Luft eine natürliche Effizienz erreichen kann und wo es schließlich im Notfall landen könnte. Im Vergleich zu den Beobachtungen, die das Flugzeug mit seinen eigenen Sensoren machen kann, können diese Weltmodelle eine geringe Auflösung haben und möglicherweise ungenau sein, so dass sie aktualisiert und neu bewertet werden müssen, sobald es in der Luft ist.
Die Welt so wahrnehmen, wie sie wirklich ist
Während des Fluges müssen sich unbemannte Luftfahrtsysteme auf eine Kombination verschiedener Sensortypen verlassen, um die Welt um sie herum genau wahrzunehmen. Hochauflösende Kameras funktionieren ähnlich wie das menschliche Auge und erzeugen ein visuelles Abbild der Welt. LiDAR liefert Form, Tiefe und die Fähigkeit, Entfernungen mit pulsierenden Lasern genau zu messen. Radar liefert ein datenreiches Bild der Umgebung mit größerer Reichweite und unter allen Bedingungen, auch bei schlechter Sicht
Diese Sensortypen bieten die Aussicht auf eine Leistung, die über die Summe ihrer Teile hinausgeht. Aber erst in jüngster Zeit haben technologische Fortschritte es möglich gemacht, dass kleine, unbemannte Luftfahrzeuge mit geringer Masse in Kombination mit mehreren Sensoren fliegen können. Dies ist ein entscheidender Meilenstein für die Branche, der die Messlatte für die Sicherheit höher legt und gleichzeitig eine breite Palette neuer kommerzieller Möglichkeiten eröffnet.
Die Herausforderung der Segmentierung
Der nächste Schritt für Uncrewed Aircraft Systems besteht darin, über die Erfassung von Rohdaten hinauszugehen und die Umgebung, ihre Elemente und die Veränderung ihrer räumlichen Konfiguration tatsächlich zu verstehen, um daraus verwertbare Informationen abzuleiten.
Der erste Schritt in diesem Prozess ist die Segmentierung, d. h. die Aufteilung der Daten, gefolgt von der Klassifizierung der Szenenelemente. Im Falle von Kameradaten sprechen wir von semantischer Segmentierung, wenn es für jedes Pixel im Bild eine Kategorie/Klassenbezeichnung gibt, wobei jede Klasse einem Objekt eines bestimmten Typs entspricht, z. B. einem Strommast, einem Baum, einem Fahrzeug usw.
Bei der panoptischen Segmentierung werden jedoch demselben Objekttyp unterschiedliche Kennzeichnungen zugewiesen, wenn sich diese beiden Objekte voneinander unterscheiden, so dass verschiedene Instanzen desselben Objekttyps verfolgt werden können. Zum Beispiel würden zwei Personen unterschiedliche Klassenlabels zugewiesen werden. Diese Labels könnten ihre Namen sein.
Die semantische Segmentierung ist eine wichtige Komponente bei der visuellen Bewertung des Geländes und unterstützt Manöver wie autonome Notlandungen, bei denen sie die genaue Lage und Ausdehnung geeigneter Gebiete wie Landebahnen oder Gebiete mit niedriger Vegetation liefern kann, während ungeeignete Gebiete wie Wasser, städtische Strukturen oder Hauptstraßen ausgeschlossen werden.
Die größte Herausforderung bei der Implementierung eines hochpräzisen Segmentierungssystems besteht darin, einen ausreichend umfassenden Datensatz zu sammeln, um die Optimierung eines maschinellen Lernmodells für die Segmentierung zu ermöglichen. Für Anwendungen im Bereich des autonomen Fahrens gibt es solche Datensätze, die sowohl von der akademischen Gemeinschaft als auch von der Industrie ständig verbessert werden. Mit der Zeit werden wir das Gleiche für unbemannte Luftfahrtsysteme haben.
Die Verschmelzung von menschlicher und maschineller Intelligenz
In der Fusionsphase muss ein unbemanntes Luftfahrzeugsystem segmentierte Erkenntnisse (aus den Sensor-Rohdaten) mit externen Datensätzen (Karten, Wetterberichten, Fahrzeugdaten usw.) kombinieren, um sein Modell der Welt zu aktualisieren und schließlich einen sicheren Landeplatz zu bestimmen. Dieser Prozess ist im Wesentlichen die Verschmelzung von menschlicher und maschineller Intelligenz.
In einfachen Szenarien stimmen die Datensätze miteinander überein. So können beispielsweise Gebiete durch menschliche Eingaben und maschinelle Messungen als unsicherer Landeplatz markiert werden. In komplexeren Fällen, in denen die Datensätze nicht übereinstimmen, kann es erforderlich sein, dass die KI eine frühere menschliche Eingabe korrigiert, um eine sichere, fundierte Entscheidung zu treffen.
Diese natürliche Verschmelzung von Informationen deutet auf eine "Treppe" von Schritten hin zu vollständiger Autonomie hin. Um eine vollständige Autonomie zu erreichen, muss die Industrie schnell von einem ferngesteuerten Flugzeug zu einem Autopiloten, zu einer KI-Analyse von Landeplätzen vor der Mission mit menschlicher Genehmigung, zu einer Standortidentifizierung während des Fluges mit einem Menschen in der Schleife für die Entscheidung zur Landung bis hin zu einer vollautomatischen Entscheidungsfindung übergehen. Natürlich werden unterschiedliche Einsatzbereiche und Anforderungen unterschiedliche Grade an Autonomie zulassen.
Ein Blick in die Zukunft
Unbemannte Luftfahrtsysteme haben einen langen Weg hinter sich. Neue Technologien wie KI, Automatisierung, IoT, 5G und Big Data haben eine neue Ära fortschrittlicher Lösungen für die Luftmobilität eingeleitet, die den Himmel vernetzen und bisher unerreichte Möglichkeiten eröffnen. Nicht alle Probleme sind vollständig gelöst, ganz im Gegenteil, aber autonome Operationen werden weltweit immer alltäglicher.
Bei Animal Dynamics konzentrieren wir uns heute auf die Kommerzialisierung des Stork STM, eines autonomen Schwerlastflugzeugs, das 135 kg über 400 km transportieren kann. Es ist die Krönung der bisherigen bioinspirierten Erkenntnisse und zielt direkt auf die Notwendigkeit ab, Menschen aus der Gefahrenzone zu bringen, wenn dies unmittelbar erforderlich ist.