Automatische Übersetzung anzeigen
Dies ist eine automatisch generierte Übersetzung. Wenn Sie auf den englischen Originaltext zugreifen möchten, klicken Sie hier
#Neues aus der Industrie
{{{sourceTextContent.title}}}
Wie werden selbstfliegende Flugzeuge ethische Entscheidungen treffen?
{{{sourceTextContent.subTitle}}}
Aufstrebende Lufttaxi-Entwickler planen, ihre Flotten irgendwann autonom zu fliegen - ohne einen Piloten an Bord, der die Entscheidungen trifft.
{{{sourceTextContent.description}}}
Es ist kein Geheimnis, dass viele Unternehmen, die elektrisch betriebene, senkrecht startende und landende (eVTOL) Lufttaxis entwickeln, planen, ihre Flotten irgendwann autonom zu fliegen - ohne Piloten an Bord, die die aeronautische Entscheidungsfindung steuern. Experten gehen davon aus, dass die Maschinen, die diese Flugzeuge steuern werden, in der Lage sein werden, zu lernen und schwierige ethische Entscheidungen zu treffen, die bisher nur dem Menschen vorbehalten waren
Stellen wir uns zum Beispiel vor, wir schreiben das Jahr 2040. Sie sind Passagier in einem kleinen, autonomen, batteriebetriebenen Lufttaxi ohne Pilot, das mit einer Geschwindigkeit von 125 Meilen pro Stunde in etwa 3.000 Fuß über Los Angeles fliegt. Der Luftverkehr ist überfüllt mit Hunderten anderer kleiner, elektrischer Flugzeuge, die in elektronischer Abstimmung miteinander fliegen und nur wenig Abstand halten. Plötzlich ertönt ein Alarm, der vor einem anderen Passagierflugzeug warnt, das auf Kollisionskurs ist. In dem dichten Verkehr gibt es jedoch keine sicheren Möglichkeiten, den Kurs zu ändern und dem entgegenkommenden Flugzeug auszuweichen. Wie würde ein Maschinenpilot in diesem Szenario wissen, was er als Nächstes tun soll?
Für Ingenieure und Ethiker ist dieses Szenario gemeinhin als "Trolley-Problem" bekannt, ein ethisches Gedankenexperiment mit einem fiktiven, ungebremsten Trolley, der auf eine Weiche zusteuert. Auf einem Gleis hinter der Weiche befinden sich fünf Personen, die getötet werden, wenn die Straßenbahn nicht das Gleis wechselt. Auf dem gewechselten Gleis befindet sich eine Person, die getötet werden würde. Sie müssen entscheiden, ob Sie den Hebel betätigen und das Gleis wechseln. Sollen Sie die Strecke beibehalten und zum Tod von fünf Personen beitragen oder die Weiche umlegen, was den Tod von nur einer Person zur Folge hat?
Diese Analogie wird häufig im ADM-Unterricht verwendet. Eines Tages könnten Flugzeuge, die von Systemen mit künstlicher Intelligenz und maschinellem Lernen (AI/ML) gesteuert werden, vor einem ähnlichen Dilemma stehen.
"Ich möchte dieses Problem nicht bagatellisieren, aber wir sollten kein System haben, das bei jeder Landung entscheiden muss, wen es töten soll", sagt Luuk van Dijk, Gründer und CEO der Daedalean AG, einem Schweizer Unternehmen, das Flugsteuerungssysteme für autonome eVTOLs entwickelt
Van Dijk sagt, dass selbst menschliche Piloten, die mit Trolley-Problemen konfrontiert sind, selten den Luxus haben, eine ausgewogene Entscheidung zwischen zwei schlechten Optionen zu treffen
"Ich denke, wir können Systeme entwickeln, die mit dieser Art von Variation in der Umgebung umgehen können und auf der Stelle herausfinden, was zu tun ist, noch bevor der Notfall eintritt", sagt van Dijk, dessen Lebenslauf Positionen als Softwareentwickler bei Google und SpaceX umfasst
"Das ist ein weiterer Vorteil der Maschine. Sie hat einen Plan parat, wenn etwas passiert, und muss nicht erst herausfinden, dass etwas nicht stimmt, und dann eine Checkliste durchgehen und sich Optionen ausdenken", sagt er. "Wenn man will, dass [Maschinen] wirklich wie Menschen fliegen, muss man Roboter bauen, die mit Unsicherheiten in der Umgebung umgehen können."
Derzeit sind Softwareentwickler und Luftfahrtingenieure sehr gut darin, Maschinen so zu programmieren, dass sie Flugzeuge so steuern, dass sie sich wiederholende Aufgaben innerhalb vorgegebener Parameter sicher und zuverlässig erledigen können
Aber beim derzeitigen Stand der Technik können diese Maschinen immer noch nicht kreativ sein. Sie können keine sofortigen, kreativen Lösungen für unvorhergesehene Probleme finden, die plötzlich das Flugzeug und die Passagiere bedrohen könnten. Sie können sich nicht selbst beibringen, sich aus extrem unglücklichen und unvorhersehbaren Zufällen zu befreien, die auf früheren Flugerfahrungen beruhen
Das ist das Versprechen von KI/ML - oft als der heilige Gral der automatisierten Luftfahrt bezeichnet.
Lernende Maschinen auf dem linken Sitz
Was genau sind KI/ML-Systeme also? Laut der Artificial Intelligence Roadmap der EASA verwenden sie "Daten, um Algorithmen zu trainieren und ihre Leistung zu verbessern" Im Idealfall, so die EASA, würden sie die Lernfähigkeit eines Computers "ein wenig näher an die Funktion des menschlichen Gehirns heranbringen"
Van Dijk sagt, der Begriff künstliche Intelligenz sei "wirklich sehr schlecht definiert. Es ist ein Marketingbegriff. Es geht um alles, was wir noch nicht ganz können. Per Definition sind also die Dinge, von denen wir noch nicht genau wissen, wie sie funktionieren, nicht nachweisbar, weil wir nicht einmal wissen, was sie sind. Wenn die Leute von künstlicher Intelligenz sprechen, meinen sie meistens maschinelles Lernen
"Die Systeme, mit denen wir arbeiten - und die man als künstliche Intelligenz bezeichnen könnte - verwenden eine Klasse von Techniken, die auf Statistiken basieren und versuchen, mit dieser Menge an Unsicherheit umzugehen."
Statistische KI ist datengesteuert. Im Falle der Luftfahrt würde der Maschinenpilot das Flugzeug auf der Grundlage eines konstanten Datenstroms steuern, der durch verschiedene Eingaben von Bordkameras, Radar, Lidar und anderen Sensoren gesammelt wird - kombiniert mit Echtzeitdaten von einem zentralen Flugsicherungssystem. Der Maschinenpilot könnte auch durch eine riesige GPS-Datenbank mit bestehenden Gebäuden und Infrastrukturen am Boden unterstützt werden, die für eine vorgegebene Flugroute relevant sind
Die ersten Iterationen dieser automatischen Pilotensysteme würden sich auf hochentwickelte Erkennungs- und Vermeidungssysteme (DAA) stützen. Der Maschinenpilot würde Sensordaten überwachen, die potenzielle Hindernisse erkennen, und den Flugsteuerungssystemen des Flugzeugs schnell den Befehl geben, den Kurs zu ändern, um die Hindernisse zu umgehen. Trotz preisgekrönter Innovationen wie Autoland von Garmin ist die Luftfahrtindustrie noch weit von wirklich automatisierten Flugzeugen entfernt, die unendlich viele mögliche Kombinationen unvorhersehbarer Ereignisse vorhersehen und dann sicher und verantwortungsbewusst darauf reagieren können. Denken Sie daran, dass ein Mensch Autoland immer noch einschalten muss.
mysteriöses neuronales Netz
Frühe automatisierte eVTOLs werden kein mysteriöses neuronales Netz enthalten - ein komplexes Gehirn in einer Blackbox, das versucht, andere Flugzeuge zu beobachten und von ihnen zu lernen", sagt Jonathan Lovegren, Leiter der Autonomieabteilung von Wisk Aero. Das Pilotensystem von Wisk wird auf einem grundlegenden, deterministischen, regelbasierten Ansatz für den Flug beruhen - ähnlich wie bei einer Boeing 737, die den größten Teil des Fluges auf Autopilot läuft. Es ist weitgehend derselbe Prozess und Ansatz wie bei der Entwicklung und Zertifizierung eines Autopilotsystems" Ein wichtiger Punkt dabei ist, dass eine 737 - oder jedes Verkehrsflugzeug mit Autopilot - zwei menschliche Piloten an Bord hat, die ADM anwenden können, um unerwünschte Aktionen des Autopiloten auszugleichen.
Wisk Aero mit Sitz in Mountain View, Kalifornien, wurde von Google-Mitbegründer Larry Page gegründet. Das in Privatbesitz befindliche Unternehmen führt seit Jahren Flugtests mit eVTOLs durch und erhielt vor kurzem eine Investition in Höhe von 450 Millionen Dollar von Boeing. Sein automatisiertes Zwei-Personen-Lufttaxi der 5. Generation namens Cora fliegt seit 2018. Über den voraussichtlichen Zeitrahmen für die Zertifizierung und die Aufnahme des Flugbetriebs hat sich das Unternehmen bedeckt gehalten und erklärt, dass die Sicherheit an erster Stelle steht
Lovegren und seine Kollegen beziehen die FAA-Pilotenausbildungsstandards als Richtlinien für die Programmierung der Wisk-Lufttaxis ein, "um sicherzustellen, dass es keine Lücke zwischen den Funktionen eines Piloten und dem System gibt, das wir bauen. Es ist eigentlich viel grundlegender und regelbasierter ... fundamentale Luft- und Raumfahrttechnik, unter Verwendung von Mathematik"
Obwohl Wisk sein Flugzeugdesign als "autonom" bezeichnet, kann es erst dann wirklich autonom sein, wenn es bei jedem Flug vergangenes Lernen aus verschiedenen Quellen außerhalb des Fluges anwendet. Das wird eine große Herausforderung sein, die es zu lösen gilt.
Nichtsdestotrotz ist es "sehr hoch automatisiert", sagt Lovegren. Es muss einige Entscheidungen selbst treffen, und es ist ein großer technischer Aufwand erforderlich, um zu bestimmen, wie diese Reaktionen aussehen. "Es ist nicht so, dass es Entscheidungen trifft und niemand weiß, was es tun wird
Wie sieht es mit ethischen Entscheidungen des Piloten aus? Die automatisierten Lufttaxis von Wisk werden immer einen Bediener haben, der am Boden sein wird", sagt Lovegren. Die menschliche Komponente der Wisk-Lufttaxis wird "eher eine Art Schnittstelle zur Flugsicherung sein", sagt er. "Das Flugzeug kann im Namen der Sicherheit unmittelbare Entscheidungen treffen - bei Störungen und dergleichen -, aber im Großen und Ganzen gibt es eine Person in der Schleife, die den Flug überwacht und die Richtung vorgibt
Lovegren zufolge setzt Wisk bei seinem Flugkontrollsystem auf eine breite Grundlage bestehender DAA-Technologien (Detect-and-Avoid), wie TCAS II und das kommende ACAS. Er sieht beide als Sprungbrett, das zu automatisierten Reaktionen auf DAA-Probleme führen wird.
große ethische Fragen
Die Aufsichtsbehörden für die Luftfahrt haben damit begonnen, Pläne für die Integration von KI/ML in die kommerzielle Luftfahrt in den nächsten Jahrzehnten zu schmieden, auch wenn dies keine Garantie dafür ist, dass dies Realität wird
Die FAA hat einen KI/ML-Forschungsplan fertiggestellt, der der Behörde helfen wird, den Zertifizierungsprozess zu planen. Ähnliche Bemühungen sind in Europa im Gange, wo die EASA davon ausgeht, dass der kommerzielle Luftverkehr bereits ab 2035 KI/ML einsetzen wird
In ihrem Fahrplan für künstliche Intelligenz" räumt die EASA ein, dass KI mehr als alle bisherigen grundlegenden technologischen Entwicklungen wichtige ethische Fragen aufwirft" Die Schaffung eines Konzepts für den Umgang mit KI "ist von zentraler Bedeutung für die Stärkung des Vertrauens der Bürger"
Die EASA sagt, dass KI niemals vertrauenswürdig sein wird, wenn sie nicht "in einer Weise entwickelt und genutzt wird, die weithin geteilte ethische Werte respektiert." Folglich sagt die EASA, dass "ethische Richtlinien für die Luftfahrt erforderlich sind, um mit KI voranzukommen" Diese Leitlinien, so die EASA, sollten auf dem bestehenden Regulierungsrahmen für die Luftfahrt aufbauen
Ethische Leitlinien
Aber wo sind diese "ethischen Leitlinien" und wer würde sie verfassen?
Nun, zufällig hat eine Organisation, die sich Hochrangige Expertengruppe für Künstliche Intelligenz nennt, im Auftrag der Europäischen Kommission einen Bericht mit dem Titel "Ethische Leitlinien für vertrauenswürdige KI" verfasst
In dem unverbindlichen Bericht heißt es, dass die Leitlinien darauf abzielen, "die Ethik zu einer zentralen Säule für die Entwicklung eines einzigartigen Ansatzes für KI zu machen", da "der Einsatz von KI-Systemen in unserer Gesellschaft mehrere ethische Herausforderungen" aufwirft, darunter "Entscheidungsfähigkeit und Sicherheit"
Er fordert "ein hohes Maß an Genauigkeit", das "besonders in Situationen entscheidend ist, in denen das KI-System direkt das Leben von Menschen beeinflusst"
Was ist, wenn mein KI-Pilot einen Fehler macht? Nun, für diesen Fall schlägt der Bericht vor, dass die Systeme über Sicherheitsvorkehrungen verfügen sollten, die einen Ausweichplan ermöglichen, einschließlich der Forderung nach einem menschlichen Bediener, bevor sie ihre Aktion fortsetzen. Es muss sichergestellt werden, dass das System das tut, was es tun soll, ohne Lebewesen oder die Umwelt zu schädigen", heißt es in dem Bericht
Wer sollte für KI-Systeme, die versagen, verantwortlich sein? Dem Bericht zufolge "sind die Unternehmen dafür verantwortlich, die Auswirkungen ihrer KI-Systeme von Anfang an zu ermitteln. Der Bericht schlägt Wege vor, um sicherzustellen, dass KI-Systeme unter Berücksichtigung von Sicherheitsaspekten getestet und entwickelt wurden Der Bericht schlägt auch die Einrichtung von Ethik-Prüfungsausschüssen in Unternehmen vor, die KI-Systeme entwickeln, um Rechenschaftspflicht und ethische Praktiken zu diskutieren.
Der Bericht sagt auch, dass KI-Systeme "mit einem präventiven Ansatz für Risiken entwickelt werden sollten, um unbeabsichtigte und unerwartete Schäden zu minimieren und unannehmbare Schäden zu verhindern"
Warum konzentriert sich eVTOL auf die Automatisierung?
Die kurze Antwort lautet: Erschwinglichkeit und Sicherheit. Befürworter sagen, dass der autonome Flug den eVTOL-Fluggesellschaften eine effektivere und schnellere Skalierung ermöglicht und gleichzeitig die Flugpreise senkt - im Idealfall wird der eVTOL-Transport für mehr Menschen zugänglich
Indem man Maschinen sozusagen auf den linken Sitz setzt, werden eVTOL-Flüge sicherer, so Wisk und andere, die sagen, dass der automatisierte Flug das Potenzial für menschliches Versagen reduziert.
Laut Statistik sind die meisten Flugunfälle auf Pilotenfehler zurückzuführen. Wisk und andere eVTOL-Entwickler sagen, dass autonome Systeme menschliche Fehler drastisch reduzieren können, indem sie bei jedem Flug vorhersehbare, konsistente Ergebnisse erzielen. Es bleibt jedoch abzuwarten, inwieweit maschinelle Fehler menschliche Fehler ersetzen können. Unzählige Piloten haben schon erlebt, dass die Automatisierung einen unerwarteten Befehl ausführt - oder gänzlich versagt.
Selbstfliegende Flugzeuge vs. selbstfahrende Autos
Die Ingenieure für selbstfliegende Flugzeuge sind sich einig, dass ihre Aufgabe sicherlich noch schwieriger wäre, wenn sie versuchen würden, selbstfahrende Autos zu perfektionieren
"Ich beneide die Leute nicht, die an selbstfahrenden Autos arbeiten", sagt Lovegren. "Es ist in gewisser Weise viel einfacher, im Luftraum zu operieren als am Boden, wo ein Kind mit einem Fußball mitten auf der Straße herumlaufen könnte. Wie wird man mit diesem Problem fertig?" In der Luft "operiert man weitgehend mit Profis. Ich denke, das macht das Ausmaß der Autonomie-Herausforderung viel überschaubarer, zumindest in der Luftfahrt
Van Dijk stimmt dem zu: "Autofahren ist viel schwieriger." Es wäre viel schwieriger, ein System zu entwickeln, das Straßenschilder lesen und den Unterschied zwischen einem Stein, einem Hund und einem Fußgänger erkennen kann, meint er. In einem Auto hat man nur begrenzte Möglichkeiten, den Kurs zu ändern. "Die Situation, in der man sich entscheiden muss, wen man töten will, ergibt sich beim Autofahren eher als in der Luft", sagt van Dijk. "In der Luft kann man dem System beibringen, allem auszuweichen, was man sehen kann, es sei denn, man ist sich wirklich sicher, dass man darauf landen will
ethische Ordnung
Computerprogrammierer sprechen oft davon, dass ein "rationaler Agent" Teil des Entscheidungsprozesses eines autonomen Flugzeugs sein muss. Das Flugzeug muss intelligent genug sein, um zu wissen, wann es seinen Autopiloten ausschalten und das Flugzeug auf die sicherste und ethischste Weise steuern muss
Dazu muss dem System eine so genannte "ethische Ordnung" übergeordneter Prioritäten einprogrammiert werden, so der Informatikprofessor Michael Fisher von der University of Manchester
Fisher führt ein sehr einfaches Beispiel an, bei dem es um ein defektes autonomes Flugzeug mit eingeschränkter Flugsteuerung geht. Im Idealfall muss der rationale Agent des Flugzeugs erkennen, dass er den Autopiloten ausschalten und sofort notlanden muss. In Fishers Beispiel hat der rationale Agent, der das Flugzeug steuert, drei Möglichkeiten, wo er landen könnte
. ein Parkplatz neben einer Schule voller Kinder
. ein Feld voller Tiere
. eine leere Straße
Dieses Szenario würde den rationalen Agenten dazu veranlassen, sich auf eine vorprogrammierte ethische Ordnung von übergeordneten Prioritäten in dieser Reihenfolge zu beziehen:
1. Menschenleben retten
2. Tierleben retten
3. Eigentum retten
Infolgedessen würde das autonome Flugzeug eine Notlandung auf der leeren Straße versuchen. Natürlich ist dies ein allzu einfaches Szenario. Ähnliche Situationen in der realen Welt würden eine ausgeklügelte ADM-Programmierung erfordern, die dem Flugkontrollsystem vorschreibt, wie es auf verschiedene Wiederholungen dieses Szenarios zu reagieren hat - zum Beispiel auf einen Schulbus, der plötzlich auf der Straße auftauchen könnte
Wäre ein KI/ML-System bei solch extrem begrenzten Möglichkeiten intelligent genug, um dieses Problem zu lösen?
Zusammenführung von KI/ML mit der Flugverkehrskontrolle
Während die FAA einen Fahrplan für die Integration von Zertifizierungsanforderungen für KI/ML-Systeme entwickelt, führt das Ames Research Center der NASA in Mountain View, Kalifornien, langfristige Forschungsarbeiten durch, um mehr darüber zu erfahren, wie autonome KI/ML-Flugzeuge letztendlich in den nationalen Luftraum integriert werden könnten
Dr. Parimal Kopardekar, Direktor des Aeronautics Research Institute (NARI) der NASA in Ames, glaubt, dass digitale Partnerschaften eine Schlüsselrolle spielen werden
Das würde folgendermaßen funktionieren: Sobald die KI/ML-Systeme entwickelt sind, könnten Ingenieure digitale Modelle erstellen, die die Systeme in einem virtuellen Luftraum nachbilden. Dieser virtuelle Luftraum würde einen realen Luftraum widerspiegeln und die Leistung in Echtzeit zeigen
Mit diesem digitalen Zwillingsexperiment würden die Ingenieure Cloud-basierte Daten darüber sammeln, wie sich die KI/ML-Flugzeuge in realen Szenarien verhalten, ohne dass ein Risiko besteht. Erfolgreiche Daten, die über einen langen Zeitraum gesammelt werden, könnten die Gewissheit liefern, dass die Systeme sicher und zuverlässig genug für den Einsatz in der realen Welt sind
"Wir wollen, dass autonome Systeme vertrauenswürdig sind, damit die Menschen das Gefühl haben, dass sie sie ohne zu zögern einsetzen können", sagt Kopardekar. "Wir wollen, dass sie absolut sicher sind."
Obwohl die kommerzielle Luftfahrtindustrie derzeit die sicherste Zeit ihrer Geschichte erlebt, wissen wir, dass kein Luftfahrtsystem jemals wirklich narrensicher und immun gegen Unfälle sein wird. Ingenieure und Programmierer zeichnen ein optimistisches Bild der Herausforderungen bei der Entwicklung erfolgreicher KI/ML-Flugsteuerungssysteme, einschließlich der damit verbundenen ethischen Fragen.
{{medias[12920].description}}
{{medias[12922].description}}