{{{sourceTextContent.subTitle}}}
Ian Foster, responsable de l'ingénierie chez Animal Dynamics, explique pourquoi l'évaluation des sites d'atterrissage d'urgence pour les systèmes d'aéronefs autonomes est un problème de données
{{{sourceTextContent.description}}}
Les conflits, les problèmes climatiques, les déplacements forcés et l'insécurité alimentaire aiguë créent un besoin croissant de nouvelles solutions d'autonomie aérienne capables de protéger la vie humaine et d'assurer la livraison de fournitures essentielles dans des environnements dangereux. Au cours des dix à quinze prochaines années, nous pouvons nous attendre à des progrès considérables dans la compréhension de la manière dont ces nouvelles solutions peuvent être utilisées, des infrastructures qui les rendront possibles, des réglementations qui nous protégeront et des moteurs qui accéléreront leur adoption.
Je me pencherai ici sur l'un des aspects les plus complexes du vol aérien sans équipage, qui doit être abordé avant que la technologie puisse être déployée et adoptée en toute sécurité : l'évaluation de points d'atterrissage d'urgence sûrs lorsque l'on opère au-delà de la ligne de visée.
Pourquoi l'évaluation des sites d'atterrissage d'urgence est un problème de données
Au fond, l'évaluation des sites d'atterrissage d'urgence est un problème de données. Il s'agit de comprendre le monde qui entoure le système d'aéronef sans équipage et de raisonner sur ces informations pour prendre une série de décisions éclairées. Elle doit d'abord créer un modèle précis du monde en fusionnant des ensembles de données provenant de différentes sources et au sein de différents processus au cours d'une mission, tels que la planification, la perception, la segmentation, la fusion et l'atterrissage.
Au cours de la phase de planification, avant même qu'un système d'aéronef sans équipage n'ait pris son envol, il doit avoir accès à des informations cartographiques, à des données satellitaires, à des bulletins météorologiques ou à des spécificités de la mission, comme des zones d'exclusion aérienne. Chacun de ces éléments permet de brosser un tableau de l'environnement dans lequel l'avion évoluera, de la façon dont il peut trouver des efficacités naturelles dans les airs et, enfin, de l'endroit où il pourrait atterrir en cas d'urgence. Comparés aux observations que l'avion peut faire avec ses propres capteurs, ces modèles du monde peuvent être de faible résolution et éventuellement inexacts, de sorte qu'ils doivent être mis à jour et réévalués une fois en l'air.
Percevoir le monde tel qu'il est réellement
En vol, les systèmes d'aéronefs sans équipage doivent s'appuyer sur une combinaison de différents types de capteurs pour percevoir avec précision le monde qui les entoure. Les caméras haute résolution agissent comme l'œil humain, en créant une représentation visuelle du monde. Le LiDAR fournit la forme, la profondeur et la capacité de mesurer avec précision les distances à l'aide de lasers pulsés. Le radar fournit une image à plus longue portée, riche en données, de l'environnement dans toutes les conditions, y compris par faible visibilité
Ces types de capteurs offrent la perspective de performances supérieures à la somme de leurs parties. Mais ce n'est que récemment que les progrès technologiques ont rendu possible le vol de petits systèmes d'aéronefs sans équipage de faible masse avec plusieurs combinés. Il s'agit d'une étape cruciale pour l'industrie, qui place la barre plus haut en matière de sécurité tout en ouvrant un large éventail de nouvelles opportunités commerciales.
Le défi de la segmentation
La prochaine étape pour les systèmes d'avions non pilotés est d'aller au-delà de la détection de données brutes et de comprendre réellement l'environnement, ses éléments et la manière dont leur configuration spatiale peut évoluer, afin d'en tirer des informations exploitables.
La segmentation est la première étape de ce processus, c'est-à-dire un partitionnement des données, suivi d'une classification des éléments de la scène. Dans le cas de données de caméra, on parle de segmentation sémantique s'il existe une étiquette de catégorie/classe pour chaque pixel de l'image, où chaque classe correspond à un objet d'un certain type, par exemple un poteau de ligne électrique, un arbre, un véhicule, etc.
La segmentation panoptique, en revanche, attribue des étiquettes différentes au même type d'objet si ces deux objets sont distincts, ce qui permet de suivre différentes instances du même type d'objet. Par exemple, deux personnes se verraient attribuer des étiquettes de classe différentes. Ces étiquettes pourraient être leurs noms.
La segmentation sémantique est un élément important de l'évaluation visuelle du terrain, qui soutient des manœuvres telles que les atterrissages d'urgence autonomes, où elle peut fournir l'emplacement exact et l'étendue des zones appropriées telles que les pistes d'atterrissage ou les zones couvertes par une végétation à faible croissance, tout en rejetant les zones inappropriées telles que l'eau, les structures urbaines ou les routes principales.
Le plus grand défi dans la mise en œuvre d'un système de segmentation hautement précis réside dans la collecte d'un ensemble de données suffisamment complet pour permettre l'optimisation d'un modèle d'apprentissage automatique pour la segmentation. Pour les applications de conduite autonome, ces ensembles de données existent et sont constamment améliorés par la communauté universitaire ainsi que par les efforts industriels. Avec le temps, nous aurons la même chose pour les systèmes d'aéronefs sans équipage.
La fusion de l'intelligence humaine et de l'intelligence artificielle
Dans la phase de fusion, un système d'aéronef sans équipage doit combiner des apprentissages segmentés (appliqués à partir des données brutes des capteurs) avec des ensembles de données externes (cartes, rapports météorologiques, données de véhicules, etc.) pour mettre à jour son modèle du monde et, finalement, déterminer un lieu d'atterrissage sûr. Ce processus est essentiellement la fusion de l'intelligence humaine et de l'intelligence artificielle.
Dans des scénarios simples, les ensembles de données s'accordent les uns avec les autres. Par exemple, les zones peuvent être marquées comme dangereuses pour l'atterrissage par les données humaines et la lecture automatique. Dans des cas plus complexes où les ensembles de données ne concordent pas, l'IA peut être amenée à corriger une entrée humaine antérieure pour prendre une décision sûre et informée.
Cette fusion naturelle des informations suggère un "escalier" d'étapes vers l'autonomie complète. Pour atteindre l'autonomie complète, l'industrie doit rapidement passer d'un aéronef piloté à distance, à un pilote automatique, à une analyse par l'IA des sites d'atterrissage avant la mission avec l'approbation d'un humain, à une identification du site en vol avec un humain dans la boucle pour la décision d'atterrir, jusqu'à une prise de décision entièrement automatisée. Naturellement, des domaines et des exigences opérationnels différents permettront des niveaux d'autonomie différents.
Regarder vers l'avenir
Les systèmes d'aéronefs sans équipage ont parcouru un long chemin. Les nouvelles technologies, notamment l'IA, l'automatisation, l'IoT, la 5G et le big data, ont toutes réalisé une nouvelle ère de solutions de mobilité aérienne avancées qui connecteront les cieux et débloqueront des possibilités jusqu'alors inatteignables. Tous les problèmes n'ont pas été résolus dans leur intégralité, loin de là, mais les opérations autonomes deviennent de plus en plus courantes à travers le monde.
Aujourd'hui, chez Animal Dynamics, nous nous concentrons sur la commercialisation de Stork STM, un parafoil autonome de transport lourd capable de transporter 135 kg sur 400 km. Il s'agit de l'aboutissement des apprentissages bio-inspirés réalisés à ce jour, et il répond directement au besoin de mettre les humains hors de danger, lorsqu'il y a un besoin immédiat de le faire.