Ver traducción automática
Esta es una traducción automática. Para ver el texto original en inglés haga clic aquí
#Novedades de la industria
{{{sourceTextContent.title}}}
Comentario: El aterrizaje seguro de los drones es un gran reto técnico
{{{sourceTextContent.subTitle}}}
Ian Foster, jefe de ingeniería de Animal Dynamics, explica por qué la evaluación del lugar de aterrizaje de emergencia para los sistemas de aviones autónomos es un problema de datos
{{{sourceTextContent.description}}}
Los conflictos, los problemas climáticos, los desplazamientos forzosos y la grave inseguridad alimentaria están creando una necesidad creciente de nuevas soluciones de autonomía aérea que puedan proteger la vida humana y garantizar la entrega de suministros esenciales en entornos peligrosos. En los próximos diez o quince años, podemos esperar que se produzcan saltos cuánticos en la comprensión de cómo se pueden utilizar estas nuevas soluciones, las infraestructuras que las permitirán, las regulaciones que nos salvaguardarán y los impulsores que acelerarán su adopción.
A continuación, analizaré uno de los aspectos más complicados de los vuelos aéreos sin tripulación que debe abordarse antes de que la tecnología pueda desplegarse y adoptarse con seguridad: la evaluación de los puntos de aterrizaje de emergencia seguros cuando se opera fuera de la línea de visión.
Por qué la evaluación del lugar de aterrizaje de emergencia es un problema de datos
En esencia, la evaluación del lugar de aterrizaje de emergencia es un problema de datos. Se trata de comprender el mundo que rodea al sistema de aeronaves sin tripulación y razonar sobre esta información para tomar una serie de decisiones informadas. En primer lugar, debe crear un modelo del mundo preciso mediante la fusión de conjuntos de datos procedentes de diferentes fuentes y dentro de diferentes procesos durante una misión, como la planificación, la percepción, la segmentación, la fusión y el aterrizaje.
Durante la fase de planificación, antes de que un sistema de aeronaves no tripuladas haya emprendido el vuelo, debe tener acceso a información cartográfica, datos de satélite, informes meteorológicos o datos específicos de la misión, como las zonas de exclusión aérea. Cada uno de estos elementos ayuda a hacerse una idea del entorno por el que volará un sistema de aeronaves no tripuladas, cómo puede encontrar la eficiencia natural en el aire y, en última instancia, dónde podría aterrizar en caso de emergencia. En comparación con las observaciones que la aeronave puede hacer con sus propios sensores, estos modelos del mundo pueden ser de baja resolución y posiblemente inexactos, por lo que tienen que ser actualizados y reevaluados una vez en el aire.
Percibir el mundo tal y como es
Durante el vuelo, los sistemas de aeronaves no tripuladas deben basarse en una combinación de diferentes tipos de sensores para percibir con precisión el mundo que les rodea. Las cámaras de alta resolución actúan como el ojo humano, creando una representación visual del mundo. El LiDAR proporciona la forma, la profundidad y la capacidad de medir con precisión las distancias con láseres pulsantes. El radar proporciona una imagen de mayor alcance y rica en datos del entorno en todas las condiciones, incluida la baja visibilidad
Estos tipos de sensores ofrecen la posibilidad de obtener un rendimiento superior a la suma de sus partes. Pero sólo en los últimos tiempos los avances tecnológicos han hecho posible que los pequeños sistemas aéreos no tripulados de baja masa puedan volar con varios combinados. Se trata de un hito crucial para el sector, que eleva el listón de la seguridad al tiempo que abre un amplio abanico de nuevas oportunidades comerciales.
El reto de la segmentación
El siguiente paso para los sistemas de aeronaves no tripuladas es ir más allá de la detección de datos en bruto y comprender realmente el entorno, sus elementos y cómo puede cambiar su configuración espacial, con el fin de obtener información procesable.
La segmentación es el primer paso en este proceso, es decir, una partición de los datos, seguida de la clasificación de los elementos de la escena. En el caso de los datos de la cámara, hablamos de segmentación semántica si existe una etiqueta de categoría/clase para cada píxel de la imagen, donde cada clase corresponde a un objeto de un tipo determinado, por ejemplo un poste de la línea eléctrica, un árbol, un vehículo, etc.
La segmentación panóptica, sin embargo, asigna diferentes etiquetas al mismo tipo de objeto si estos dos objetos son distintos, lo que permite rastrear diferentes instancias del mismo tipo de objeto. Por ejemplo, a dos personas se les asignarían etiquetas de clase diferentes. Estas etiquetas podrían ser sus nombres.
La segmentación semántica es un componente importante en la evaluación visual del terreno, que sirve de apoyo a maniobras como los aterrizajes autónomos de emergencia, en los que puede proporcionar la ubicación exacta y la extensión de las zonas adecuadas, como las pistas de aterrizaje, o las zonas cubiertas por vegetación de bajo crecimiento, al tiempo que rechaza las zonas inadecuadas, como el agua, las estructuras urbanas o las carreteras principales.
El mayor reto a la hora de implementar un sistema de segmentación de alta precisión consiste en reunir un conjunto de datos lo suficientemente amplio como para permitir la optimización de un modelo de aprendizaje automático para la segmentación. En el caso de las aplicaciones de conducción autónoma, estos conjuntos de datos existen y son mejorados constantemente por la comunidad académica y los esfuerzos industriales. Con el tiempo tendremos lo mismo para los sistemas de aeronaves sin tripulación.
La fusión de la inteligencia humana y la de las máquinas
En la fase de fusión, un sistema de aeronave no tripulada debe combinar los aprendizajes segmentados (aplicados a partir de los datos brutos de los sensores) con conjuntos de datos externos (mapas, informes meteorológicos, datos de vehículos, etc.) para actualizar su modelo del mundo y, en última instancia, determinar un punto de aterrizaje seguro. Este proceso es esencialmente la fusión de la inteligencia humana y la de las máquinas.
En escenarios sencillos, los conjuntos de datos coincidirán entre sí. Por ejemplo, las áreas pueden ser marcadas como inseguras para aterrizar por la entrada humana y la lectura de la máquina. En casos más complejos, en los que los conjuntos de datos no coinciden, puede ser necesario que la IA corrija una entrada humana previa para tomar una decisión segura e informada.
Esta fusión natural de información sugiere una "escalera" de pasos hacia la plena autonomía. Para alcanzar la plena autonomía, la industria debe pasar rápidamente de una aeronave pilotada a distancia, a un piloto automático, a un análisis de IA de los lugares de aterrizaje antes de la misión con la aprobación humana, a la identificación de lugares en vuelo con un humano en el bucle para la decisión de aterrizar, hasta la toma de decisiones totalmente automatizada. Naturalmente, los distintos ámbitos y requisitos operativos permitirán diferentes niveles de autonomía.
Mirando al futuro
Los sistemas de aeronaves no tripuladas han recorrido un largo camino. Las nuevas tecnologías, como la IA, la automatización, el IoT, el 5G y el big data, han hecho realidad una nueva era de soluciones avanzadas de movilidad aérea que conectarán los cielos y desbloquearán posibilidades antes inalcanzables. No se han resuelto todos los problemas en su totalidad, ni mucho menos, pero las operaciones autónomas son cada vez más habituales en todo el mundo.
Hoy en día, en Animal Dynamics estamos centrados en la comercialización del Stork STM, un parapente autónomo de carga pesada capaz de transportar 135 kg a lo largo de 400 km. Es la culminación de los aprendizajes bioinspirados realizados hasta la fecha, y aborda directamente la necesidad de sacar a los humanos del peligro, cuando hay una necesidad inmediata de hacerlo.