Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
Commento: L'atterraggio sicuro dei droni è un'enorme sfida tecnica
{{{sourceTextContent.subTitle}}}
Ian Foster, responsabile dell'ingegneria di Animal Dynamics, spiega perché la valutazione del sito di atterraggio di emergenza per i sistemi aerei autonomi è un problema di dati
{{{sourceTextContent.description}}}
Conflitti, problemi climatici, sfollamenti forzati e gravi insicurezze alimentari stanno creando una crescente necessità di nuove soluzioni di autonomia aerea in grado di proteggere la vita umana e assicurare la consegna di forniture essenziali in ambienti pericolosi. Nei prossimi dieci-quindici anni, possiamo aspettarci di assistere a salti quantici nella comprensione di come queste nuove soluzioni possano essere utilizzate, delle infrastrutture che le renderanno possibili, delle normative che ci proteggeranno e dei fattori che ne accelereranno l'adozione.
In questa sede esplorerò uno degli aspetti più complicati del volo aereo senza equipaggio, che deve essere affrontato prima che la tecnologia possa essere diffusa e adottata in modo sicuro: la valutazione dei punti di atterraggio di emergenza sicuri quando si opera oltre la linea di vista.
Perché la valutazione dei siti di atterraggio di emergenza è un problema di dati
La valutazione dei siti di atterraggio di emergenza è un problema di dati. Si tratta di comprendere il mondo che circonda il sistema aereo senza equipaggio e di ragionare su queste informazioni per prendere una serie di decisioni informate. Deve innanzitutto creare un modello accurato del mondo fondendo insiemi di dati provenienti da diverse fonti e nell'ambito di diversi processi durante una missione, come la pianificazione, la percezione, la segmentazione, la fusione e l'atterraggio.
Durante la fase di pianificazione, prima ancora di prendere il volo, un sistema aereo senza equipaggio deve avere accesso a informazioni cartografiche, dati satellitari, bollettini meteorologici o specifiche della missione, come le no-fly zone. Ognuno di questi elementi contribuisce a delineare un quadro dell'ambiente in cui un sistema aereo non avvitato volerà, di come può trovare efficienze naturali nell'aria e, infine, di dove potrebbe atterrare in caso di emergenza. Rispetto alle osservazioni che il velivolo può effettuare con i propri sensori, questi modelli del mondo possono essere a bassa risoluzione e forse imprecisi, quindi devono essere aggiornati e rivalutati una volta in volo.
Percepire il mondo come è realmente
Durante il volo, i sistemi aerei senza equipaggio devono affidarsi a una combinazione di diversi tipi di sensori per percepire accuratamente il mondo circostante. Le telecamere ad alta risoluzione agiscono come l'occhio umano, creando una rappresentazione visiva del mondo. Il LiDAR fornisce la forma, la profondità e la capacità di misurare accuratamente le distanze con laser a impulsi. Il radar fornisce un'immagine dell'ambiente circostante a più lunga distanza e ricca di dati in tutte le condizioni, compresa la scarsa visibilità
Questi tipi di sensori offrono la prospettiva di prestazioni superiori alla somma delle loro parti. Ma solo in tempi recenti i progressi tecnologici hanno reso possibile il volo di piccoli sistemi aerei non avvitati di massa ridotta con più combinazioni. Si tratta di una pietra miliare fondamentale per il settore, che innalza il livello di sicurezza e apre una vasta gamma di nuove opportunità commerciali.
La sfida della segmentazione
Il prossimo passo per i sistemi aeromobili non avvitati è quello di andare oltre il rilevamento dei dati grezzi e comprendere effettivamente l'ambiente, i suoi elementi e il modo in cui la loro configurazione spaziale potrebbe cambiare, in modo da ricavarne informazioni utilizzabili.
La segmentazione è il primo passo di questo processo: si tratta di una suddivisione dei dati, seguita da una classificazione degli elementi della scena. Nel caso dei dati delle telecamere, si parla di segmentazione semantica se esiste un'etichetta di categoria/classe per ogni pixel dell'immagine, dove ogni classe corrisponde a un oggetto di un certo tipo, ad esempio un palo della linea elettrica, un albero, un veicolo, ecc.
La segmentazione panottica, invece, assegna etichette diverse allo stesso tipo di oggetto se questi due oggetti sono distinti, consentendo di tracciare istanze diverse dello stesso tipo di oggetto. Ad esempio, a due persone verrebbero assegnate etichette di classe diverse. Queste etichette potrebbero essere i loro nomi.
La segmentazione semantica è una componente importante nella valutazione visiva del terreno, a supporto di manovre come gli atterraggi autonomi di emergenza, dove può fornire la posizione esatta e l'estensione di aree idonee come le piste di atterraggio o le aree coperte da vegetazione a bassa crescita, scartando invece le aree non idonee come l'acqua, le strutture urbane o le strade principali.
La sfida maggiore nell'implementazione di un sistema di segmentazione altamente accurato consiste nel raccogliere un insieme di dati sufficientemente completo da consentire l'ottimizzazione di un modello di apprendimento automatico per la segmentazione. Per le applicazioni di guida autonoma questi set di dati esistono e vengono costantemente migliorati dalla comunità accademica e dagli sforzi industriali. Con il tempo avremo lo stesso risultato per i sistemi aerei senza equipaggio.
La fusione di intelligenza umana e meccanica
Nella fase di fusione, un sistema aereo senza equipaggio deve combinare gli apprendimenti segmentati (applicati dai dati grezzi dei sensori) con i dati esterni (mappe, bollettini meteo, dati dei veicoli, ecc.) per aggiornare il suo modello del mondo e determinare infine un punto di atterraggio sicuro. Questo processo è essenzialmente la fusione dell'intelligenza umana e della macchina.
In scenari semplici, le serie di dati concordano tra loro. Ad esempio, le aree possono essere contrassegnate come non sicure per l'atterraggio dall'input umano e dalla lettura della macchina. In casi più complessi, in cui le serie di dati sono in disaccordo, l'intelligenza artificiale può essere chiamata a correggere un precedente input umano per prendere una decisione sicura e informata.
Questa fusione naturale di informazioni suggerisce una "scala" di passi verso la piena autonomia. Per raggiungere la piena autonomia, l'industria deve passare rapidamente da un velivolo a pilotaggio remoto, al pilota automatico, all'analisi AI dei siti di atterraggio prima della missione con l'approvazione dell'uomo, all'identificazione del sito in volo con l'intervento dell'uomo per la decisione di atterrare, fino al processo decisionale completamente automatizzato. Naturalmente, domini operativi e requisiti diversi consentiranno livelli diversi di autonomia.
Uno sguardo al futuro
I sistemi aerei senza equipaggio hanno fatto molta strada. Le nuove tecnologie, tra cui l'intelligenza artificiale, l'automazione, l'IoT, il 5G e i big data, hanno dato vita a una nuova era di soluzioni avanzate per la mobilità aerea che collegheranno i cieli e apriranno possibilità finora irraggiungibili. Non tutti i problemi sono stati risolti nella loro interezza, tutt'altro, ma le operazioni autonome stanno diventando sempre più comuni in tutto il mondo.
Oggi Animal Dynamics si concentra sulla commercializzazione di Stork STM, un parapendio autonomo a propulsione pesante in grado di trasportare 135 kg per 400 km. È il culmine delle conoscenze bio-ispirate acquisite fino ad oggi e risponde direttamente all'esigenza di sottrarre gli esseri umani dal pericolo, laddove ve ne sia una necessità immediata.