I ricercatori di Princeton hanno testato un nuovo approccio di apprendimento automatico per garantire la sicurezza e il successo dei robot in contesti non familiari. Gli esperimenti includevano la programmazione di un piccolo drone chiamato Parrot Swing per evitare gli ostacoli durante il volo lungo un corridoio lungo 18 metri.
Un piccolo drone effettua un volo di prova attraverso uno spazio pieno di cilindri di cartone posizionati casualmente che fungono da sostituti per alberi, persone o strutture. L’algoritmo che controlla il drone è stato addestrato su un migliaio di percorsi simulati carichi di ostacoli, ma non si è mai visto uno come questo. Tuttavia, 9 volte su 10, l’aereo in miniatura schiva tutti gli ostacoli sul suo cammino.
Questo esperimento è un banco di prova per una sfida fondamentale nella robotica moderna: la capacità di garantire la sicurezza e il successo dei robot automatizzati che operano in ambienti nuovi. Poiché gli ingegneri si rivolgono sempre più a metodi di apprendimento automatico per sviluppare robot adattabili, il nuovo lavoro dei ricercatori della Princeton University fa progressi su tali garanzie per i robot in contesti con diversi tipi di ostacoli e vincoli.
“Negli ultimi dieci anni circa, c’è stata un’enorme quantità di entusiasmo e progressi nell’apprendimento automatico nel contesto della robotica, principalmente perché ti consente di gestire input sensoriali ricchi, come quelli della telecamera di un robot, e mappare questi input complessi alle azioni”, ha detto Anirudha Majumdar, assistente professore di ingegneria meccanica e aerospaziale a Princeton.
Tuttavia, gli algoritmi di controllo del robot basati sull’apprendimento automatico corrono il rischio di adattamento eccessivo ai dati di addestramento, il che può rendere gli algoritmi meno efficaci quando incontrano input diversi da quelli su cui sono stati addestrati.
L’Intelligent Robot Motion Lab di Majumdar ha affrontato questa sfida ampliando la suite di strumenti disponibili per l’addestramento delle politiche di controllo dei robot e quantificando il probabile successo e la sicurezza dei robot che operano in nuovi ambienti.
In tre nuovi documenti, i ricercatori si sono adattati quadri di apprendimento automatico da altre arene al campo della locomozione robotica e manipolazione. Si sono rivolti alla teoria della generalizzazione, che viene tipicamente utilizzata in contesti che mappano un singolo input su un singolo output, come il tagging automatico delle immagini.
I nuovi metodi sono tra i primi ad applicare la teoria della generalizzazione al compito più complesso di fornire garanzie sulle prestazioni dei robot in contesti non familiari. Mentre altri approcci hanno fornito tali garanzie in base a presupposti più restrittivi, i metodi del team offrono garanzie più ampiamente applicabili sulle prestazioni in ambienti nuovi, ha affermato Majumdar.
Nel primo articolo, una prova di principio per l’applicazione dei framework di apprendimento automatico, il team ha testato il loro approccio in simulazioni che includevano un veicolo a ruote che attraversava uno spazio pieno di ostacoli e un braccio robotico che afferrava oggetti su un tavolo.
Hanno anche convalidato la tecnica valutando lo schivare degli ostacoli di un piccolo drone chiamato Parrot Swing (una combinazione di quadricottero e aeroplano ad ala fissa) mentre volava lungo un corridoio lungo 60 piedi punteggiato da cilindri di cartone. Il tasso di successo garantito della politica di controllo del drone è stato dell’88,4% e ha evitato ostacoli in 18 prove su 20 (90%).