Il progresso della robotica umanoide ha compiuto passi da gigante. Ciò con aziende come Unitree che continuano a ridefinire i limiti dell’agilità e del controllo nei robot bipedi. A tal proposito, un recente video del modello G1 ha suscitato grande interesse. Quest’ultimo ha mostrato per la prima volta un kip up eseguito da un robot compatto. Tale impresa non solo evidenzia l’avanzato livello di coordinazione del G1. Dimostra anche come i continui miglioramenti negli algoritmi di controllo e nell’apprendimento automatico stiano rendendo i robot umanoidi sempre più versatili e performanti.
Robot Unitree: ecco i dettagli emersi dal recente video
Uno degli aspetti più impressionanti della dimostrazione è stata la capacità del G1 di eseguire movimenti complessi. Il tutto con una fluidità paragonabile a quella umana. L’agilità del robot deriva da un lungo processo di apprendimento virtuale. Quest’ultimo inizia all’interno di un ambiente simulato grazie alla tecnologia Isaac di Nvidia. Qui, il robot acquisisce comportamenti complessi e li perfeziona attraverso l’apprendimento per rinforzo. Per poi trasferire tali competenze al mondo reale grazie alla metodologia Sim2Real.
Tale approccio consente al G1 di adattarsi rapidamente a situazioni impreviste. Come mantenere l’equilibrio dopo essere stato spinto o rialzarsi autonomamente da una caduta. Dal punto di vista hardware, il G1 è dotato di 23 gradi di libertà (DoF). Un elemento chiave per garantire la stabilità e la fluidità dei movimenti. Il robot presenta un’altezza di 1,32 metri e un peso di 35 chilogrammi. Il suo design compatto e pieghevole lo rende ideale per test e sperimentazioni in ambienti diversi. La presenza di sensori avanzati, tra cui LiDAR 3D, una telecamera di profondità RealSense e un sistema di riconoscimento vocale, lo rendono capace di interagire in modo sofisticato con il mondo circostante.
Un’altra innovazione di Unitree è la pubblicazione di un set di dati open-source. Ciò per migliorare il controllo motorio e la coordinazione dei robot umanoidi. Tale dataset, compatibile con i modelli G1, H1 e H1-2, consente un’ottimizzazione dei movimenti rendendoli più naturali e realistici. Utilizzando la tecnologia di motion capture LAFAN1, gli sviluppatori possono perfezionare la pianificazione dei movimenti attraverso algoritmi avanzati. Migliorando l’interazione del robot con gli ambienti reali e virtuali.