Il robot umanoide G1 di Unitree, proveniente dalla Cina, ha recentemente dimostrato la sua abilità nel padroneggiare il valzer, imitando con precisione i movimenti umani. Questo risultato è stato reso possibile grazie al lavoro di un team dell’Università della California, San Diego, che ha sviluppato ExBody2, un sistema di intelligenza artificiale progettato per consentire ai robot di imitare e eseguire movimenti umani in modo realistico e fluido.
ExBody2 è stato testato su due robot umanoidi, che hanno dimostrato di poter eseguire una vasta gamma di compiti, dal semplice camminare e accovacciarsi a movimenti più complessi come routine di danza, lancio di pugni e valzer. Gli esperti sottolineano che l’algoritmo ha permesso al robot umanoide di eseguire movimenti stabili ed espressivi, combinando un dataset accuratamente curato con il tracciamento del corpo disaccoppiato e un controllo preciso della velocità.
I robot umanoidi, grazie alla loro struttura simile a quella umana, hanno il potenziale per replicare i movimenti umani e svolgere attività quotidiane. Tuttavia, le sfide legate al controllo ad alta dimensione e alle limitazioni fisiche hanno finora ostacolato lo sviluppo di comportamenti stabili ed espressivi per applicazioni pratiche.
Il controllo dell’intero corpo nei robot umanoidi si confronta con le complessità dovute alla non linearità del sistema. Mentre i metodi tradizionali si basano sulla modellazione della dinamica, l’utilizzo di tecniche come il reinforcement learning e i progressi sim-to-real ha permesso di acquisire abilità complesse, sebbene ancora manchi di espressività.
L’imitazione del movimento si concentra sulla manipolazione precisa e sui comportamenti realistici, utilizzando dati di cattura del movimento umano e richiedendo un controllo fine e un equilibrio. Sebbene siano stati compiuti progressi nell’imitazione del movimento basata sulla fisica in simulazione, l’applicazione pratica rimane ancora una sfida.
Nella nuova ricerca, il team ha adottato un approccio che sfrutta dataset di movimento umano e modelli generativi per addestrare i robot a eseguire movimenti espressivi e fisicamente plausibili. Il Controllo Avanzato Espressivo dell’Intero Corpo (ExBody2) è stato progettato come un framework per massimizzare il realismo e la stabilità dei movimenti nei robot umanoidi.
ExBody2 utilizza un processo Sim2Real per addestrare i robot a tradurre i dati di movimento in azioni nel mondo reale, consentendo loro di replicare in modo efficace i movimenti umani. Questo approccio ha portato diversi importanti progressi, tra cui la costruzione di dataset di addestramento diversificati, l’utilizzo di un metodo di addestramento insegnante-studente con reinforcement learning e l’applicazione di una strategia di tracciamento locale per migliorare la precisione.
Testato su due piattaforme robotiche, ExBody2 ha dimostrato di superare i metodi esistenti in termini di accuratezza del tracciamento e stabilità del movimento. Il team ha evidenziato l’importanza della qualità del dataset e dell’addestramento bilanciato, sottolineando che ExBody2 eccelle nel tracciamento del corpo superiore e inferiore, nonché nell’accuratezza della velocità.
Integrando questi progressi, ExBody2 consente ai robot umanoidi di eseguire movimenti espressivi e stabili dell’intero corpo, riducendo il divario tra le capacità umane e le applicazioni robotiche. Tuttavia, rimane una sfida aperta l’identificazione di dataset di alta qualità per l’addestramento dei robot umanoidi in modo automatizzato, un obiettivo che il team si propone di affrontare nel futuro prossimo.
Fonti e Riferimenti dell'Articolo: