Il robot e il suo operatore, con la tuta iFeel che ne permette il controllo. †
Scienza | robotica
L’Istituto Italiano di Tecnologia ha presentato iCub3, un robot umanoide che permette di “sentire e muoversi in un luogo senza esserci”. Lo hanno dimostrato visitando la Biennale di Venezia da Genova
Nel suo romanzo “The Naked Sun” (1957), lo scrittore di fantascienza Isaac Asimov ha immaginato un pianeta, Solaria, abitato nel XVII secolo da una piccolissima popolazione di umani, assistiti da migliaia di robot e collegati tra loro tramite avatar. Quando si incontrano per chiacchierare, camminare o anche mangiare, i solariani non vengono a trovarli di persona. Lo fanno senza lasciare le loro case, inviando i loro doppelgänger tecnologici, in questo caso gli ologrammi, a vicenda. Immagina di poter visitare la Biennale di Venezia senza lasciare la tua città, inviando invece un robot attraverso il quale puoi vedere cosa c’è in mostra lì. O con cui puoi anche abbracciare la guida. Non è una fantasia scientifica, è una realtà pratica con un robot, l’iCub, sviluppato dai ricercatori dell’Istituto Italiano di Tecnologia (IIT).
“Sentirsi e muoversi in un luogo senza esserci, questo è l’obiettivo principale del nuovo sistema avanzato di teleesistenza del robot iCub, chiamato anche sistema avatar iCub3”, affermano dell’IIT, con sede a Genova. Questo iCub è un robot umanoide dall’aspetto infantile, leggermente più grande delle sue versioni precedenti, pesa 33 chilogrammi e misura poco più di un metro di altezza. L’iCub3 pesa 52 chilogrammi e misura 1,25 metri. Creato da questo centro tecnologico italiano e da un consorzio formato da diverse università europee, può camminare, sedersi e persino muoversi a quattro zampe. In quanto robot sociale, il suo volto è progettato per riprodurre le espressioni facciali umane.
Lo sviluppo ora presentato è il risultato di una ricerca condotta da un team coordinato da Daniele Pucci, ricercatore principale del Laboratorio di Intelligenza Artificiale e Meccanica (AMI). Il suo obiettivo è ottenere robot umanoidi che possano fungere da avatar, corpi robotici che agiscano al posto degli umani senza sostituirli, ma lasciandoli dove non possono. Ad esempio, visitare una fiera, anche se si stanno prendendo in considerazione anche molte altre applicazioni.
molteplici usi
“Riteniamo che questa direzione di ricerca abbia un potenziale enorme in molti settori”, spiega Pucci. “Da un lato, l’attuale pandemia ci ha insegnato che sistemi avanzati di telepresenza possono diventare molto rapidamente necessari in vari settori, come l’assistenza sanitaria e la logistica. D’altra parte, gli avatar possono consentire alle persone con gravi disabilità fisiche di lavorare attraverso il corpo robotico ed eseguire compiti nel mondo reale. Questa potrebbe essere un’evoluzione delle tecnologie riabilitative e protesiche”.
Le possibilità dell’iCub3 sono state dimostrate attraverso una visita turistica. Un operatore umano che si trovava a Genova, presso la sede dell’IIT, ha ‘visitato’ il Padiglione Italia durante la 17a edizione della Mostra Internazionale di Architettura – Biennale di Venezia, a 300 chilometri di distanza. In realtà, è stata questa nuova versione del robot umanoide ad attraversare la mostra. Il primo ha gestito il secondo su una semplice connessione in fibra ottica, con solo pochi millisecondi di ritardo. “I ricercatori hanno dimostrato che il sistema trasmette la locomozione, la manipolazione, la voce e le espressioni facciali dell’operatore all’avatar del robot, ricevendo un feedback visivo, uditivo e tattile”, ha affermato IIT. In altre parole, il “turista” immobile guardava attraverso gli occhi del robot, camminava con le gambe e toccava con le mani, le cui cinque dita riproducono le stesse articolazioni di quelle umane. E ha anche sentito e parlato attraverso il suo avatar.
Il robot attraversa il padiglione italiano alla Biennale di Venezia. †
Durante la dimostrazione, il sistema iFeel di IIT ha tracciato i movimenti del corpo dell’operatore, che sono stati trasferiti all’iCub3 di Venezia. Il robot, come il suo utilizzatore a Genova, si è mosso, comprese le sue espressioni, su ‘battiti di palpebre e movimenti oculari’, che l’avatar ‘riproduce con un alto livello di fedeltà’. L’utente ha potuto ridere, parlare e stringere la mano alla guida a Venezia. E quando ha abbracciato il robot, l’operatore genovese lo ha sentito grazie alla tuta iFeel dell’IIT. Guida e utente possono anche parlare tramite Android.
“Questa è la prima volta che un sistema con tutte queste caratteristiche è stato testato con un robot umanoide con gambe per il turismo a distanza in modo che l’operatore umano possa sentire e sperimentare cosa sta succedendo dove si trova l’avatar”. Questo sistema è un prototipo e potrebbe essere ulteriormente sviluppato “per essere applicato in varie situazioni, dai soccorsi in caso di calamità all’assistenza sanitaria, e anche nel metaverso”, ha affermato Pucci.