Con la realtà virtuale nella testa dei robot

Quanto siamo vicini al futuro rappresentato nel film “Il mondo dei replicanti” (in cui l’umanità, comodamente seduta sul divano di casa, vive, interagisce e lavora per mezzo di androidi dalle fattezze in tutto e per tutto umane)? Le ultime innovazioni nel campo della robotica sembrano dimostrare che manca poco.

Un gruppo di ricerca dell’MIT ha recentemente pubblicato un lavoro in cui viene presentato un nuovo sistema per telecomandare un robot a distanza. Il punto di forza dell’approccio proposto sta nell’utilizzare tecnologie dai costi contenuti: un visore per la realtà virtuale già in commercio (l’Oculus Rift), sensori di movimento utilizzati per i videogiochi (Razer Hydra), programmi di controllo per robot esistenti ed il trasferimento dei dati via internet. Concettualmente, il sistema si basa sul modello mentale dell’homunculus, eredità del pensiero filosofico di Cartesio.

Secondo la teoria dell’homunculus, le nostre funzioni esecutive sarebbero governate da un piccolo essere, l’omuncolo appunto, situato all’interno del cervello, che osserverebbe la realtà come se assistesse ad una rappresentazione teatrale (da ciò l’espressione “teatro cartesiano”). Se da un lato questo modello è assolutamente inadeguato a descrivere l’intelligenza umana, d’altra parte ricalca molto bene la condizione di un robot telecomandato. Applicare il modello dell’homunculus al robot Baxter permette di svincolare la presenza fisica dell’uomo dalle attività produttive, sfruttando per la prima volta le capacità di entrambi al meglio. Infatti, i sistemi di telerobotica sviluppati finora sono molto specializzati: richiedono la riproduzione dello spazio di lavoro e l’imitazione dei movimenti. Tali limitazioni sono decisamente costose, complicate e scomode per gli operatori: un braccio robotico, banalmente, ha giunture e snodi che si comportano diversamente da quelli del braccio umano. Attraverso la stanza di controllo nella realtà virtuale, invece, si disaccoppiano gli stimoli e le reazioni dei due soggetti, permettendo all’uomo di sentirsi come se fosse all’interno del robot (condizione non ovvia nel caso dei sistemi fondati su mappature più semplici).


Ad esempio, nel caso del modello elementare “a pilotaggio(1) l’utente pilota il robot attraverso un elemento quale una tastiera, o un mouse, non avvertendo assolutamente la propria presenza nello spazio di lavoro. L’operatore quindi non “sente” né “vede” ciò che percepisce il robot.

L’esperienza di essere immersi e co-localizzati con il robot è introdotta dal modello “ad imitazione(2) che presenta, tuttavia, le limitazioni accennate in precedenza, dovute all’incongruenza tra le forme dei corpi dei due soggetti.

Più complesso dei precedenti è il modello “ciber-fisico(3) che introduce il concetto di spazio virtuale. Ciò è reso possibile rappresentando, all’interno di un computer, copie virtuali del robot, dell’utente e dello spazio di lavoro. Nonostante sia utilissimo per far apprendere ai robot azioni ripetitive, manca purtroppo della capacità, tipicamente umana, di adattarsi qualora le condizioni mutino nel tempo.

Il modello dell’homunculus (4 vedi anche il video al seguente link) combina il meglio dei tre metodi appena descritti: lo spazio nel quale si trova l’utente viene replicato nella realtà virtuale che a sua volta definisce l’area di funzionamento del robot. L’uomo è quindi libero di muoversi senza influenzare lo stato della macchina.

La posizione delle braccia, ad esempio, è rappresentata nella stanza di controllo da sfere colorate che l’operatore può scegliere di manipolare oppure no (vedi fig. a lato). Inoltre due telecamere ad alta definizione, poste nella testa di Baxter, creano una visione stereoscopica (ovvero da due punti di vista diversi) dello spazio di lavoro. Tale visione è quindi usata dalla corteccia visiva dell’uomo per ricostruire la tridimensionalità, come nel caso della comune visione binoculare. Questo stratagemma evita costose simulazioni grafiche. Una volta accoppiato ad altre videocamere sulle mani del robot, consente di raggiungere risultati mai ottenuti prima: il 100% di successo in attività del tipo “raccogliere e piazzare”, “assemblare”, “graffettare”.

Sistemi robotici di questo tipo potranno permettere agli uomini di lavorare in condizioni che al momento vengono considerate proibitive, sia dal punto di vista ambientale che della sicurezza. Inoltre, la riduzione dei costi e la possibilità di pilotare il robot da centinaia di chilometri di distanza, semplicemente collegandosi ad internet, aprono anche agli operai la strada del lavoro remoto.

di U.M.M.


Fonte:

Jeffrey I Lipton, Aidan J Fay, and Daniela Rus. Baxter’s Homunculus: Virtual Reality Spaces for Teleoperation in Manufacturing. arXiv. Mar. 3, 2017 (open-access): https://arxiv.org/abs/1703.01270

Video pubblicato dall’MIT: https://www.youtube.com/watch?v=4a-W3Od5-t8