Il Jet Propulsion Lab di NASA è sempre alla ricerca di metodi nuovi per perfezionare l’interfaccia con le apparecchiature remote, sia che si tratti di rover su altri pianeti che di robot per gli interventi esterni su satelliti, veicoli o stazioni orbitanti.
Alcune di queste sperimentazioni utilizzano sistemi di tracking molto familiari ai gamer, come il Kinect 2 di Xbox One o il visore tridimensionale da testa di Oculus Rift sviluppato in crowd funding tramite Kickstarter. Stando agli ingegneri JPL, l’unione di questi due dispositivi ha fornito “l’interfaccia più immersiva” mai creata nei loro laboratori, di cui possiamo vederne un assaggio nel video caricato di recente sul canale YouTube ufficiale di OPSLabKPL. Ecco la traduzione del testo che accompagna il video:
“Grazie al nuovo sensore Kinect di Xbox One siamo in grado di manipolare il braccio robotico JACO in tempo reale. Combinando il sistema di tracciatura della posizione di Kinect e quello della rotazione di Oculus possiamo anche fornire una vista in prima persona all’operatore. I prossimi lavori includeranno l’integrazione di una serie di sensori nella scena e l’aggiunta dei risultati delle ricerche svolte nel progetto Robonaut 2 sulla Stazione Spaziale Internazionale (ISS).”
Per Alex Manzies, ingegnere di interfacce umane presso JPL, l’unione di questi due dispositivi è “niente meno che una rivoluzione”, per giunta utilizzando sistemi quasi mainstream facilmente reperibili tramite i programmi di sviluppo di Oculus e Microsoft. Menzies specifica che oltre a controllare il braccio robotico in tutte le sue possibilità, il visore 3D consente anche d'”immergere [l’operatore] nell’ambiente per sentire [il braccio] come un’estensione del suo corpo”. Vi lasciamo al video, mentre per l’approfondire vi rimandiamo all’articolo di Engadget.
Via | Engadget