Con la tecnología de NVIDIA Jetson Nano, un grupo de investigadores entrenó un decodificador neuronal de inteligencia artificial para traducir los pensamientos en movimientos individuales de los dedos

Shawn Findley, quien perdió la mano después de un accidente hace 17 años, pudo usar un decodificador de inteligencia artificial para traducir sus pensamientos en tiempo real en acciones.


Un trabajo innovador que traduce los pensamientos de un amputado en movimientos de los dedos, e incluso comandos en los videojuegos, mantiene abierta la posibilidad de que los humanos controlen casi cualquier cosa digital con sus mentes.

Utilizando GPUs, un grupo de investigadores entrenó un decodificador neuronal de inteligencia artificial capaz de ejecutarse en un sistema en módulo (SOM) compacto y eficiente en energía NVIDIA Jetson Nano para traducir los pensamientos de Shawn Findley, de 46 años, en movimientos individuales de los dedos.

 

mano neuroprotésica autónoma y portátil

 

Y si ese avance no fuera suficiente, el equipo conectó a Findley a una PC con Far Cry 5 y Raiden IV, donde hizo que su avatar del juego se moviera, saltara, incluso vuele un helicóptero virtual, usando su mente.

Es una demostración que no solo promete brindar a los amputados un control más natural y sensible sobre sus prótesis. Algún día podría dar a los usuarios capacidades casi sobrehumanas.

El esfuerzo se detalla en un documento preliminar, o preimpresión, titulado "Una mano neuroprotésica autónoma y portátil con control de dedos basado en el aprendizaje profundo (deep learning)." El documento detalla una extraordinaria colaboración interdisciplinaria detrás de un sistema que, en efecto, permite a los humanos controlar casi cualquier cosa digital con pensamientos.

"La idea es intuitiva para los gamers", comenta Anh Tuan Nguyen, autor principal del artículo y ahora investigador postdoctoral en la Universidad de Minnesota, asesorado por el profesor asociado Zhi Yang. "En lugar de asignar nuestro sistema a una mano virtual, simplemente lo asignamos a las pulsaciones de teclas, y cinco minutos más tarde, estamos jugando un videojuego", dijo Nguyen, un ávido jugador, que tiene una licenciatura en ingeniería eléctrica y un doctorado en ingeniería biomédica.

 

Aprendizaje profundo permite controlar un brazo protésico

 

En resumen, Findley, un pastor en el este de Texas que perdió la mano luego de un accidente en un taller de máquinas hace 17 años, pudo usar un decodificador de inteligencia artificial entrenado en un GPU NVIDIA TITAN X y desplegado en el NVIDIA Jetson para traducir sus pensamientos en tiempo real en acciones dentro de un entorno virtual que se ejecuta, por supuesto, en otra GPU NVIDIA, explicó Nguyen.

 

Por: Brian Caulfield desde el blog de NVIDIA