En los últimos años hemos visto diferentes interfaces capaces de “leer” las señales del cerebro y enviar esos datos a un ordenador para que este los interprete. Incluso se han comercializado varios dispositivos controladores de juegos basados en este principio. Pero en la Universidad de Duke han ido un paso más allá, construyendo una interfaz BMBI (brain-machine-brain interface, o interfaz cerebro-maquina-cerebro) que además permite al usuario sentir el mundo virtual. Experimentos realizados con primates han demostrado que este tipo de sistema les permite no solo manipular objetos virtuales sino también diferenciar sus texturas. En el futuro, tecnologías como esta podrían mejorar la calidad de vida de pacientes con dificultades motoras.
En general tendemos a asociar las interfaces que permiten controlar objetos virtuales directamente con el pensamiento con aplicaciones lúdicas. No es casualidad que cada dos o tres meses algún fabricante de periféricos presente algún dispositivos que nos promete permitirnos jugar usando solamente nuestro pensamiento. Pero existen otras aplicaciones para estas tecnologías, usos que si bien pueden no ser tan masivos, resultan casi indispensables para quienes las utilizan. Muchos pacientes que se ven impedidos de utilizar sus miembros pueden controlar dispositivos o artefactos del hogar, e incluso navegar por internet, escribir textos o manipular las hojas de un libro electrónico. Este tipo de interfaz casi siempre ha permitido la conexión en el sentido mente-máquina, pero los científicos de la Universidad de Duke han mejorado el sistema agregando la posibilidad de que la “máquina” (el ordenador en este caso) también pueda enviar datos al cerebro del usuario.
En efecto, un equipo de especialistas dirigido por el neurocientífico Miguel Nicolelis ha construido lo que llaman interfaz cerebro-maquina-cerebro (BMBI, por brain-machine-brain interface), un dispositivo que no solo permite controlar objetos virtuales sino recibir también una realimentación por parte del ordenador. Los primeros experimentos, realizados con primates, demuestran que el sistema BMBI funciona. Los simios fueron capaces de mover cuerpos virtuales y “sentir” los objetos que estos cuerpos manipulaban. El sistema requiere -al menos por ahora- del implante de algunos electrodos en el cerebro, motivo que explica el porque de la experimentación con animales. Pero funciona tan bien que permite diferenciar objetos por su textura. Una pareja de monos conectados de esta forma y controlando cada uno un “mono virtual” fue capaz de reconocer al otro e identificar objetos por la forma en que se “sentían”.
Un sistema como este, mejorado para hacer innecesarios los implantes, podría ser de mucha utilidad para aquellas personas con dificultades motoras. Nicolelis explica que “dado que ninguna parte del cuerpo físico del animal estaba involucrada en la operación de esta interfaz cerebro-máquina-cerebro, los experimentos realizados sugieren que en el futuros los pacientes gravemente paralizados debido a lesiones en su médula espinal podrían aprovechar esta tecnología, no sólo para recuperar la movilidad, sino también restituir su sentido del tacto.” Es posible que pasen algunos años hasta que lo que hoy es un prototipo experimental se convierta en una herramienta útil, pero el experto confía en sus posibilidades, y va aún más allá: “algún los pacientes tetrapléjicos aprovecharán esta tecnología no sólo para mover los brazos y las manos y volver a caminar, sino también a sentir la textura de los objetos colocados en sus manos, o los matices del terreno por el que se desplazan con la ayuda de un exoesqueleto robótico.“