Un equipo de investigadores de la Agencia de Ciencia y Tecnología de Japón ha dado con un modelo de control remoto de robots que podría ser uno de los más avanzados hasta el momento. Se trata de TouchMe, unainterfaz de realidad aumentada para controlar un robot y hacerle realizar tareas a distancia mientras se lo observa en tercera persona. Como si se tratara de un videojuego, tocas la pantalla y el programa te muestra el movimiento que realizará el robot antes de que lo ejecute, evitando errores que en la vida real se pagan caros.
Los tecnólogos expertos dicen que la realidad aumentada, dado el avance de su desarrollo, debería haber explotado el año anterior. A juzgar por el contexto, no estamos ni cerca de ello. E incluso algunos fanáticos de la realidad distorsionada dicen que los que vamos a explotar en el 2012, somos los humanos. Pero dejando de lado lo que no es y lo que debería ser, vamos con lo que existe, que es una realidad aumentada mayoritariamente hace interactuar al humano con el medio que lo rodea. ¿Pero qué pasa si en el medio de esta ecuación ambiente-humano ponemos otra variable? ¿Y qué si es un robot? Touchme es una interfaz que se ocupa de ponernos al mando de un robot mediante una pantalla para que, a distancia, podamos utilizarlo para tomar objetos e interactuar con el medio físico de una forma diferente.
En palabras que todos podemos comprender, Touchme es una interfaz basada en realidad aumentada para el control remoto de un robot a partir de una vista en tercera persona. Este sistema permite al usuario manipular cada parte del robot y su interacción con los objetos tocando directamente con sus dedos sobre una pantalla. El “mundo” en el que se ve al robot por la pantalla está filmado desde un determinado ángulo, permitiendo tener un control absoluto tanto del robot como del contexto en el que se mueve. Como se ve en el vídeo, TouchMe tiene tres métodos de interacción táctil para controlar el robot. Apenas toquemos sobre una parte a determinar del robot, se nos presentará un aro de movimiento que tendremos que girar hacia la dirección deseada para mover al robot. Por supuesto, antes de que el movimiento se confirme y se realice, tendremos una pequeña imagen sobre la pantalla sobre cuál será la posición final del robot una vez ejecutemos la acción.
El que acabamos de describir es un movimiento after-touch. Es decir, que luego de que demos la orden y veamos la acción animada, el robot se comenzará a mover. Pero como dijimos antes, el TouchMe tiene 3 métodos de funcionamiento y respuesta a las órdenes que le damos. La segunda variante es Move-during-touch. El robot se mueve instantáneamente y sólo con un pequeño retraso mientras que nosotros dibujamos el movimiento con nuestros dedos sobre la pantalla. El tercer movimiento es el during-and-after-touch, una combinación del primer y segundo que logra un movimiento más fluido pero con capacidad de modificarte sobre la marcha. Este tipo de técnicas hacen al TouchMe de una herramienta muy avanzada a la hora de manipular objetos peligrosos, como bombas o lidiar con el tratamiento seguro de enfermedades de contagio directo sin que el operador pierda detalle y especificidad sobre las operaciones.
Me hace recordar el modo de funcionamiento del Sistema Robótico Quirúrgico Da Vinci.