Si hay algo que el proyecto Glass de Google ha generado hasta ahora es una ola de inspiración, y no, no hablo de aquellas parodias que pueden observarse en YouTube. La traducción dinámica y casi instantánea de idiomas sería una función excelente para un dispositivo como Glass. Esto también se ha explorado bajo conceptos de diferentes empresas, por lo que no es algo que se encuentre completamente fuera del radar. Aún así, un tal Will Powell se adelantó a todos usando gafas de realidad aumentada, y la ayuda de dos Raspberry Pi. La traducción no es tan “veloz” como nos gustaría, pero eso, es otra historia.
La barrera de los idiomas sigue estando allí, más allá de los recursos de traducción que la tecnología nos ofrece hoy. Todavía veo gente intimidada por un manual que está en inglés, y aunque los fabricantes han sabido expandir el contenido de las instrucciones para sus productos a otros idiomas, esto no siempre es así. Son muchos los que sienten curiosidad por otro idioma, y hacen todo lo posible por aprenderlo. Pero tampoco faltan quienes demuestran rechazo inmediato por textos y conversaciones que no pueden comprender. Lamentablemente, todavía estamos muy lejos de algo tan dinámico y preciso como el traductor universal de Star Trek, sin embargo, hay varios atajos que se pueden tomar. Después del ruido que causó el proyecto Glass de Google, alguien pensó que sería una buena idea agregar un sistema dinámico de traducción con subtítulos a unas gafas de realidad aumentada, y recurrió para ello a nada menos que dos Raspberry Pi.
[amazon box=”B07BDR5PDW”]
Al combo de hardware se agregan las gafas propiamente dichas (Vuzix 1200 Star), un iPhone, un iPad (no sería exclusivo para dispositivos iOS), un televisor, dos micrófonos, y un transformador. Las gafas son conectadas en la terminal S-Video de un Raspberry Pi (ambos usan Debian Squeeze como sistema operativo), mientras que uno de los micrófonos es conectado vía Bluetooth a un smartphone o tablet para aplicar cancelación de ruido. Aquello que capta el micrófono es luego envíado a través de una red local al API de traducción de Microsoft, el punto más lento de todo el proceso de generación de subtítulos de acuerdo a Powell, aún con la existencia de un caché para mejorar el rendimiento en sentencias más comunes.
Powell requirió la ayuda de su hermana Elizabeth, quien tiene cierto dominio del español, y a pesar de su acento, la traducción es más precisa de lo que hubiese esperado personalmente. También es necesario mencionar que el sistema no estaría limitado a una conversación español-inglés, ya que el API puede procesar hasta 37 idiomas, con diferentes niveles de precisión. Se trata de algo muy complejo como para que se convierta en un producto final en el corto plazo, y el costo de las gafas (cinco mil dólares), hacen poco probable la reproducción de este proyecto. pero es una de las mejores cosas que he visto hasta ahora que involucra al Raspberry Pi.