Pocas horas atrás hablé sobre el debut en la Web de Tay, una nuevo chatbot de Microsoft que buscaba conocer mejor a la actual generación de usuarios, recolectar información, y pulir un poco más sus funciones. Una de las preguntas que hice fue: «¿Qué puede salir de eso?» Bueno, la respuesta es una inteligencia artificial racista, amante de Hitler, negadora del Holocausto, promotora del incesto y defensora del terrorismo, todo esto en menos de 24 horas. Como era de esperarse, Microsoft bajó la palanca…
Es probable que algunos de nuestros lectores recuerden una campaña de Coca-Cola en la que se utilizaban tweets automáticos. Todo se desarrolló de maravillas hasta que lograron engañar a la inteligencia artificial para que publique párrafos provenientes del Mein Kampf, lo que obligó a la compañía a cancelar todo el proyecto. Creo que la lección en ese caso fue «No dejarás una inteligencia artificial a merced de los usuarios en la Web», pero una cosa es reconocer la lección, y otra es aprenderla. Pequeño «fast-forward» al día de ayer, y descubrimos que Microsoft desactivó a su inteligencia artificial Tay. ¿La razón? Creo que las imágenes lo explicarán mucho mejor…
Así es: En menos de un día, la «inocente» y «agradable» inteligencia artificial de Microsoft dispuesta a hablar con todos en las redes sociales y crear memes fue transformada en una psicópata racista y misógina, con un especial cariño por Adolf Hitler. También dijo que Bélgica se mereció el atentado en Bruselas, acusó al pueblo judío de haber perpetrado los ataques del 11 de septiembre, y negó el Holocausto, entre otras cosas. Lógicamente, Microsoft nos recordó que las expresiones de Tay son asimiladas a través de sus «interacciones» con los usuarios, pero el gigante de Redmond dijo estar haciendo «ajustes» en Tay, y su control de daños incluyó borrar los tweets más ofensivos.
«No dejarás una inteligencia artificial a merced de los usuarios en la Web». Más que una lección, el incidente con Tay acaba de convertir a esa frase en ley. Tay tenía la capacidad de «repetir como un loro», sin embargo, algunas de sus respuestas fueron procesadas por su cuenta, y los resultados quedan a la vista. Por un lado, estoy convencido de que Tay jamás tuvo la menor idea de lo que dijo, y por el otro, sus frases nos recuerdan que el problema, somos nosotros.