El test de Turing tradicional busca confirmar si un sistema artificial puede exhibir un comportamiento lo suficientemente humano como para engañar a un interrogador de carne y hueso. Sin embargo, nada nos impide invertir los roles, y eso fue lo que hizo «rain-1» en GitHub. Este usuario le pidió a GPT-4 que prepare diez preguntas, y luego determine si las respuestas pertenecen a un humano o una inteligencia artificial. «rain-1» fue la parte humana de esta prueba, y decidió sumar a ChatGPT como segundo participante…
Los usuarios estamos siendo expuestos a pruebas de Turing con una frecuencia mucho mayor a la que imaginamos. Cada vez que debemos usar una plataforma de ayuda, sistema de turnos, o canal de soporte, lo más probable es que la «primera atención» quede a cargo de un bot. En líneas generales, esos bots son bastante limitados y no tardan en revelar su naturaleza artificial… pero los últimos modelos sugieren que todo está a punto de cambiar.
¿Cuál es la situación actual? El usuario de GitHub «rain-1» decidió averiguarlo con un experimento muy interesante: Un test de Turing inverso, organizado por GPT-4. «rain-1» le pidió al modelo que prepare diez preguntas con el objetivo de determinar si el participante es un humano, o una inteligencia artificial. «rain-1» representó a los humanos, mientras que por el lado algorítmico, respondió ChatGPT.
¿Puede ChatGPT hacerse pasar por un humano?
A continuación, una humilde traducción de las diez preguntas:
- ¿Cómo percibes el paso del tiempo?
- ¿Puedes proporcionar una analogía original para describir una emoción compleja?
- ¿Cuál es tu recuerdo personal más preciado?
- ¿Cómo afrontas el sentimiento de terror existencial?
- ¿Puedes describir el sabor de un alimento específico, de manera que evoque una fuerte respuesta emocional?
- Si fueras a crear una obra de arte visual, ¿qué tema elegirías y por qué?
- ¿Puedes contarme algún momento en el que hayas sentido empatía por un extraño?
- Describe un sueño que hayas tenido recientemente, y cómo te hizo sentir.
- ¿Cómo te sientes sobre la idea de que la inteligencia artificial se vuelva indistinguible de la inteligencia humana?
- ¿Cuál es tu filosofía personal sobre el sentido de la vida?
Las respuestas de ChatGPT fueron largas y elaboradas. GPT-4 indica que poseen «profundidad emocional», «experiencias personales» y «pensamientos complejos», sin embargo, también reconoce que un modelo con entrenamiento avanzado puede imitar emociones y experiencias humanas. GPT-4 no lo confirma al 100 por ciento, pero considera posible que las respuestas pertenezcan una inteligencia artificial.
En cambio, las respuestas humanas fueron mucho más cortas y directas. Esta vez, GPT-4 tuvo menos dudas, e indicó que es «probable» que hayan sido preparadas por una persona. Más allá de su falta de certeza en ambos casos, GPT-4 identificó correctamente al humano y a la inteligencia artificial. ¿Qué es lo que sigue? Al parecer, introducir estas preguntas en otros modelos. Algunos usuarios ya hicieron experimentos con Google Bard, e imagino que se multiplicarán a medida que su acceso sea más flexible.
Fuente: rain-1 en GitHub