La habitación china es un experimento mental, popularizado por Roger Penrose, que intenta rebatir la validez del Test de Turing a la vez que plantea que una máquina es incapaz de llegar a pensar. Expone la diferencia que existe entre reconocer la sintaxis y comprender la semántica, proponiendo que una habitación cerrada con un mecanismo dotado de la cantidad suficiente de reglas puede hacerse pasar por una persona. Pero, ¿tiene ese sistema algún tipo de conciencia o “mente”? El experimento plantea que la mente humana no funciona como un programa de ordenador, ni un programa de ordenador puede ser una mente. Sigue leyendo, quizás no seas más que una pobre máquina que cree que existe.
Hace unos 100 años, hasta el mismo Einstein mencionaba que su cerebro era un excelente laboratorio, en el que podía plantear los experimentos más audaces sin ninguna limitación. La habitación china es un experimento mental de este tipo, que originalmente fue propuesto por el filósofo John Searle y más tarde popularizado por el físico y matemático Roger Penrose. El objetivo del experimento de Searle es nada más ni nada menos que derribar de un plumazo la idea de que nuestra mente es similar a un programa de ordenador. La habitación china busca demostrarnos que una máquina puede realizar una acción sin entender lo que hace y el por qué lo hace. La lógica usada por los ordenadores simplemente opera con símbolos sin comprender el verdadero contenido, un proceso completamente distinto al que (creemos que) ocurre en los seres humanos.
Supongamos que logramos construir una máquina del tamaño de una habitación, aparentemente capaz de entender el idioma chino, que funciona de la siguiente manera: cuando recibe en su entrada textos en idioma chino, realiza un proceso interno y emite como respuesta (coherente) otro texto en chino. Una máquina como esa podría pasar sin dificultad el Test de Turing, ya que puede convencer a cualquier chino que entiende su idioma.
Searle nos propone que imaginemos que, en lugar de un mecanismo, dentro de la habitación se encuentra una persona que no tiene la más mínima idea del idioma chino. Se encuentra completamente aislada del exterior, salvo por la ranura por la que entran y salen las hojas de papel, con los textos escritos en chino. Esta persona tiene a su disposición, dentro de la sala, una serie de manuales y diccionarios que le indican las reglas que relacionan los caracteres chinos de entrada con los que debe escribir para enviar a la salida. Básicamente, una serie de premisas del tipo “si entran tales caracteres, escribe tales otros“. Fuera de esta sala está el mismo chino que creyó que el ordenador hipotético mencionado antes entendía su idioma.
Searle explica que la habitación china tiene la capacidad de hacerle creer a la persona que interactúa con ella que comprende el idioma chino, a pesar de que quien está en su interior nunca haya hablado o leído ese idioma. En este momento podemos plantearnos algunas cuestiones bastante espinosas. ¿Cómo puede el operador responder si no entiende el idioma chino? ¿Son los manuales y diccionarios los que saben chino? ¿Es el sistema completo (habitación, operador y diccionarios) el que entiende chino?
Searle y Penrose dicen que los defensores de la “inteligencia artificial fuerte”, aquellos que defienden la postura de que un programa de ordenador eventualmente podrá comprender el lenguaje natural y poseer propiedades de la mente humana (no simplemente simularlas), deben admitir que, o bien la sala comprende el idioma chino, o bien el pasar el test de Turing no es prueba suficiente de inteligencia. Ya que ninguno de los componentes del experimento comprende el chino, sus creadores sostienen que aunque el conjunto de las partes sea capaz de superar el Test, no podemos decir que la persona (o el ordenador) que se encuentra dentro de la sala “entienda” chino.
Este razonamiento, que no tiene fisuras evidentes, ataca frontalmente la idea de que nuestra mente es similar a un programa de ordenador. Los defensores de la inteligencia artificial fuerte sostienen que nuestra mente funciona igual que un programa de ordenador, y que nuestro cerebro no es más que un “ordenador biológico”. La mente, en este paradigma, sería para el cerebro lo que un programa es para el ordenador. En este esquema, un ordenador convenientemente programado para simular la inteligencia humana (como el que se encontraría dentro de la habitación china), no sólo es una simulación de inteligencia sino que es inteligencia.
Para los defensores de la IA fuerte, los ordenadores digitales pueden tener mente. Searle, por el contrario, cree que a pesar de que un ordenador puede realizar operaciones de manera completamente formal, expresadas en términos de símbolos abstractos (unos y ceros, textos en chino, etc.) no tiene la más pálida idea de lo que está haciendo. Para el ordenador, esos símbolos no se refieren a nada, no tienen significado, no tienen contenido semántico y la máquina no tiene “conciencia” de sí misma.
Searle clava una espina en el corazón mismo de la Inteligencia Artificial. Nuestros estados mentales, sostiene, sí tienen contenido semántico (más allá de los rasgos formales que puedan tener). Cuando nuestros pensamientos versan sobre algo -un paseo por la playa o una cena- no solo tienen forma sino también contenido, o dicho de otra forma, no sólo tienen sintaxis sino también semántica. Searle lo resume en una frase: “La sintaxis sola no es suficiente para la semántica y los ordenadores digitales en tanto que son ordenadores tienen, por definición, solamente sintaxis”. Amén.
El señor que está dentro de la habitación china no conoce más que la sintaxis del idioma. Desconoce por completo el contenido de los mensajes. Los “programadores” que están fuera de la habitación introducen “preguntas” y la persona dentro de la sala emite “respuestas” válidas, gracias a sus diccionarios y manuales. Para los que están en el exterior, la habitación es experta en chino. Pero la realidad es que quien está en su interior -sea el hombre o el mecanismo del primer caso- no tiene idea del significado de esos garabatos que lee y escribe.
¿Cual es la importancia de la habitación china? Que manipular símbolos en base a su forma (sintaxis) no significa que conozcamos su contenido semántico. El argumento de Searle, si es válido, representa un duro golpe para la inteligencia artificial. Significa ni más ni menos que no es posible crear “inteligencia de verdad” mediante un programas de ordenador. Podemos simular todo lo que queramos, y engañarnos creyendo que en las tripas de la maquina existe la inteligencia. Pero independientemente del progreso tecnológico que alcancemos, una máquina que aplique reglas no será otra cosa que la habitación china, y por lo tanto incapaz de tener conciencia.
Es más: los que defienden el punto de vista de la Inteligencia Artificial fuerte, de alguna manera están diciendo que los humanos también somos simplemente una habitación china llena de reglas. Si están en lo cierto, nos engañarnos a nosotros mismos de una forma espantosa: creemos tener conciencia, suponemos que “sabemos y entendemos” la realidad cuando en realidad somos iguales al ordenador que cree saber chino.
¿Cómo sabe el hombre que “sabe”? o más profundo aún, ¿por qué sabe el hombre que existe? Todos los estímulos que recibimos al ver, tocar, oler u oír pueden ser simulados a través de métodos apropiados por un ordenador, así que en eso tampoco podemos basarnos para establecer una diferencia. Si Searle y Penrose se equivocan, no nos diferenciamos en nada de una máquina llena de reglas. Si están en lo cierto, tenemos “algo” que nos hace distintos y que un ordenador jamas podrá tener. ¿Qué crees?