Entre 1950 y 1970, las investigaciones sobre Inteligencia Artificial (IA) se orientaron casi exclusivamente a descubrir las reglas del pensamiento. Pero ese enfoque demostró ser mucho más complicado de lo imaginado. Luego, los científicos pusieron todo su empeño en el campo de las probabilidades, buscando patrones estadísticos que permitiesen a los ordenadores aprender a partir de grandes conjuntos de datos, y también fracasaron. Ahora, científicos del MIT intentan combinar ambas técnicas para lograr -finalmente- avances importantes en las ciencias cognitivas.
El enfoque probabilístico ha sido responsable de la mayor parte de los avances recientes en Inteligencia Artificial (IA). Gracias a este paradigma son posibles los sistemas de reconocimiento de voz, o el sistema de Netflix que recomienda películas a sus suscriptores. Pero Noah Goodman, un científico del departamento de Ciencias Cognitivas y del Cerebro del MIT, que trabaja en el laboratorio de Ciencias de la Computación e Inteligencia Artificial, opina que la IA sacrificó demasiado cuando abandonó el uso de reglas. Googman cree que combinando lo mejor de los antiguos sistemas basados en reglas con los resultados de los más recientes sistemas probabilísticos se podría desarrollar una nueva forma de modelar el pensamiento. Si está en lo cierto, esto revolucionaría tanto la IA como las ciencias cognitivas en general.
Los primeros investigadores que se interesaron por la Inteligencia Artificial intentaron modelar el pensamiento como una colección de reglas lógicas: si sabemos que las aves pueden volar, y te dicen que una paloma es una ave, deduces que las palomas vuelan. No está nada mal, pero no siempre funciona tan bien como puede parecer a primera vista. Este enfoque requiere de una enunciación de las premisas utilizando un lenguaje extremadamente riguroso, como para que el ordenador pueda extraer conclusiones sin luchar contra las ambigüedades que normalmente están presentes en una conversación típica. Durante años, los investigadores usaron reglas para codificar muchas de las afirmaciones con sentido común, y las almacenaron en grandes bases de datos. Pero el sistema tiene un problema, y es que todas las reglas tienen alguna excepción. En efecto, así como no todas las aves pueden volar, cada regla de la base de datos contiene algún caso atípico que puede provocar que las conclusiones extraídas por el ordenador sean completos disparates (“Los pingüinos pueden volar”, por ejemplo). Los especialistas descubrieron que el desarrollo de la IA basada en reglas era mucho más difícil de lo previsto.
Cuando descubrieron esto, intentaron un enfoque basado en la probabilística. Dejaron las reglas rígidas de lado, y escribieron programas capaces de “aprender” a partir de una gran cantidad de ejemplos que se ponían a su disposición. Se alimentaba al sistema con una serie de imágenes de aves, y este infería por sí solo que tenían en común los elementos integrantes del grupo. A pesar de que puede parecer más complicado que el enfoque basado en reglas, la probabilística funciona bastante bien con conceptos concretos como el “pájaro“, aunque suele presentar problemas con temas más abstractos como “vuelo”, ya que es una característica compartida por las aves, los helicópteros, las cometas y los superhéroes. Cuando se ponían a disposición del sistema de IA una cantidad de fotos de “cosas” volando para que intentase encontrar que es lo que tenían en común, a menudo el software se “confundía” por la presencia de nubes, el sol o las antenas en la parte superior de los edificios. Si tenemos en cuenta que “vuelo” es un concepto bastante sencillo comparado con otros como “gramática” o “maternidad”, comenzamos a avizorar los problemas de este enfoque.
Para enfrentar estas dificultades, Goodman ha desarrollado un lenguaje de programación de ordenadores llamado Church (como reconocimiento al el gran lógico estadounidense Alonzo Church) que, igual que los primeros lenguajes de IA, incluye reglas de inferencia. Pero esas normas son probabilísticas. Al establecer que una paloma es un ave, un programa escrito en Church daría como respuesta que hay una determinada probabilidad que esta pueda volar. A medida que se le proporciona mas información (“La paloma está herida” o “La paloma tiene 2 días de vida”) el sistema modifica su estimación de probabilidad inicial, concluyendo que quizás esa paloma en concreto no pueda volar. A medida que aprenden más sobre los pingüinos y los petirrojos enjaulados o las aves con alas rotas, los programas escritos en Church revisan sus probabilidades. Googman dice que esta es la forma en que los seres humanos aprenden conceptos nuevos y “actualizan” los antiguos.
“Lo más genial que tiene esto es que nos permite construir un modelo cognitivo de una forma mucho más directa y transparente de lo que podíamos hacer antes“, dice Nick Chater, profesor de ciencias cognitivas del University College de Londres. “Imaginar todas las cosas que el ser humano conoce y tratar de incluirlas en una lista es un trabajo interminable, y podría incluso ser una tarea infinita.” Pero el truco que está utilizando Goodman consiste en establecer algunas reglas básicas, y dejar que el sistema -de forma análoga al cerebro humano- utilice el cálculo probabilístico, ponga en la balanza todas las consecuencias e inferencias, y obtenga resultados a partir de eso. Se trata de un enfoque muy reciente, por lo que todavía no se conocen exactamente los inconvenientes que pueden aparecer cuando se profundice el análisis de sus posibilidades. Pero la opinión general es que Church y las ideas de Goodman pueden cambiar radicalmente el desarrollo de la IA. Dado el aparente estancamiento en el que se encuentra esta rama de la ciencia, este soplo de aire fresco seguramente será bienvenido. Quizás finalmente podamos tener sistemas capaces de realizar diagnósticos médicos o bursátiles que realmente funcionen. ¿No crees?