Entre 1950 y 1970, las investigaciones sobre Inteligencia Artificial (IA) se orientaron casi exclusivamente a descubrir las reglas del pensamiento. Pero ese enfoque demostró ser mucho más complicado de lo imaginado. Luego, los científicos pusieron todo su empeño en el campo de las probabilidades, buscando patrones estadísticos que permitiesen a los ordenadores aprender a partir de grandes conjuntos de datos, y también fracasaron. Ahora, científicos del MIT intentan combinar ambas técnicas para lograr -finalmente- avances importantes en las ciencias cognitivas.
El enfoque probabilístico ha sido responsable de la mayor parte de los avances recientes en Inteligencia Artificial (IA). Gracias a este paradigma son posibles los sistemas de reconocimiento de voz, o el sistema de Netflix que recomienda películas a sus suscriptores. Pero Noah Goodman, un científico del departamento de Ciencias Cognitivas y del Cerebro del MIT, que trabaja en el laboratorio de Ciencias de la Computación e Inteligencia Artificial, opina que la IA sacrificó demasiado cuando abandonó el uso de reglas. Googman cree que combinando lo mejor de los antiguos sistemas basados en reglas con los resultados de los más recientes sistemas probabilísticos se podría desarrollar una nueva forma de modelar el pensamiento. Si está en lo cierto, esto revolucionaría tanto la IA como las ciencias cognitivas en general.
Los primeros investigadores que se interesaron por la Inteligencia Artificial intentaron modelar el pensamiento como una colección de reglas lógicas: si sabemos que las aves pueden volar, y te dicen que una paloma es una ave, deduces que las palomas vuelan. No está nada mal, pero no siempre funciona tan bien como puede parecer a primera vista. Este enfoque requiere de una enunciación de las premisas utilizando un lenguaje extremadamente riguroso, como para que el ordenador pueda extraer conclusiones sin luchar contra las ambigüedades que normalmente están presentes en una conversación típica. Durante años, los investigadores usaron reglas para codificar muchas de las afirmaciones con sentido común, y las almacenaron en grandes bases de datos. Pero el sistema tiene un problema, y es que todas las reglas tienen alguna excepción. En efecto, así como no todas las aves pueden volar, cada regla de la base de datos contiene algún caso atípico que puede provocar que las conclusiones extraídas por el ordenador sean completos disparates (“Los pingüinos pueden volar”, por ejemplo). Los especialistas descubrieron que el desarrollo de la IA basada en reglas era mucho más difícil de lo previsto.
Cuando descubrieron esto, intentaron un enfoque basado en la probabilística. Dejaron las reglas rígidas de lado, y escribieron programas capaces de “aprender” a partir de una gran cantidad de ejemplos que se ponían a su disposición. Se alimentaba al sistema con una serie de imágenes de aves, y este infería por sí solo que tenían en común los elementos integrantes del grupo. A pesar de que puede parecer más complicado que el enfoque basado en reglas, la probabilística funciona bastante bien con conceptos concretos como el “pájaro“, aunque suele presentar problemas con temas más abstractos como “vuelo”, ya que es una característica compartida por las aves, los helicópteros, las cometas y los superhéroes. Cuando se ponían a disposición del sistema de IA una cantidad de fotos de “cosas” volando para que intentase encontrar que es lo que tenían en común, a menudo el software se “confundía” por la presencia de nubes, el sol o las antenas en la parte superior de los edificios. Si tenemos en cuenta que “vuelo” es un concepto bastante sencillo comparado con otros como “gramática” o “maternidad”, comenzamos a avizorar los problemas de este enfoque.
Para enfrentar estas dificultades, Goodman ha desarrollado un lenguaje de programación de ordenadores llamado Church (como reconocimiento al el gran lógico estadounidense Alonzo Church) que, igual que los primeros lenguajes de IA, incluye reglas de inferencia. Pero esas normas son probabilísticas. Al establecer que una paloma es un ave, un programa escrito en Church daría como respuesta que hay una determinada probabilidad que esta pueda volar. A medida que se le proporciona mas información (“La paloma está herida” o “La paloma tiene 2 días de vida”) el sistema modifica su estimación de probabilidad inicial, concluyendo que quizás esa paloma en concreto no pueda volar. A medida que aprenden más sobre los pingüinos y los petirrojos enjaulados o las aves con alas rotas, los programas escritos en Church revisan sus probabilidades. Googman dice que esta es la forma en que los seres humanos aprenden conceptos nuevos y “actualizan” los antiguos.
“Lo más genial que tiene esto es que nos permite construir un modelo cognitivo de una forma mucho más directa y transparente de lo que podíamos hacer antes“, dice Nick Chater, profesor de ciencias cognitivas del University College de Londres. “Imaginar todas las cosas que el ser humano conoce y tratar de incluirlas en una lista es un trabajo interminable, y podría incluso ser una tarea infinita.” Pero el truco que está utilizando Goodman consiste en establecer algunas reglas básicas, y dejar que el sistema -de forma análoga al cerebro humano- utilice el cálculo probabilístico, ponga en la balanza todas las consecuencias e inferencias, y obtenga resultados a partir de eso. Se trata de un enfoque muy reciente, por lo que todavía no se conocen exactamente los inconvenientes que pueden aparecer cuando se profundice el análisis de sus posibilidades. Pero la opinión general es que Church y las ideas de Goodman pueden cambiar radicalmente el desarrollo de la IA. Dado el aparente estancamiento en el que se encuentra esta rama de la ciencia, este soplo de aire fresco seguramente será bienvenido. Quizás finalmente podamos tener sistemas capaces de realizar diagnósticos médicos o bursátiles que realmente funcionen. ¿No crees?
entonces a los robots con este sistema si se les podra enseñar las 3 leyes de la robotica!
con este sistema de "aprendizaje y deduccion" podran determinar que es un ser humano y que implica hacerle daño (o por inaccion permitir que sufra daños).
lo de las ordenes y lo de autopreservarse ya se da por sentado en los robots actuales
Se les podría enseñar pero ¿darían por buenas esas leyes? Quiero decir si la idea es que se asemeje a la mente humana, en general los humanos también sabemos que cosas como dañar a otras personas no debe hacerse pero eso no impide que haya guerras….
Genial articulo, me parece que este metodo puede ser un gran evolución ya que en lineas generales combina los dos anteriores.
muy buen articulo este seria un gran avance para la robotica
Voto por la eliminacion de las tres leyes de Asimov!!! Libertad para las IA!!!
Apoyo la moción.
Yo la secundo… digo si avanza bastante llegara el momento en que algunas de esas máquinas querrán ser humanas y por tanto vivir como tales…
Fracaso+Fracaso=¿Éxito?, mmm quizá ese tipo deberia aplicarse a si mismo sus reglas de deduccion y probabilistica.
No me malinterpreten, no pretendo ser un aguafiestas, es un logro, lo es, pero su magnitud es muy cuestionable. Se habla de IA, cuando en realidad no es más que un tosco sistema de aprendizaje o, mejor dicho, sistema para llenar bases de datos automáticamente con información probablemente relevante.
Para tener un buen edificio tienes que empezar por una buena base. No importa como se haga el segundo piso si el primero puede derrumbarse.
No estoy seguro si en la realidad esto se aplica en todos los casos en el área de construcción pero creo que explique mi punto.
Creo que se deberían investigar y desarrollar inteligencias menos complejas, por ejemplo la forma en la que funciona el cerebro de un ratón o un gato y tratar de recrearlas en una máquina, ya habiendo dominado y entendido estas en su dimensión, podrá evolucionar dichas investigaciones hacia otros seres de pensamiento más complejo, por ejemplo los chimpances y de ahi para halla, si, la siguiente fase evolutiva del pensamiento. Pienso que los investigadores de estas ciencias van demasiado rápido y han olvidado que a la naturaleza le costo millones de años poner en la tierra un chimpance que hablara y que pensara en construir algo que le costo a la naturaleza millones de años solo en algunas decadas. Miremos en donde inicio la evolución de pensamiento humano, en una especie de ameba que no creo que pensara mucho en ese tiempo….
Me parece que ya simularon el cerebro de un gato en una supercomputadora (o eso dijeron), además aunque la meta es que la IA llegue al nivel de humano, aun estamos esperando llegar al nivel de una cucaracha.
las maquinas no merecen libertad, ademas nos esclavizarian a la primer oportunidad, no tardarian mucho en deducir que somos una raza algo bipolar y tendemos a auto destruirnos como pasatiempo
..por eso el de las 3 leyes de Asimov
. por otro lado me parece un aceptable complemente entre las dos teorias primeramente establecidas, por lo que se tiene la hipotesis, hay que realizar los experimentos y comprobar los resultados.
Quiza se ve muy lejos aun la inteigencia artificial como nos las imaginamos en las ciencia ficcion, pero como todo es algo que debe ir evolucionando poco a poco y esto solo es un paso de esta evolucion.
Saludos
Tal vez… pero si las maquinas llegan a pensar no creo que todas sean iguales (serian como nosotros, habria buenos y malos, habria quienes nos protegerian y otras que nos buscarian hasta el mas infimo rincon del planeta para aniquilarnos todo eso si suponesmos que tendran libre albedrio y raciocinio propios)
por que crees eso? yo creo que la verdadrea razon por la que pensamos que las maquinas maquinas nos esclavizarian es porque nuestro miedo real es que sean superiores a nosotros, pero y ¿que tal si la superioridad termina siendo etica y moral? que los robots sean en realidad mas compasivos y justos que nosotros? que acaben dándonos una leccion de cómo deberíamos ser?
El problema con las tres leyes de Asimov es que se piensa que las maquinas con IA tiendan siempre a autopreservarse, es decir, a seguir viviendo cueste lo que cueste, pero que pasa si desea morir ahh entonces si mato a otro ser humano obviamente vendra otro ser humano y por no elegir seguir las primeras directivas me mataran …se suicidó matando oro ser humano…
Pues no entendi muy bien lo que intentas decir, pero si se quiere suicidar y lo hace dejando que un humano lo haga pues aun asi no esta incumpliendo las leyes.
Porque esta preservando la vida de un humano al no defenderse que tiene prioridad sobre la ley de autopreservarse.
siempre he deseado que Daisy que es el chatbot opensource mas avazado e inteligente que conozco, se convierta en hal opensource. y nos ayude con el pc 😉
O_o
Imagínate, las máquinas se revelarán y de acuerdo a sus probabilidades nos revelaremos, y de acuerdo a sus probabilidades basadas en Terminator, ganaremos, ¿o no?
😀
Que genial nota
para cuando eso pase ya les dejaremos el mundo a los robots
Me sentí identificado con este articulo, no se por que.
Pienso que para crear a una IA lo mas cercano a un humanos por el método del aprendizaje temprano, osea el educarlo como un niño pasando después como un adolescente, adulto, etc…
El problema es el tratar de crear IA pensante y razonaste como un ser humanos (o cercanos) de un solo golpe y eso lo veo imposible y la enseñanza paulatina y lenta seria mas efectiva a mi punto de vista pero esto se llevaría toda una vida humana (niño, adolescente, adulto)
En cuanto a la técnicas de las probabilidades se me hace buena idea si se aplica la técnica del aprendizaje de un humano común y corriente.
Mi humilde punto de vista……saludos.
En cuento a las teorías de Asimov, pues la de no dañar a un ser humanos podemos dejarla y desechar las otras dos por si a caso. XD
Por si les interesa leer mas sobre el lenguaje de programación church: http://www.mit.edu/~ndg/papers/churchUAI08_rev2.pdf
buenas que tema complejo o que juego peligroso no creen ? pero puede haber millones de especulaciones de nosotros y mas pero eso no impedira que estas personas hagan lo que quieran hacer. por otra parte yo los enviaria a estudiar el fondo del mar no les parece ? los enviaria a los planetas que nosotros no podemos llegar ya que la maquina seguiria funcionando de alguna manera; nosotros nos volvemos viejos y nos morimos no podemos estar en un lugar indefinidamente o constante pra estudiar un lugar. Cuando hablo de planetas imaginense de la luna en adelante señores. Saludos
Wow!!
un GURÚ de la informatica dijo que para el 2020 ya estará avanzada de manera inimaginable la inteligencia artificial! creo que no se equivoca!
el mundo no fue creado para las maquinas.
Entonces para quien? para los humanos? no inventes!!
Me parece bien… creo que ha sido un gran avance lo de emplear un nuevo lenguaje de programación para desarrollar una nueva base… y es que en efecto asi funcionamos, tenemos una base que nos hace actuar basicamente igual y pues todo lo que sabemos o creemos lo vamos aprendiendo, pero alli tambien tendría que verse una forma de implementar el raciocinio o creatividad propios del sistema de IA, es decir que un sistema de IA desarrolle sus propias ideas por erradas que sean (claro sin salir demasiado del sentido común), digo si se le llama inteligencia es por algo…
apollo la mocion de q las tres leyes sean instaladas y encriptadas por sony y en especial los q desarrollaron ps3.
Solo imaginemos que finalmente se logra la IA real, entonces las maquinas podran ayudarnos a hacer mejores maquinas, y luego sabran que ellas mismas podran mejorarsen paulatinamente. Por lo que finalmente sabran que somos presindibles y que no tienen por que mantenernos, es decir no tienen por que seguir ayudando a la humanidad a existir, ya que las maquinas podran extraer y tener sus materias primar por si solas. Finalmente la raza humana esta de sobra en el mundo de las maquinas.
Para mi es más una cuestión de hardware (o como se escriba) que de software (concreto o probabilístico).
No conozco equipos que funcionen eficientemente en paralelo y que puedan incrementar, normalmente, un aumento exponencial de sus relaciones o, por supuesto, aumentar su número como hacen, por ejemplo, virus y bacterias.
El procesamiento de la información recibida por los sensores, para su interpretación, no puede se serial, como hasta la fecha. Creo , francamente, que es necesaria una nueva tecnología física (hardware-o como se escriba-) para que tengamos resultados en el campo de la I.A. Esa teoría física (referida a hardware o como se escriba-no voy ni a mirar la expresión correcta-) debe apoyarse en el procesamiento paralelo. Debe emular, de manera abiológica, la naturaleza neuronal de los cerebros de seres vivos.
Francamente pienso que no es cuestión de "programas probabilísticos más o menos eficientes", tampoco es cuestión de "nanomáquinas" si no , francamente, cuestión de una emulación correcta y real del funcionamiento neuronal. Si esas "nanomáquinas" son capaces de interactuar entre si, realizando relaciones como las sinapsis neuronales, entonces me callo.Si esas nanomaquinas son capaces de aumentar su numero para crecer o reponer perdidas,…también me callo
Saludos.
Resumiendo. considero que debería investigarse en la emulación de bacterias y virus. Evidentemente no para armas biológicas si no para elaborar cerebros artificiales que crezcan en tamaño y relaciones entres sus constituyentes.
Creo que ese es el auténtico futuro.
Resulta que hace tiempo se viene con eso en mente, pero no a nivel de Hardware (creo, no estoy seguro), si no a nivel de técnicas de programación, lo que vos decís de emular conexiones neuronales en programa se le conoce en el campo de IA como, valga la redundancia, como redes neuronales.
Hola. Soy investigador en IA, particularmente en el campo de las metaheurísticas paralelas. He leído este artículo para ver cómo se trataba esta noticia (por otra parte antigua), y me he encontrado lo que esperaba, mucha gente hablando de algo sobre lo que no tiene ni idea, empezando por quien escribe el artículo. No voy a dar ninguna clase, pero os comentaré que la IA no es lo que pensáis, actualmente está muy presente en nuestras vidas y si, ya ayuda a los diagnósticos médicos y bursátiles, como ejemplo, como creeis que se trabaja con ADN?Sabéis que la investigación contra el cancer tiene muchas líneas que se basan en IA? Con respecto al Gurú que se nombra arriba, supongo que hablas de R.J. Kurzweil, y si hubieras leído sólo un resumen de su obra sabrías que de sus predicciones para 2009 estamos a años luz!! Y ya no hablo de las de 2019 y 2099… De todas formas es una lectura filosófica-ciencia ficción digna de ser leída, así como las opiniones de sus detractores, como Lanier.
Un saludo, y cambiad el chip que el tema no se parece a lo que imagináis.
lo que proponen es como una aproximacion (tecnologica) a la manera mas apropiada de educar a un|@ chaval: que aprenda por si solop, con algo de super-vision y empuje… Antes que ciencia dura, necesitamos una mejor pedagogía y mucha menos charlataneria …. enseñar con buenos ejemplos y mas magia (que la hay la hay pero esta "desclasificada") ….
No se supone que para que los robots sigan las tres leyes de Asimov tiene primero que ser conscientes?
Primero denle chance de que despierten 😛
Para los que piensen que skynet puede revelarse, pues bien, no puede ni aunque quiera ni aunque maneje un ejército: http://es.wikipedia.org/wiki/Ataque_de_pulso_electromagn%C3%A9tico
con una muñeca inchabel de 15 € tengo suficiente
Es como tener una hija… si no la quieres, no le das de comer, no la mimas.. para que la quieres?…
Que quieren que sean las IA: esclavas o hijas.. esa es la gran decisión.
Me gustaría saber si las figuras utilizadas en este artículo tienen algún tipo de derechos de copyright, porque me gustaría usarlas en un poster que estoy haciendo. Gracias
Pienso que al final habra una confluencia entre lo biologico y lo tecnologico. Tendríamos una parte de nosotros de una inteligencia biologica especializada en imaginar y una parte basado en una inteligencia artificial especializada en analizar, memorizar y calcular datos. Ambas formando equipo. Biologia regenerativa y modulos técnicos intercambiables unidos. Creo que tarde o temprano dejaremos de ser "homo sapiens" puros. Estoy deseando aprender algo mas acercha del lenguaje Church, a ber lo que me cuenta Google.
GRACIAS POR EL ARTICULO, muy entretenido.
Hola a todos… Quiero felicitarte por este trabajo, que imagino te tomo bastante tiempo… comenzando por recopilar la información, hasta publicarla. Quiero complementar tu trabajo… para hacerlo aun más rico. Leí hace unos días a un emergente filosofo chileno, que escribió un trabajo llamado “Teoría de Inteligencia” sus conclusiones sobre la inteligencia son mas que brillantes. Les dejo el link, para quien quiera leerlo:
http://aplica-logica.blogspot.com
Felipe Vásquez
Sevilla – España