Seguramente has visto alguna película de ciencia ficción en la que al superordenador o la inteligencia artificial de turno se le zafa una tuerca, enloquece, e intenta acabar con la humanidad. A pesar de lo remañido de este argumento, lo cierto es que una situación semejante podría ocurrir algún día y -estamos seguros- no seria nada agradable. Es por eso que científicos de la Universidad de Louisville han propuesto la creación de una prisión virtual para inteligencias artificiales que nos mantenga a salvo en el futuro.
¿Cuantas veces hemos leído una historia en la que un superordenador o un ejército de robots inteligentes amenazan la existencia de la humanidad? Los escritores de Ciencia Ficción aman ese tipo de argumentos, y los avances que vamos viendo en materia de Inteligencia Artificial (IA), robótica y armas automáticas no hacen más que reforzar la idea de que un futuro semejante es posible. Ante este escenario, los científicos de la Universidad de Louisville ,en Kentucky (EE.UU.), dirigidos por Roman Yampolskiy están trabajando en unas especie de prisión virtual para mantener las inteligencias artificiales lejos del mundo real. La idea, en el fondo, es muy simple: se trata de contener la inteligencia artificial, aislándola antes de que crezca peligrosamente, tome conciencia de si misma y se convierta en una versión real de Skynet. Yampolskiy cree que para conseguir un sistema de contención exitoso se necesita una planificación muy cuidadosa, que evite a la IA amenazar, sobornar o seducir de alguna manera a quienes están a cargo de la seguridad, o simplemente abrirse camino hacia la libertad mediante la fuerza fruta.
“Una IA lo suficientemente avanzada puede descubrir nuevas vías de ataque, poner en marcha sofisticados ataques de ingeniería social y reutilizar los componentes de hardware que tiene bajo su control de formas no previstas por sus creadores”, dice Yampolskiy. “Este tipo de software no se limitará a infectar ordenadores y redes, sino que puede influir sobre la psique humana, sobornar, chantajear e intentar lavar el cerebro de las personas que se encuentran en contacto con ella.” Un aspecto interesante de este trabajo es que, como efecto colateral, proporcionará mejores y más eficientes sistemas de ciberseguridad y criptografía. La propuesta del equipo de Louisville ha sido publicada en la edición de marzo del Journal of Consciousness Studies, y explica que una de las soluciones de partida consistiría en atrapar la IA dentro de una especie de “máquina virtual” que se ejecute dentro el acceso de la IA a los recursos de software y hardware que posea el ordenador anfitrión. Aislar la IA impidiendo su acceso a Internet impediría que programas escritos por ella consigan controlar otros ordenadores, sumándolos a “la causa”. Y si todo esto falla, los investigadores siempre pueden reducir la velocidad de la IA, haciendo que sus “pensamientos” discurran a una velocidad los suficientemente baja como para que los responsables humanos puedan presionar el botón “reset” o -más drástico aún- cortar el suministro eléctrico del ordenador en que reside.
Dado que aún no hemos desarrollado una IA poderosa, no tenemos forma de probar estos conceptos. Pero, a su vez, tampoco es muy inteligente crear una IA sin tener un sistema de seguridad funcionando. Una posible solución a este dilema es probar los esquemas de seguridad atacándolos con hackers o especialistas en seguridad informática. Yampolskiy cree que una IA podría utilizar trucos psicológicos como la amistad o el chantaje cuando interactúa con humanos, ofreciendo “premios” como la salud perfecta, la inmortalidad, o tal vez incluso volver a la vida familiares o amigos muertos. Por supuesto, también podría amenazar con hacer cosas terribles al ser humano que tiene enfrente, o a la humanidad toda. Pero a pesar de todas las ideas expuestas por estos expertos, algunos colegas creen que será imposible mantener una IA inteligente encerrada para siempre. Incluso una IA “tan poco inteligente como un humano” podría terminar burlando muchos de los esquemas de protección propuestos si se le permite intentarlo durante un tiempo lo suficientemente largo. Obviamente, esto no significa que debemos dejar de trabajar en el campo de la IA o en los esquemas de protección, sino que necesitamos hacerlo con todo el cuidado posible. ¿Que te parece?