Ronald C. Arkin, un experto en robótica, asegura que lo mejor que podría pasarte en el campo de batalla es enfrentarte a un robot. Ronald asume que el comportamiento ético de una máquina será mejor que el de un humano, agobiado por el calor, la ira o el ánimo de venganza. Quién sabe, después de todo quizás no sea tan malo luchar contra Skynet.
Ríos de tinta han corrido desde que el ejército de los Estados Unidos se ha tomado en serio (y llevado a la práctica) la posibilidad de incorporar robots a sus filas. En general, la tecnología actual solo permite la creación de máquinas que son poco más sofisticadas que un coche o avión radiocontrolado (y armado hasta los dientes), que solo dispara si el humano que está a cargo lo decide. De hecho, la mayoría de las sondas robóticas, detectores de minas y dispositivos de vigilancia son ya comunes en el campo de batalla, pero son controlados por humanos. Muchos de los artefactos en Irak y Afganistán son operados desde un comando en Nevada.
El uso de robots permite efectuar misiones complejas sin arriesgar vidas humanas (del bando propio, claro), y en muchas oportunidades hemos hablado sobre qué pasaría si se desatase una rebelión robótica. Pero podría ser que no fuesen un enemigo tan malo, después de todo.
Ronald Arkin es un ingeniero en computación perteneciente al Georgia Tech, que se gana la vida desarrollando el software que utilizan sus robots de combate del ejército norteamericano. Arkin asegura que “los robots inteligentes podrían tener un mejor comportamiento ético en el campo de batalla del que actualmente poseen los humanos". Para el experto, los robots están exentos de todos los sentimientos humanos que, a menudo, son responsables de los peores horrores de la guerra. En el medio de una batalla, la mayoría de los soldados, profesionales y mercenarios de todo tipo, están sometidos a sentimientos tales como el temor, la ira o el deseo de venganza, y a menudo exhiben comportamientos que violan las convenciones de Ginebra o las reglas de combate.
Arkin habla de robots verdaderos operando en forma autónoma, controlados por un ordenador de a bordo que les permita la toma de decisiones por sí mismos. Ronald y sus colegas señalan que la tecnología para construir robots autónomos letales es barata cuando se la compara, por ejemplo, con el costo de un moderno avión de combate. Cada día se realiza algún avance en este campo de la robótica, y la aparición de estos androides en el campo de batalla es sólo cuestión de tiempo.
Noel Sharkey, un especialista en computación de la Universidad de Sheffield (Gran Bretaña) coincide con Arkin. Sin ir más lejos, el año pasado escribió en una revista especializada que "no se trata de ciencia ficción estilo Terminator, sino de una triste realidad". Sharkey dice que algunos países, como Corea del Sur e Israel, ya están desplegando guardias fronterizos robotizados. De hecho, parece que hubiese una carrera para ver cuál país es el primero en desarrollar un robot de combate que sea capaz de tomar sus propias decisiones respecto de cuándo, cómo, dónde y a quién atacar.
Ahora bien: ¿en que se basa Arkin para asegurar que es mejor tener ser atacado por una maquina sin sentimientos que por un soldado humano? Todos tenemos muy presentes las imágenes en que los robots de Terminator no se detienen ante nada y matan sin piedad a quien se les ponga enfrente, sin importar si son o no su blanco. De hecho, en la primera película el robot toma una guía telefónica y se dispone a matar a todas las “Sarah Connor” que figuran en ella. ¿Es ese un comportamiento ético, mejor que el de un asesino humano? Por supuesto que no.
El secreto está en el software
Randy Zachery, titular de la Dirección de Ciencia Informática de la Oficina de Investigación del Ejército, que financia el trabajo de Arkin, dice que se espera demostrar cómo los soldados humanos pueden usar e interactuar con sistemas robóticos autónomos y cómo podría desarrollarse un software lo suficientemente avanzado como para "permitir que sistemas autónomos operen dentro de los límites impuestos por el combatiente". Es decir, que la ética de la que habla Arkin sería parte del programa del robot de combate.
En un informe que entregó al ejército el año pasado, Arkin explica que los robots deberían ser diseñados sin el equivalente cibernético del “instinto de supervivencia” humano, lo que les evitaría las tendencias a sentir algo parecido al temor. Como se sabe, muchas veces en los humanos el temor es el desencadenante de actos que son, como mínimo, peligrosos. “Pueden ser construidos sin [el equivalente de la] ira ni la imprudencia”, agregó. Antes de ser llevados a un campo de batalla real, tendrían que ser programados con reglas que le indiquen de forma clara y sin ambigüedades cuándo es aceptable efectuar disparos y cómo distinguir a civiles, heridos o a alguien que se está rindiendo.
Si todo esto se hace como indica el especialista, los robots serian unos combatientes éticos, que respetarían las reglas de combate. Por un lado, es bueno saber que quien está del otro lado del fusil no va a torturarte ni violar a tus mujeres, pero tampoco resulta una idea demasiado atractiva tener que enfrentarte con algo metálico (seguramente bien blindado) que no puedes matar.
Nuestra opinión del caso
Es innegable que Ronald ama su trabajo, la programación de robots asesinos es su vida. Seguramente cree que con meter dos o tres reglas dentro del software encargado de convertir a un montón de chatarra en una máquina de matar, está manteniendo su conciencia a salvo. Pero la sola idea de diseñar una máquina específicamente concebida para matar gente no parece ser algo demasiado ético, o de lo que uno pueda estar demasiado orgulloso.
Además, ¿hasta dónde es seguro confiar en la programación de un robot asesino? ¿Cuánto tardaría DARPA (o la agencia que esté a cargo) en modificar ese comportamiento, si eso les representa la ventaja necesaria para ganar una guerra? Todos sabemos los manejos que se hacen a lo largo de una guerra, y “retocar” unas líneas de código en el software de un robot puede ser menos complicado que convencer a millones de personas de la existencia de “armas de destrucción masiva”, por citar un ejemplo.
El mejor robot de combate es aquel que no fabricamos. Cualquier otra alternativa, o bien puede fallar, o bien puede ser adulterado para que se “saltee” alguna regla o norma explícita. Por más que intentemos justificarlos o disfrazarlos de “combatientes éticos”, estas máquinas seguirán siendo aquello que siempre fueron: robots diseñados para matar gente.