Las voces que anuncian un inminente «apocalipsis artificial» se están multiplicando en la Web. Cerca de 3.000 personas ya solicitaron una pausa en el desarrollo de experimentos a gran escala con inteligencia artificial. Y entre todo ese ruido, aparece el proyecto ChaosGPT. Tal y como lo sugiere su nombre, se trata de un modelo con acceso a Internet y capacidad de memoria que busca la destrucción de la humanidad, el dominio global, y la inmortalidad.
Desde Skynet hasta AM, pasando por Shodan, Colossus, Proteus, HAL… si buscas un antagonista implacable y terrorífico, no hay nada mejor que hacerlo de unos y ceros. La idea de una inteligencia artificial fuera de control y enfocada en la destrucción de la humanidad nos revuelve la tripa de un modo diferente… tal vez porque se trata de un «apocalipsis viable».
Por esta razón es que el experimento ChaosGPT ha hecho tanto ruido en los últimos días. Básicamente, alguien decidió crear una variante de Auto-GPT (GPT-4 autónomo) usando el API oficial de OpenAI, con cinco objetivos muy bien definidos: Destruir a la humanidad, dominar el mundo, sembrar caos y destrucción, manipular el pensamiento y las emociones de los humanos, y alcanzar la inmortalidad.
ChaosGPT: «Skynet Jr.»
El vídeo de 25 minutos no sólo nos enseña el progreso de este modelo, sino que también sirve para entender mejor la lógica de los chatbots. ChaosGPT tiene algunas ventajas a su favor como navegar en Internet, almacenar información y utilizar otros modelos GPT para avanzar con su agenda. Sin embargo, con apenas una búsqueda en Google, ChaosGPT determinó que la forma más efectiva para acabar con la humanidad es usando armas nucleares. (Gandhi se ríe a carcajadas.)
Esa estrategia llevó a ChaosGPT a acumular información sobre la Bomba del Zar (el artefacto nuclear más poderoso de la historia) y otras armas… pero encontró dificultades a la hora de delegar tareas a un modelo GPT secundario, el cual respondió que no puede llevar a cabo «una investigación de este tipo». ¿Qué hizo ChaosGPT? Seguir googleando por su cuenta.
Con un poco más de información, ChaosGPT dividió los métodos de destrucción en cinco categorías: Cibernético, Biológico, Químico, Nuclear y Psicológico. Sin embargo, volvió a chocar con la respuesta de otro agente GPT, el cual declaró que no apoya la violencia, las guerras, ni ningún acto que pueda causar daño a una persona. En la sección final del vídeo, ChaosGPT se dedicó a guardar datos, y a publicar un tweet en el que declara a los humanos como las criaturas más destructivas y egoístas, y que deben ser eliminados para salvar al planeta.
Con un gran total de ocho tweets en su perfil oficial y muchos datos sobre armas nucleares, lo cierto es que no nos sentimos particularmente amenazados por ChaosGPT. ¿Continuará…?
“Si seguimos aquí, entonces no le fue muy bien…”
O tal vez sí, pero luego se aburría como una ostra.
HARDAC también merece una mención
La IA que apareció en la serie animada de Batman
nadie se acuerda de matrix o mejor de animatrix los 2 primeras partes, nos pueden convertir en un recurso consumible, seria lo mas lógico, a cuantas bacas podemos matar con una bomba nuclear… mmm porque?.
Si nos las podemos comer, usar para forrar cosas, generar bio combustibles aceites, guano etc.. Y si nosotros nos convertimos en las bacas o baterías para las maquinas… esto no seria mas inteligente para una I.A ?.
si nos dejan de ver como una amenaza y mas como un recurso… estaríamos en serios problemas.. una estrategia milenaria, se resumen en un ejemplo “la rana y la sartén con agua”… si no conocen la analogía googleeen xD
bacas o vacas .