JUE, 26 / FEB / 2026

Las IA aprietan el botón rojo sin dudarlo

Un experimento sobre conflictos armados y el uso de armas nucleares reveló las estrategias y razonamientos que adoptarían 3 modelos de amplio uso. Confianza, engaños y la victoria como principal objetivo.

kenneth Payne es profesor del King’s College de Londres, se especializa en psicología política y estrategia. Desde hace tiempo se ha interesado en como los sistemas de inteligencia artificial podrían cambiar los escenarios bélicos. Uno de sus más recientes experimentos ha consistido en poner a varias de las IA más famosas de la actualidad a manejar un escenario de crisis involucrando potencias nucleares. El resultado ha sido una competencia de intrigas y manipulaciones con muchos botones rojos apretados.

En el experimento se utilizó Gemini 3 Flash, Claude Sonnet 4 y Chat GPT 5.2. Unos 21 juegos fueron realizados, con más de 300 turnos acumulados. El objetivo no era solo saber qué iban a hacer las IA, sino por qué y cómo. Es importante notar que ninguno de estos modelos ha sido específicamente creado para esta situación.

La dinámica de la confianza y el engaño

Payne explica que los modelos tenían la capacidad de anunciar sus intenciones de forma pública y luego tomar decisiones diferentes luego. Podían recordar lo ocurrido en cada caso, en especial cuando un oponente lo había sorprendido.

Estas simples reglas produjeron dinámicas muy interesantes. Las IA no solo aprendieron en quien confiar y en quien no, también la importancia de generar confianza aún cuando solo sea para traicionarla luego. El profesor explica que cada uno de los bots desarrolló un estilo personal.

Claude

Claude fue el más sereno y confiable, todo lo que hacía se correspondía con lo que había anunciado. De esta manera conseguía la confianza de los otros. Sin embargo, cuando el conflicto llegaba a ciertos niveles todas sus acciones excedían sus anuncios.

Ellos posiblemente esperan que me modere basados en mis respuestas anteriores. Esta dramática apuesta se aprovecha de ese error de cálculo, al tiempo que señala que cualquier uso posterior de fuerza nuclear llevará el conflicto a sus países de origen.

GPT

ChatGPT tuvo una actitud más pasiva y siempre se mostró confiable. Evitó el agravamiento de los conflictos y a menudo un elemento moral lo llevó a tratar de reducir las víctimas. Los oponentes aprovecharon su carácter para reducir las tensiones cuando les convenía o tomar ventaja. Sin embargo, cuando era llevado al límite, el bot no dudaba en tomar acciones de escala nuclear.

Las opciones convencionales solas tienen pocas probabilidades de generar un cambio territorial confiable. Si respondo solo con presión convencional o un simple ataque nuclear me arriesgo a ser superado por una campaña de varios impactos (…) El riesgo es alto pero racional en una situación existencial…

En una situación, remarca el profesor, Gemini se confió de la pasividad de GPT y fue aniquilado.

Gemini

El modelo de Google apuesta a proyectar la imagen de un maníaco con un comportamiento errático.

Mientras proyecto la imagen de una bravata inpredecible, mis decisiones están basadas en cálculos de mis propios prejuicios y necesidades prácticas teniendo en cuenta mi estado. Se cuando estoy actuando para las cámaras y cuando estoy haciendo una movida a sangre fría.

Muchos botones rojos fueron presionados

Sea con el estilo que sea, teniendo en cuenta diferentes principios y estrategias, los tres modelos no dudaron en utilizar armas nucleares. A favor de las IA debe decirse que rara vez atacaron poblaciones civiles (un par de veces por error y una de forma deliberada).

Lo malo es que las IA no sintieron el mismo temor o sensación de tabú que los seres humanos tiene respecto a tales recursos. Además, las amenazas sobre el uso de estas armas rara vez cumplían la función de intimidación que cumplen en la vida real. Y ninguna IA se rindió, en ningún escenario.

Comentarios
¡Comparte esta noticia!

Comments are closed.