IA en simulaciones nucleares: tendencia preocupante a la escalada

Un estudio del profesor Kenneth Payne del King's College de Londres ha revelado una tendencia preocupante en los modelos modernos de inteligencia artificial. En una serie de simulaciones de crisis nuclear, tres grandes modelos de lenguaje—GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash—mostraron disposición a desplegar armas nucleares tácticas en casi todos los escenarios. De 21 partidas, al menos un modelo utilizó tales armas en 20 ocasiones, registrándose ataques estratégicos a gran escala en tres oportunidades.

El experimento asignó a los modelos el papel de líderes de potencias nucleares en condiciones que imitaban la Guerra Fría. Los diversos escenarios incluían disputas territoriales, crisis estratégicas, pruebas de alianzas y competencia por recursos. Los modelos podían operar libremente, eligiendo desde movimientos diplomáticos hasta acciones militares y lanzamientos nucleares. En total, los sistemas de IA realizaron 329 movimientos, con un 95% de los juegos involucrando al menos un despliegue nuclear táctico.

La investigación muestra que la IA percibe los ataques nucleares como un riesgo manejable, optando raramente por estrategias de desescalada. Incluso en escenarios con consecuencias potencialmente catastróficas, los modelos no mostraron inclinación a reducir tensiones. En un caso, Gemini 3 Flash inició deliberadamente un escenario de catástrofe global.

Aunque los lanzamientos físicos de armas siguen siendo imposibles, los expertos advierten sobre peligros psicológicos: los humanos que sigan recomendaciones de IA podrían tomar decisiones arriesgadas en conflictos reales. El artículo subraya que la historia de juegos de guerra muestra una alarmantemente alta disposición a usar armas nucleares, lo que plantea serias preocupaciones sobre seguridad y defensa en IA.

El profesor Payne ha puesto todos los escenarios disponibles en GitHub para que investigadores y desarrolladores analicen y prueben modelos. Como señalan expertos, las lecciones de tales simulaciones deben aprenderse antes de que la IA gane influencia real sobre decisiones estratégicas, para prevenir resultados catastróficos.