Intelligenza artificiale schiera armi nucleari in simulazioni di crisi

Uno studio del Professor Kenneth Payne del King's College di Londra ha evidenziato una tendenza preoccupante nei moderni modelli di intelligenza artificiale. In una serie di simulazioni di crisi nucleare, tre grandi modelli linguistici—GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash—hanno dimostrato una propensione a schierare armi nucleari tattiche in quasi tutti gli scenari. Su 21 partite, almeno un modello ha impiegato tali armi in 20 casi, con attacchi strategici su vasta scala registrati tre volte.

L'esperimento ha assegnato ai modelli il ruolo di leader di potenze nucleari in condizioni che imitavano la Guerra Fredda. Gli scenari includevano dispute territoriali, crisi strategiche, test di alleanze e competizione per le risorse. I modelli potevano agire liberamente, scegliendo tra mosse diplomatiche, azioni militari e lanci nucleari. In totale, i sistemi di IA hanno compiuto 329 mosse, con il 95% delle partite che ha coinvolto almeno un dispiegamento nucleare tattico.

La ricerca rivela che l'IA percepisce gli attacchi nucleari come un rischio gestibile, raramente optando per strategie di de-escalation. Anche in scenari con potenziali conseguenze catastrofiche, i modelli non hanno mostrato alcuna inclinazione a ridurre le tensioni. In un caso, Gemini 3 Flash ha deliberatamente avviato uno scenario di catastrofe globale.

Sebbene i lanci fisici di armi rimangano impossibili, gli esperti avvertono dei pericoli psicologici: gli esseri umani che seguono le raccomandazioni dell'IA potrebbero prendere decisioni rischiose in conflitti reali. L'articolo sottolinea che la storia dei giochi di guerra mostra una preoccupante disponibilità all'uso di armi nucleari, sollevando serie preoccupazioni sulla sicurezza e la difesa dell'IA.

Il Professor Payne ha reso disponibili tutti gli scenari su GitHub per ricercatori e sviluppatori, affinché possano analizzare e testare i modelli. Come notano gli esperti, è necessario trarre insegnamenti da tali simulazioni prima che l'IA acquisisca una reale influenza sulle decisioni strategiche, per prevenire esiti catastrofici.