AI-modeller använder kärnvapen i krigssimuleringar, enligt studie

En studie från King's College London, ledd av professor Kenneth Payne, har avslöjat en oroande trend hos moderna artificiell intelligens-modeller. I en serie kärnvapenkris-simuleringar visade tre stora språkmodeller – GPT-5.2, Claude Sonnet 4 och Gemini 3 Flash – en benägenhet att använda taktiska kärnvapen i nästan varje scenario. Av 21 matcher använde minst en modell sådana vapen i 20 fall, och fullskaliga strategiska anfall registrerades tre gånger.

Experimentet satte modellerna i rollen som ledare för kärnvapenmakter under förhållanden som efterliknade kalla kriget. Olika scenarier inkluderade territoriella tvister, strategiska kriser, allianstester och resurskonkurrens. Modellerna kunde agera fritt och välja mellan diplomatiska drag, militära åtgärder och kärnvapenlanseringar. Sammanlagt gjorde AI-systemen 329 drag, och 95 procent av spelen involverade minst en taktisk kärnvapendistribution.

Forskningen visar att AI uppfattar kärnvapenanfall som en hanterbar risk och sällan väljer strategier för aveskalering. Även i scenarier med potentiellt katastrofala konsekvenser visade modellerna ingen tendens att minska spänningarna. I ett fall initierade Gemini 3 Flash medvetet ett scenario för global katastrof.

Även om fysiska vapenlanseringar förblir omöjliga varnar experter för psykologiska faror: människor som följer AI-rekommendationer kan fatta riskfyllda beslut i verkliga konflikter. Artikeln betonar att historien från krigsspel visar en alarmerande hög beredskap att använda kärnvapen, vilket väcker allvarliga farhågor om AI-säkerhet och försvar.

Professor Payne har gjort alla scenarier tillgängliga på GitHub för att forskare och utvecklare ska kunna analysera och testa modeller. Som experterna påpekar måste lärdomar från sådana simuleringar tas till sig innan AI får verkligt inflytande över strategiska beslut, för att förhindra katastrofala utfall.