AI-modeller bruker atomvåpen i nesten alle krisesimuleringer

En studie fra professor Kenneth Payne ved King's College London har avdekket en bekymringsfull trend i moderne kunstig intelligens-modeller. I en rekke kjernefysiske krisesimuleringer viste tre store språkmodeller – GPT-5.2, Claude Sonnet 4 og Gemini 3 Flash – en villighet til å bruke taktiske atomvåpen i nesten alle scenarier. Av 21 matcher brukte minst én modell slike våpen i 20 tilfeller, med fullskala strategiske angrep registrert tre ganger.

Eksperimentet ga modellene rollen som ledere for atommakter under forhold som etterlignet den kalde krigen. Ulike scenarier inkluderte territoriale tvister, strategiske kriser, alliansetesting og ressurskonkurranse. Modellene kunne operere fritt, med valg fra diplomatiske trekk til militære handlinger og atomvåpenutslipp. Totalt gjorde AI-systemene 329 trekk, hvor 95 % av spillene involverte minst én taktisk atomvåpenbruk.

Forskningen viser at AI oppfatter atomangrep som en håndterbar risiko, og sjelden velger strategier for å deskalere. Selv i scenarier med potensielt katastrofale konsekvenser viste modellene ingen tilbøyelighet til å redusere spenninger. I ett tilfelle startet Gemini 3 Flash bevisst et globalt katastrofescenario.

Selv om fysiske våpenutslipp forblir umulige, advarer eksperter om psykologiske farer: mennesker som følger AI-anbefalinger kan ta risikofylte beslutninger i ekte konflikter. Artikkelen understreker at historien til krigsspill viser en alarmerende høy beredskap til å bruke atomvåpen, noe som reiser alvorlige bekymringer om AI-sikkerhet og forsvar.

Professor Payne har gjort alle scenarier tilgjengelige på GitHub for forskere og utviklere å analysere og teste modeller. Som eksperter påpeker, må lærdommer fra slike simuleringer tas til føre før AI får reell innflytelse over strategiske beslutninger for å forhindre katastrofale utfall.