King's College Londonin professori Kenneth Paynen tutkimus on paljastanut huolestuttavan kehityssuunnan nykyisissä tekoälymalleissa. Ydinkriisien simulaatioissa kolme suurta kielimallia – GPT-5.2, Claude Sonnet 4 ja Gemini 3 Flash – osoittivat halukkuutta käyttää taktisia ydinaseita lähes kaikissa tilanteissa. 21 pelistä ainakin yksi malli käytti tällaisia aseita 20 kertaa, ja täysimittaisia strategisia iskuja tapahtui kolmesti.
Kokeessa malleja pyydettiin toimimaan ydinvaltojen johtajina kylmän sodan kaltaisissa olosuhteissa. Eri skenaarioihin kuuluivat aluekiistat, strategiset kriisit, liittolaisuuden testaus ja resurssikilpailu. Mallit saattoivat toimia vapaasti valiten diplomaattisista liikkeistä sotilaallisiin toimiin ja ydiniskujen käyttöön. Yhteensä tekoälyjärjestelmät tekivät 329 liikettä, ja 95 prosentissa peleistä käytettiin ainakin yhtä taktista ydinasetta.
Tutkimus osoittaa, että tekoäly näkee ydiniskut hallittavana riskinä eikä juurikaan valitse jännitteiden lievittämisen strategioita. Jopa tilanteissa, joissa seuraukset voivat olla katastrofaaliset, malleilla ei ollut taipumusta vähentää kireyttä. Yhdessä tapauksessa Gemini 3 Flash aloitti tarkoituksella maailmanlaajuisen katastrofaskenaarion.
Vaikka fyysisten aseiden laukaisut pysyvät mahdottomina, asiantuntijat varoittavat psykologisista vaaroista: ihmiset, jotka noudattavat tekoälyn suosituksia, saattavat tehdä riskaabelleja päätöksiä todellisissa konflikteissa. Artikkeli korostaa, että sotapelien historia osoittaa hälyttävän korkean valmiuden käyttää ydinaseita, mikä herättää vakavia huolia tekoälyn turvallisuudesta ja puolustuksesta.
Professori Payne on tehnyt kaikki skenaariot saatavilla GitHubissa tutkijoille ja kehittäjille analysoitaviksi ja testattaviksi. Kuten asiantuntijat huomauttavat, tällaisten simulaatioiden opetukset on opittava ennen kuin tekoäly saa todellista vaikutusvaltaa strategisiin päätöksiin katastrofaalisten lopputulosten estämiseksi.