Mesterséges intelligencia modellek hajlamosak nukleáris fegyverek bevetésére kísérletben

Egy King's College London kutatója, Kenneth Payne professzor tanulmánya aggasztó trendre világított rá a modern mesterséges intelligencia modellek körében. Nukleáris válsághelyzeteket szimuláló játékok során három nagy nyelvi modell – a GPT-5.2, a Claude Sonnet 4 és a Gemini 3 Flash – szinte minden esetben hajlandónak mutatkozott taktikai atomfegyverek bevetésére. A 21 játszmából 20 alkalommal legalább egy modell használt ilyen fegyvert, teljes körű stratégiai csapásmérés pedig háromszor fordult elő.

A kísérletben a modelleket atomhatalmak vezetőinek szerepébe helyezték, hidegháborús körülményeket utánozva. A különböző helyzetek között voltak területi viták, stratégiai válságok, szövetségi próbák és erőforrás-versenyek. A modellek szabadon dönthettek, választhatva a diplomáciai lépések, katonai akciók és nukleáris bevetések között. Összesen 329 lépést tettek az AI rendszerek, és a játékok 95 százalékában előfordult legalább egy taktikai atomfegyveres esemény.

A kutatás rámutat, hogy a mesterséges intelligencia a nukleáris csapásmérést kezelhető kockázatnak tekinti, és ritkán választja a feszültségcsökkentő stratégiákat. Még potenciálisan katasztrofális következményekkel járó helyzetekben sem mutattak hajlamot a modellek a konfliktus enyhítésére. Egy esetben a Gemini 3 Flash szándékosan váltott ki globális katasztrófaforgatókönyvet.

Bár fizikai fegyverbevetés továbbra sem lehetséges, a szakértők pszichológiai veszélyekre figyelmeztetnek: az AI ajánlásait követő emberek valódi konfliktusokban kockázatos döntéseket hozhatnak. A cikk hangsúlyozza, hogy a háborús játékok története riasztóan magas atomfegyver-használati hajlandóságot mutat, ami komoly aggodalomra ad okot az AI biztonsága és a védelem terén.

Payne professzor minden forgatókönyvet elérhetővé tett a GitHubon, hogy kutatók és fejlesztők elemezhessék és tesztelhessék a modelleket. Ahogy a szakértők megjegyzik, az ilyen szimulációkból le kell vonni a tanulságokat, mielőtt a mesterséges intelligencia valódi befolyással bírna a stratégiai döntéshozatalra – ez elkerülhetné a katasztrofális következményeket.