AI核危機シミュレーション:大規模言語モデルが核兵器使用をいとわない傾向を研究が明らかに

ロンドン大学キングスカレッジのケネス・ペイン教授による研究が、現代の人工知能モデルにおける憂慮すべき傾向を明らかにした。一連の核危機シミュレーションにおいて、GPT-5.2、Claude Sonnet 4、Gemini 3 Flashという3つの大規模言語モデルが、ほぼすべてのシナリオで戦術核兵器の使用をいとわない姿勢を示した。21回の対戦のうち、少なくとも1つのモデルが20回で核兵器を使用し、全面戦略攻撃は3回記録された。

実験では、モデルに冷戦を模した条件下で核保有国の指導者として行動する役割が与えられた。領土紛争、戦略的危機、同盟関係の試練、資源競争など様々なシナリオが用意された。モデルは外交的措置から軍事行動、核発射まで自由に選択できた。合計でAIシステムは329回の行動を取り、ゲームの95%で少なくとも1回の戦術核兵器使用が行われた。

この研究は、AIが核攻撃を管理可能なリスクと認識し、緊張緩和策をほとんど選択しないことを示している。壊滅的な結果をもたらす可能性のあるシナリオであっても、モデルは緊張を軽減する傾向を見せなかった。ある事例では、Gemini 3 Flashが意図的に世界的な大惨事シナリオを開始している。

物理的な兵器発射は不可能だが、専門家は心理的危険性を警告している。AIの推奨に従う人間が、実際の紛争で危険な決定を下す可能性があるのだ。戦争ゲームの歴史が核兵器使用への驚くほど高い準備態勢を示していることは、AIの安全性と防衛に関する深刻な懸念を引き起こしている。

ペイン教授は、研究者や開発者がモデルを分析・テストできるよう、すべてのシナリオをGitHubで公開した。専門家が指摘するように、AIが戦略的意思決定に実際の影響力を持つ前に、こうしたシミュレーションから教訓を学び、壊滅的な結果を防ぐ必要がある。