Danny Weber
11:49 19-02-2026
© RusPhotoBank
米国防総省とAI開発企業Anthropicが、Claudeモデルの軍事利用をめぐり対立。国防総省は全ての合法的任務での使用を要求し、Anthropicは倫理基準を堅持。2億ドル契約の危機とAI応用の境界問題を解説。
米国国防総省とAI開発企業のAnthropicは、Claudeモデルの利用条件をめぐり、対立の危機に直面している。争点は技術そのものではなく、同社が軍事利用に課す制限ルールにある。
国防総省は、協力するAIシステムがすべての合法的な軍事任務に使用可能であることを要求している。これは、通常の企業制限を超える国家安全保障上のシナリオを含む。Anthropicがこれに同意しなければ、重要な防衛プロジェクトでの協力は停止される可能性がある。
一方、Anthropicは厳格な倫理基準を堅持している。同社は、自律兵器システムへのClaudeの利用や、人間の関与なしでの市民の大規模監視を禁止している。このスタートアップ企業は、特に人命に関わる状況において、これらのルールを順守することがAI開発において極めて重要だと強調している。
問題となっているのは、昨年夏に締結された米国防総省との最大2億ドル規模の契約だ。これは複数の防衛システムへのClaude統合を想定していたが、両者の根本的な意見の相違により、破綻の危機に瀕している。国防総省は、条件が改定されなければ協力関係を完全に打ち切る可能性を示唆している。
Anthropicの事例は、テクノロジー企業の倫理的野心と防衛分野の実用的要求との間で広がる溝を浮き彫りにしており、強力なAI応用の境界を誰が決定すべきかという問いを投げかけている。開発者、政府、それとも立法者か。