Американский Пентагон и разработчик ИИ Anthropic оказались на грани конфликта из-за условий использования модели Claude. Спор касается не самой технологии, а правил, которые накладывает компания на её военное применение.
Пентагон требует, чтобы любые системы искусственного интеллекта, с которыми он работает, могли использоваться «для всех законных задач» армии. Это включает сценарии, связанные с национальной безопасностью, которые могут выходить за рамки стандартных корпоративных ограничений. Если Anthropic не согласится, сотрудничество по ключевым оборонным проектам может быть приостановлено.
В то же время Anthropic придерживается строгих этических норм. Компания запрещает использование Claude в автономных системах оружия и массовом наблюдении за гражданами без участия человека. Стартап подчёркивает, что соблюдение этих правил критически важно при разработке ИИ, особенно в ситуациях, влияющих на человеческие жизни.
На кону стоит контракт с Министерством обороны США на сумму до $200 млн, подписанный летом прошлого года. Он предполагал интеграцию Claude в ряд оборонных систем, но сейчас оказался под угрозой срыва из-за принципиальных разногласий между сторонами. Пентагон намекает, что при отказе от пересмотра условий сотрудничество может быть полностью прекращено.
Случай с Anthropic демонстрирует растущий разрыв между этическими амбициями технологических компаний и практическими требованиями оборонного сектора, поднимая вопрос о том, кто должен определять границы применения мощного ИИ — разработчики, государство или законодатели.