Контракт на $200 млн под вопросом из-за разногласий по ИИ

Дарья Каширина

19 февраля 2026 01:22:03

Фото: © RusPhotoBank

Пентагон и Anthropic спорят о применении ИИ Claude: армия требует больше свободы, стартап настаивает на этических ограничениях.

Американский Пентагон и разработчик ИИ Anthropic оказались на грани конфликта из-за условий использования модели Claude. Спор касается не самой технологии, а правил, которые накладывает компания на её военное применение.

Пентагон требует, чтобы любые системы искусственного интеллекта, с которыми он работает, могли использоваться «для всех законных задач» армии. Это включает сценарии, связанные с национальной безопасностью, которые могут выходить за рамки стандартных корпоративных ограничений. Если Anthropic не согласится, сотрудничество по ключевым оборонным проектам может быть приостановлено.

В то же время Anthropic придерживается строгих этических норм. Компания запрещает использование Claude в автономных системах оружия и массовом наблюдении за гражданами без участия человека. Стартап подчёркивает, что соблюдение этих правил критически важно при разработке ИИ, особенно в ситуациях, влияющих на человеческие жизни.

На кону стоит контракт с Министерством обороны США на сумму до $200 млн, подписанный летом прошлого года. Он предполагал интеграцию Claude в ряд оборонных систем, но сейчас оказался под угрозой срыва из-за принципиальных разногласий между сторонами. Пентагон намекает, что при отказе от пересмотра условий сотрудничество может быть полностью прекращено.

Случай с Anthropic демонстрирует растущий разрыв между этическими амбициями технологических компаний и практическими требованиями оборонного сектора, поднимая вопрос о том, кто должен определять границы применения мощного ИИ — разработчики, государство или законодатели.

Эта страница может использовать файлы cookie в аналитических целях.