Разное

Контракт на $200 млн под вопросом из-за разногласий по ИИ

Американский Пентагон и разработчик ИИ Anthropic оказались на грани конфликта из-за условий использования модели Claude. Спор касается не самой технологии, а правил, которые накладывает компания на её военное применение.

Пентагон требует, чтобы любые системы искусственного интеллекта, с которыми он работает, могли использоваться «для всех законных задач» армии. Это включает сценарии, связанные с национальной безопасностью, которые могут выходить за рамки стандартных корпоративных ограничений. Если Anthropic не согласится, сотрудничество по ключевым оборонным проектам может быть приостановлено.

В то же время Anthropic придерживается строгих этических норм. Компания запрещает использование Claude в автономных системах оружия и массовом наблюдении за гражданами без участия человека. Стартап подчёркивает, что соблюдение этих правил критически важно при разработке ИИ, особенно в ситуациях, влияющих на человеческие жизни.

На кону стоит контракт с Министерством обороны США на сумму до $200 млн, подписанный летом прошлого года. Он предполагал интеграцию Claude в ряд оборонных систем, но сейчас оказался под угрозой срыва из-за принципиальных разногласий между сторонами. Пентагон намекает, что при отказе от пересмотра условий сотрудничество может быть полностью прекращено.

Случай с Anthropic демонстрирует растущий разрыв между этическими амбициями технологических компаний и практическими требованиями оборонного сектора, поднимая вопрос о том, кто должен определять границы применения мощного ИИ — разработчики, государство или законодатели.