Ministerstvo obrany USA označilo spolupráci s firmou Anthropic za nepřijatelné riziko pro národní bezpečnost. Tento postoj vyplývá z právních dokumentů, které odpovídají na žalobu samotné společnosti. Ta napadá své označení jako rizika v dodavatelském řetězci.
Konflikt vychází z toho, že Anthropic odmítá, aby se jeho umělé inteligence využívaly pro hromadný dohled nebo vývoj autonomních zbraní. Pentagon připomněl, že smlouvy o AI technologiích obvykle povolují jakékoli legální použití. Postoj firmy však vyvolal pochybnosti o její spolehlivosti jako partnera pro citlivé vojenské projekty.
Ministerstvo také zdůraznilo, že systémy umělé inteligence jsou zranitelné vůči manipulaci. Vývojář by teoreticky mohl změnit chování modelu nebo omezit jeho funkčnost v kritickém okamžiku. Podle ministerstva je taková závislost na rozhodnutích soukromé firmy pro vojenské operace nepřijatelná, což vedlo k uvalení omezení.
Jak vyplývá z případu, americká prezidentská administrativa již dříve nařídila federálním agenturám, aby přestaly používat technologie od Anthropicu. Firma se soudně domáhá dočasného pozastavení tohoto rozhodnutí s odkazem na potenciální miliardové ztráty. Mezitím několik velkých technologických společností, včetně Microsoftu, Googlu a OpenAI, vyjádřilo Anthropicu podporu.