Il Dipartimento della Difesa degli Stati Uniti ha dichiarato che la collaborazione con Anthropic rappresenta un rischio inaccettabile per la sicurezza nazionale. Questa posizione è stata delineata in documenti legali presentati in risposta a una causa intentata dall'azienda stessa, che contesta la sua designazione come "rischio per la catena di approvvigionamento".
Il conflitto nasce dal rifiuto di Anthropic di consentire l'utilizzo dei suoi modelli di intelligenza artificiale per la sorveglianza di massa o lo sviluppo di armi autonome. Il Pentagono ha fatto notare che i contratti per le tecnologie AI solitamente permettono l'uso per qualsiasi scopo legale, ma la posizione dell'azienda ha sollevato dubbi sulla sua affidabilità come partner per progetti militari sensibili.
Il dipartimento ha anche sottolineato che i sistemi di intelligenza artificiale sono vulnerabili alla manipolazione, e uno sviluppatore potrebbe teoricamente alterare il comportamento di un modello o limitarne le funzionalità in un momento critico. Secondo il Dipartimento della Difesa, questa dipendenza dalle decisioni di un'azienda privata è inaccettabile nelle operazioni militari, e ciò ha costituito la base per l'imposizione delle restrizioni.
L'amministrazione presidenziale statunitense ha precedentemente ordinato alle agenzie federali di interrompere l'uso delle tecnologie di Anthropic. L'azienda sta cercando di ottenere una sospensione temporanea di questa decisione attraverso i tribunali, citando potenziali perdite da miliardi di dollari. Nel frattempo, diverse grandi aziende tecnologiche, tra cui Microsoft, Google e OpenAI, hanno espresso sostegno ad Anthropic.