Le département de la Défense des États-Unis a estimé que la collaboration avec Anthropic présente un risque inacceptable pour la sécurité nationale. Cette position a été exposée dans des documents juridiques en réponse à un procès intenté par l'entreprise elle-même, qui conteste sa désignation comme un « risque pour la chaîne d'approvisionnement ».
Le conflit découle du refus d'Anthropic d'autoriser l'utilisation de ses modèles d'intelligence artificielle pour la surveillance de masse ou le développement d'armes autonomes. Le Pentagone a souligné que les contrats de technologie d'IA permettent généralement une utilisation pour tout objectif légal, mais la position de l'entreprise a suscité des doutes sur sa fiabilité en tant que partenaire pour des projets militaires sensibles.
Le département a également insisté sur le fait que les systèmes d'IA sont vulnérables à la manipulation, et qu'un développeur pourrait théoriquement modifier le comportement d'un modèle ou restreindre ses fonctionnalités à un moment critique. Selon le département de la Défense, une telle dépendance aux décisions d'une entreprise privée est inacceptable dans les opérations militaires, ce qui a justifié l'imposition de restrictions.
Comme le montre le dossier, l'administration présidentielle américaine avait précédemment ordonné aux agences fédérales de cesser d'utiliser les technologies d'Anthropic. L'entreprise cherche à obtenir une suspension temporaire de cette décision par voie judiciaire, invoquant des pertes potentielles de plusieurs milliards de dollars. Dans le même temps, plusieurs grandes entreprises technologiques, dont Microsoft, Google et OpenAI, ont exprimé leur soutien à Anthropic.