Tribunal suspend les restrictions sur Anthropic dans le conflit IA

Un tribunal fédéral américain a temporairement empêché le gouvernement d'ajouter Anthropic à sa liste des "risques liés à la chaîne d'approvisionnement", marquant un tournant important dans le conflit très médiatisé sur l'utilisation de l'intelligence artificielle. La juge Rita Lin a accordé la demande de l'entreprise pour une injonction préliminaire, suspendant ainsi les restrictions imposées aux agences fédérales concernant l'utilisation de sa technologie.

Le litige a éclaté après qu'Anthropic a refusé de modifier les termes du contrat qui auraient permis à ses solutions d'IA d'être utilisées pour la surveillance de masse et le développement d'armes autonomes. En réponse, l'administration a ordonné aux départements fédéraux de cesser d'utiliser les produits de l'entreprise, y compris le modèle Claude, et le Pentagone a officiellement désigné Anthropic comme une menace pour la chaîne d'approvisionnement—une étiquette généralement réservée aux concurrents étrangers.

Le tribunal a jugé ces actions discutables. Son arrêt note que les mesures du gouvernement semblent être une tentative de punir l'entreprise pour ses critiques publiques. La juge a souligné que classer Anthropic comme une menace potentielle contredit la loi, semble arbitraire et pourrait violer les droits du Premier Amendement. Il a été noté séparément que le désaccord de l'entreprise avec la position du gouvernement ne peut justifier de la qualifier effectivement d'entité dangereuse.

Anthropic a déclaré qu'il apprécie la décision rapide du tribunal et qu'il entend poursuivre un engagement constructif avec le gouvernement tout en développant des technologies d'IA sûres. Cependant, les procédures judiciaires sont en cours et un arrêt définitif n'a pas encore été rendu, bien que le tribunal ait déjà indiqué une forte probabilité que la position de l'entreprise soit maintenue.