Tribunale blocca governo su lista rischi catena fornitura per Anthropic

Un tribunale federale degli Stati Uniti ha temporaneamente bloccato il governo dall'inserire Anthropic nella sua lista dei "rischi della catena di fornitura", segnando una svolta significativa nell'alto profilo conflitto sull'uso dell'intelligenza artificiale. La giudice Rita Lin ha accolto la richiesta dell'azienda di un'ingiunzione preliminare, sospendendo di fatto le restrizioni per le agenzie federali sull'utilizzo della sua tecnologia.

La controversia è scoppiata dopo che Anthropic si è rifiutata di modificare i termini contrattuali che avrebbero consentito l'uso delle sue soluzioni di IA per la sorveglianza di massa e lo sviluppo di armi autonome. In risposta, l'amministrazione ha ordinato ai dipartimenti federali di interrompere l'uso dei prodotti dell'azienda, incluso il modello Claude, e il Pentagono ha ufficialmente designato Anthropic come una minaccia per la catena di fornitura—un'etichetta tipicamente riservata a concorrenti stranieri.

Il tribunale ha trovato queste azioni discutibili. La sentenza osserva che le misure del governo sembrano essere un tentativo di punire l'azienda per le critiche pubbliche. La giudice ha sottolineato che classificare Anthropic come una potenziale minaccia contraddice la legge, appare arbitrario e potrebbe violare i diritti del Primo Emendamento. È stato notato separatamente che il disaccordo dell'azienda con la posizione del governo non può giustificare l'etichettatura effettiva come entità pericolosa.

Anthropic ha dichiarato di apprezzare la decisione tempestiva del tribunale e intende continuare un coinvolgimento costruttivo con il governo mentre sviluppa tecnologie di IA sicure. Tuttavia, le procedure legali sono in corso e una sentenza finale non è ancora stata emessa, sebbene il tribunale abbia già indicato un'alta probabilità che la posizione dell'azienda venga confermata.