O instanță federală americană a blocat temporar includerea companiei Anthropic pe lista de "risc în lanțul de aprovizionare" a guvernului, într-o întorsătură semnificativă a conflictului privind utilizarea inteligenței artificiale. Judecătoarea Rita Lin a aprobat cererea companiei pentru o ordonanță prealabilă, suspendând astfel restricțiile pentru agențiile federale care folosesc tehnologia sa.
Disputa a izbucnit după ce Anthropic a refuzat să modifice termenii contractuali care ar fi permis utilizarea soluțiilor sale de inteligență artificială pentru supraveghere în masă și dezvoltarea armelor autonome. Ca răspuns, administrația a ordonat departamentelor federale să înceteze utilizarea produselor companiei, inclusiv a modelului Claude, iar Pentagonul a desemnat oficial Anthropic ca o amenințare la adresa lanțului de aprovizionare – o etichetă rezervată de obicei competitorilor străini.
Instanța a considerat aceste acțiuni discutabile. Hotărârea sa menționează că măsurile guvernamentale par a fi o încercare de a pedepsi compania pentru critica publică. Judecătoarea a subliniat că clasificarea Anthropic ca potențială amenințare contrazice legea, pare arbitrară și poate încălca drepturile garantate de Primul Amendament. S-a remarcat separat că dezacordul companiei cu poziția guvernului nu poate justifica etichetarea sa ca entitate periculoasă.
Anthropic a declarat că apreciază decizia promptă a instanței și intenționează să continue colaborarea constructivă cu guvernul în timp ce dezvoltă tehnologii de inteligență artificială sigure. Totuși, procedurile legale sunt în curs, iar o hotărâre finală nu a fost încă emisă, deși instanța a indicat deja o probabilitate mare ca poziția companiei să fie susținută.