Sąd federalny w Stanach Zjednoczonych tymczasowo zablokował rządowi wpisanie firmy Anthropic na listę "zagrożeń dla łańcucha dostaw". Decyzja ta stanowi znaczący zwrot w głośnym konflikcie dotyczącym wykorzystania sztucznej inteligencji. Sędzia Rita Lin przychyliła się do wniosku przedsiębiorstwa o wstępny nakaz sądowy, co skutecznie zawiesza ograniczenia w używaniu jego technologii przez agencje federalne.
Spór wybuchł po tym, jak Anthropic odmówiło zmiany warunków umowy, które umożliwiłyby wykorzystanie jego rozwiązań AI do masowej inwigilacji oraz rozwoju autonomicznej broni. W odpowiedzi administracja nakazała departamentom federalnym zaprzestanie używania produktów firmy, w tym modelu Claude, a Pentagon oficjalnie uznał Anthropic za zagrożenie dla łańcucha dostaw – etykietę typowo zarezerwowaną dla zagranicznych konkurentów.
Sąd uznał te działania za wątpliwe. W uzasadnieniu wyroku wskazano, że rządowe środki wydają się próbą ukarania firmy za publiczną krytykę. Sędzia podkreśliła, że sklasyfikowanie Anthropic jako potencjalnego zagrożenia stoi w sprzeczności z prawem, wydaje się arbitralne i może naruszać prawa z Pierwszej Poprawki. Osobno zauważono, że niezgoda firmy ze stanowiskiem rządu nie może usprawiedliwiać skutecznego napiętnowania jej jako niebezpiecznego podmiotu.
Anthropic oświadczyło, że docenia szybką decyzję sądu i zamierza kontynuować konstruktywny dialog z rządem, jednocześnie rozwijając bezpieczne technologie AI. Warto jednak zaznaczyć, że postępowanie prawne trwa, a ostateczny wyrok nie został jeszcze wydany, choć sąd już wskazał na duże prawdopodobieństwo utrzymania stanowiska firmy.