Soud pozastavil omezení pro využívání AI od Anthropic

Federální soud ve Spojených státech dočasně zablokoval vládní snahu zařadit společnost Anthropic na seznam rizik dodavatelského řetězce. Tento krok představuje významný obrat ve vyhroceném sporu o využívání umělé inteligence. Soudkyně Rita Lin vyhověla žádosti firmy o předběžné opatření, což v praxi znamená pozastavení omezení pro federální agentury, jež chtějí využívat její technologie.

Konflikt vypukl poté, co Anthropic odmítl upravit smluvní podmínky, které by umožnily využití jeho AI řešení pro hromadný dohled a vývoj autonomních zbraní. Vláda na to reagovala příkazem federálním úřadům, aby přestaly používat produkty společnosti včetně modelu Claude. Pentagon navíc oficiálně označil Anthropic za hrozbu pro dodavatelský řetězec – označení, jež se obvykle vyhrazuje zahraničním konkurentům.

Soud však tyto kroky zpochybnil. Ve svém rozhodnutí uvádí, že vládní opatření působí jako pokus potrestat firmu za veřejnou kritiku. Soudkyně zdůraznila, že klasifikace Anthropic jako potenciální hrozby odporuje zákonu, působí svévolně a může porušovat práva garantovaná Prvním dodatkem ústavy. Samostatně bylo konstatováno, že nesouhlas společnosti s postojem vlády nemůže ospravedlnit její efektivní označení za nebezpečný subjekt.

Společnost Anthropic uvedla, že si cení rychlého rozhodnutí soudu a hodlá pokračovat v konstruktivní spolupráci s vládou při vývoji bezpečných technologií umělé inteligence. Právní řízení však stále probíhá a konečný verdikt dosud nebyl vynesen. Soud již nicméně naznačil, že je velmi pravděpodobné, že pozice společnosti bude potvrzena.