Anthropic vinner rettssak mot USA om AI-risikoliste

En føderal domstol i USA har midlertidig stoppet regjeringen fra å legge Anthropic til sin liste over risikoer i forsyningskjeden. Dette utgjør et betydelig vendepunkt i den høyt profilerte konflikten rundt bruken av kunstig intelligens. Dommer Rita Lin innvilget selskapets begjæring om en foreløpig forføyning, noe som effektivt setter begrensningene for at føderale etater kan bruke teknologien deres på vent.

Striden brøt ut etter at Anthropic nektet å endre kontraktsvilkår som ville tillatt AI-løsningene deres å brukes til masseovervåkning og utvikling av autonome våpen. Som svar beordret administrasjonen føderale departementer til å slutte å bruke selskapets produkter, inkludert Claude-modellen, og Pentagon merket offisielt Anthropic som en trussel mot forsyningskjeden – en betegnelse som vanligvis er forbeholdt utenlandske konkurrenter.

Domstolen fant disse handlingene tvilsomme. Avgjørelsen påpeker at regjeringens tiltak ser ut til å være et forsøk på å straffe selskapet for offentlig kritikk. Dommeren understreket at å klassifisere Anthropic som en potensiell trussel strider mot loven, virker vilkårlig og kan krenke rettighetene i det første grunnlovstillegget. Det ble også notert separat at selskapets uenighet med regjeringens holdning ikke kan rettferdiggjøre å merke det effektivt som en farlig aktør.

Anthropic uttalte at de setter pris på domstolens raske avgjørelse og har til hensikt å fortsette et konstruktivt samarbeid med regjeringen mens de utvikler trygge AI-teknologier. Rettsprosessen pågår imidlertid fortsatt, og en endelig avgjørelse er ikke avsagt ennå, selv om domstolen allerede har antydet en sterk sannsynlighet for at selskapets posisjon vil bli opprettholdt.