USA:s försvar klassificerar Anthropics AI som säkerhetsrisk
USA:s försvarsdepartement anser att samarbetet med Anthropic innebär oacceptabel risk för nationell säkerhet. Läs om konflikten kring AI-modeller och militära projekt.
USA:s försvarsdepartement anser att samarbetet med Anthropic innebär oacceptabel risk för nationell säkerhet. Läs om konflikten kring AI-modeller och militära projekt.
© RusPhotoBank
USA:s försvarsdepartement har uttryckt att samarbetet med Anthropic innebär en oacceptabel risk för nationell säkerhet. Denna ståndpunkt framgår av juridiska dokument som svar på ett mål från företaget självt, som ifrågasätter sin klassificering som en risk i försörjningskedjan.
Konflikten har sitt ursprung i Anthropics vägran att låta sina artificiella intelligens-modeller användas för massövervakning eller utveckling av autonoma vapen. Pentagon påpekar att AI-teknologikontrakt vanligtvis tillåter användning för alla lagliga ändamål, men företagets hållning har väckt tvivel om dess tillförlitlighet som partner för känsliga militära projekt.
Departementet betonar också att AI-system är sårbara för manipulation, och att en utvecklare teoretiskt sett skulle kunna ändra en modells beteende eller begränsa dess funktionalitet vid en kritisk tidpunkt. Enligt försvarsdepartementet är ett sådant beroende av ett privat företags beslut oacceptabelt i militära operationer, vilket låg till grund för att införa restriktioner.
Som tidigare dokumenterats i fallet har USA:s presidentadministration beordrat federala myndigheter att sluta använda Anthropics tekniker. Företaget eftersträvar en tillfällig uppskov med detta beslut via domstolarna och hänvisar till potentiella förluster på flera miljarder dollar. Samtidigt har flera stora teknikföretag, inklusive Microsoft, Google och OpenAI, uttryckt stöd för Anthropic.