Pentagon og Anthropic i konflikt om AI-etikk og militære anvendelser
Les om konflikten mellom Pentagon og Anthropic om etiske regler for Claude AI i militære prosjekter, inkludert en kontrakt verdt 200 millioner dollar som står i fare.
Les om konflikten mellom Pentagon og Anthropic om etiske regler for Claude AI i militære prosjekter, inkludert en kontrakt verdt 200 millioner dollar som står i fare.
© RusPhotoBank
Det amerikanske forsvarsdepartementet og AI-utvikleren Anthropic er på randen av en konflikt om vilkårene for bruk av Claude-modellen. Uenigheten handler ikke om selve teknologien, men om selskapets regler for militære anvendelser.
Pentagon krever at alle kunstige intelligenssystemer det samarbeider med, må kunne brukes til alle lovlige militære oppgaver. Dette inkluderer nasjonale sikkerhetsscenarier som kan falle utenfor standarde bedriftsrestriksjoner. Hvis Anthropic ikke går med på dette, kan samarbeid om sentrale forsvarsprosjekter bli suspendert.
Anthropic holder seg til strenge etiske standarder. Selskapet forbyr bruk av Claude i autonome våpensystemer og masseovervåking av borgere uten menneskelig involvering. Oppstartsselskapet understreker at å følge disse reglene er kritisk viktig i AI-utvikling, spesielt i situasjoner som påvirker menneskeliv.
På spill står en kontrakt med det amerikanske forsvarsdepartementet verdt opptil 200 millioner dollar, signert i fjor sommer. Den så for seg integrering av Claude i flere forsvarsystemer, men står nå i fare for å kollapse på grunn av grunnleggende uenigheter mellom partene. Pentagon antyder at hvis vilkårene ikke revideres, kan samarbeidet avsluttes helt.
Anthropic-saken belyser det økende gapet mellom teknologiselskapers etiske ambisjoner og forsvarssektorens praktiske krav, og reiser spørsmålet om hvem som skal bestemme grensene for kraftige AI-anvendelser—utviklere, regjeringen eller lovgivere.