Pentagon och Anthropic i konflikt om AI-etik för militär användning
Läs om konflikten mellan Pentagon och Anthropic om etiska regler för AI-modellen Claude i militära sammanhang, med ett kontrakt på 200 miljoner dollar på spel.
Läs om konflikten mellan Pentagon och Anthropic om etiska regler för AI-modellen Claude i militära sammanhang, med ett kontrakt på 200 miljoner dollar på spel.
© RusPhotoBank
Pentagon och AI-utvecklaren Anthropic står på randen till en konflikt om villkoren för användningen av Claude-modellen. Tvärtemot vad man kan tro handlar det inte om själva teknologin, utan om de regler som företaget sätter upp för militära tillämpningar.
Pentagon kräver att alla artificiella intelligenssystem som används inom försvaret ska kunna användas för alla lagliga militära uppgifter. Detta inkluderar scenarier inom nationell säkerhet som kan falla utanför vanliga företagsrestriktioner. Om Anthropic inte går med på detta kan samarbetet kring viktiga försvarsprojekt komma att avbrytas.
Samtidigt håller Anthropic fast vid strikta etiska riktlinjer. Företaget förbjuder användning av Claude i autonoma vapensystem och massövervakning av medborgare utan mänsklig inblandning. Startupen understryker att det är avgörande att följa dessa regler inom AI-utveckling, särskilt i situationer som påverkar människors liv.
På spel står ett kontrakt med USA:s försvarsdepartement värt upp till 200 miljoner dollar, som undertecknades förra sommaren. Avtalet innebar att Claude skulle integreras i flera försvarsystem, men riskerar nu att kollapsa på grund av grundläggande meningsskiljaktigheter mellan parterna. Pentagon antyder att samarbetet kan avslutas helt om villkoren inte revideras.
Fallet Anthropic belyser det växande gapet mellan teknikföretagens etiska ambitioner och försvarssektorns praktiska krav. Det väcker frågan om vem som ska bestämma gränserna för kraftfulla AI-tillämpningar – utvecklarna, regeringen eller lagstiftarna.