Pentagon a Anthropic ve sporu o použití AI Clauda v obraně

Pentagon a společnost Anthropic, která vyvíjí umělou inteligenci, se ocitly na pokraji konfliktu kvůli podmínkám používání modelu Claude. Spor se netýká samotné technologie, ale pravidel, která firma uplatňuje pro vojenské aplikace.

Pentagon požaduje, aby všechny systémy umělé inteligence, se kterými spolupracuje, byly použitelné pro všechny zákonné vojenské úkoly. To zahrnuje i scénáře národní bezpečnosti, které mohou přesahovat standardní korporátní omezení. Pokud Anthropic nesouhlasí, spolupráce na klíčových obranných projektech by mohla být pozastavena.

Společnost Anthropic naopak trvá na přísných etických standardech. Firma zakazuje použití Clauda v autonomních zbraňových systémech a masovém sledování občanů bez lidského zapojení. Startup zdůrazňuje, že dodržování těchto pravidel je v rozvoji umělé inteligence kriticky důležité, zejména v situacích ovlivňujících lidské životy.

V sázce je smlouva s americkým ministerstvem obrany v hodnotě až 200 milionů dolarů, podepsaná loni v létě. Původně počítala s integrací Clauda do několika obranných systémů, ale nyní čelí potenciálnímu kolapsu kvůli zásadním neshodám mezi stranami. Pentagon naznačuje, že pokud se podmínky nezmění, spolupráce by mohla být ukončena úplně.

Případ Anthropic ukazuje rostoucí propast mezi etickými ambicemi technologických společností a praktickými požadavky obranného sektoru. To vyvolává otázku, kdo by měl určovat hranice pro výkonné aplikace umělé inteligence – zda vývojáři, vláda, nebo zákonodárci.