Pentagon és Anthropic vita Claude AI katonai használatáról

Az amerikai Pentagon és az Anthropic mesterséges intelligencia-fejlesztő cég konfliktus szélén állnak a Claude modell használati feltételei miatt. A vita nem magáról a technológiáról szól, hanem a cég katonai alkalmazásokra vonatkozó szabályairól.

A Pentagon követelménye, hogy minden olyan mesterséges intelligencia rendszer, amellyel együttműködik, minden törvényes katonai feladatra használható legyen. Ez olyan nemzetbiztonsági forgatókönyveket is magában foglal, amelyek esetleg kilógnak a szokásos vállalati korlátozásokból. Ha az Anthropic nem ért egyet, a kulcsfontosságú védelmi projektek együttműködése felfüggeszthető.

Az Anthropic eközben szigorú etikai normákat tart fenn. A cég tiltja a Claude használatát autonóm fegyverrendszerekben és a polgárok emberi beavatkozás nélküli tömeges megfigyelésében. A startup hangsúlyozza, hogy e szabályok betartása kritikus fontosságú az AI-fejlesztésben, különösen az emberi életeket érintő helyzetekben.

Kockán forog egy, a tavaly nyáron aláírt, akár 200 millió dollárt is elérő szerződés az Egyesült Államok Védelmi Minisztériumával. Ez a Claude több védelmi rendszerbe való integrálását célozta, de most alapvető nézeteltérések miatt összeomlás szélén áll. A Pentagon utal rá, hogy ha a feltételeket nem módosítják, az együttműködés teljesen megszűnhet.

Az Anthropic esete rávilágít a technológiai cégek etikai ambíciói és a védelmi szektor gyakorlati igényei közötti egyre nagyobb szakadékra, felvetve azt a kérdést, hogy ki határozza meg a hatékony AI-alkalmazások határait – a fejlesztők, a kormány vagy a törvényhozók.