Az amerikai Pentagon és az Anthropic mesterséges intelligencia-fejlesztő cég konfliktus szélén állnak a Claude modell használati feltételei miatt. A vita nem magáról a technológiáról szól, hanem a cég katonai alkalmazásokra vonatkozó szabályairól.
A Pentagon követelménye, hogy minden olyan mesterséges intelligencia rendszer, amellyel együttműködik, minden törvényes katonai feladatra használható legyen. Ez olyan nemzetbiztonsági forgatókönyveket is magában foglal, amelyek esetleg kilógnak a szokásos vállalati korlátozásokból. Ha az Anthropic nem ért egyet, a kulcsfontosságú védelmi projektek együttműködése felfüggeszthető.
Az Anthropic eközben szigorú etikai normákat tart fenn. A cég tiltja a Claude használatát autonóm fegyverrendszerekben és a polgárok emberi beavatkozás nélküli tömeges megfigyelésében. A startup hangsúlyozza, hogy e szabályok betartása kritikus fontosságú az AI-fejlesztésben, különösen az emberi életeket érintő helyzetekben.
Kockán forog egy, a tavaly nyáron aláírt, akár 200 millió dollárt is elérő szerződés az Egyesült Államok Védelmi Minisztériumával. Ez a Claude több védelmi rendszerbe való integrálását célozta, de most alapvető nézeteltérések miatt összeomlás szélén áll. A Pentagon utal rá, hogy ha a feltételeket nem módosítják, az együttműködés teljesen megszűnhet.
Az Anthropic esete rávilágít a technológiai cégek etikai ambíciói és a védelmi szektor gyakorlati igényei közötti egyre nagyobb szakadékra, felvetve azt a kérdést, hogy ki határozza meg a hatékony AI-alkalmazások határait – a fejlesztők, a kormány vagy a törvényhozók.