Az Anthropic és a Pentagon konfliktusa az AI-biztonság körül

Az Egyesült Államok Védelmi Minisztériuma kijelentette, hogy az Anthropic-kel való együttműködés elfogadhatatlan kockázatot jelent a nemzetbiztonságra. Ezt az álláspontot jogi dokumentumokban vázolták fel, amelyek a cég által indított perre válaszolnak. A vállalat ugyanis tiltakozik az ellene kimondott „ellátási lánc kockázat” megjelölés ellen.

A konfliktus abból ered, hogy az Anthropic nem hajlandó mesterséges intelligencia modelljeit tömeges megfigyelésre vagy autonóm fegyverek fejlesztésére felhasználni. A Pentagon megjegyezte, hogy az AI-technológia szerződések általában bármilyen törvényes célra engedélyezik a használatot, de a cég álláspontja kétségeket vetett fel partneri megbízhatóságát illetően, különösen érzékeny katonai projektek esetében.

A minisztérium hangsúlyozta, hogy az AI-rendszerek sebezhetőek a manipulációval szemben, és elméletileg a fejlesztő megváltoztathatja a modell viselkedését vagy korlátozhatja működését kritikus pillanatokban. A Védelmi Minisztérium szerint ilyen függőség egy magáncég döntéseitől elfogadhatatlan a katonai műveletekben, ami a korlátozások kiszabásának alapját képezte.

Korábban, ahogyan az ügyirat is rögzíti, az amerikai elnöki adminisztráció utasította a szövetségi ügynökségeket, hogy hagyják abba az Anthropic technológiáinak használatát. A cég bírósági úton próbálja elérni ennek az intézkedésnek az ideiglenes felfüggesztését, több milliárd dolláros veszteségekre hivatkozva. Eközben számos nagy technológiai vállalat, köztük a Microsoft, a Google és az OpenAI is támogatásáról biztosította az Anthropic-ot.