Departament Obrony USA uznaje Anthropic za zagrożenie dla bezpieczeństwa

Departament Obrony USA uznał, że współpraca z firmą Anthropic stanowi "niedopuszczalne zagrożenie" dla bezpieczeństwa narodowego. Tę pozycję przedstawiono w dokumentach prawnych będących odpowiedzią na pozew samej firmy, która kwestionuje swoje oznaczenie jako "zagrożenie dla łańcucha dostaw".

Konflikt wynika z odmowy Anthropic dotyczącej wykorzystania jej modeli sztucznej inteligencji do masowego nadzoru lub rozwoju autonomicznej broni. Pentagon zauważył, że kontrakty na technologie AI zazwyczaj pozwalają na użycie do dowolnych legalnych celów, ale stanowisko firmy wzbudziło wątpliwości co do jej wiarygodności jako partnera dla wrażliwych projektów wojskowych.

Departament podkreślił również, że systemy AI są podatne na manipulację, a deweloper mógłby teoretycznie zmienić zachowanie modelu lub ograniczyć jego funkcjonalność w kluczowym momencie. Według Departamentu Obrony, taka zależność od decyzji prywatnej firmy jest niedopuszczalna w operacjach wojskowych, co stanowiło podstawę do nałożenia ograniczeń.

W praktyce oznacza to, że amerykańska administracja prezydencka nakazała agencjom federalnym zaprzestanie korzystania z technologii Anthropic. Firma dąży do czasowego zawieszenia tej decyzji przez sądy, powołując się na potencjalne straty liczone w miliardach dolarów. W tym kontekście warto zauważyć, że kilka dużych firm technologicznych, w tym Microsoft, Google i OpenAI, wyraziło poparcie dla Anthropic.