El Pentágono declara que la IA de Anthropic es un riesgo para la seguridad nacional

El Departamento de Defensa de Estados Unidos ha declarado que la colaboración con Anthropic representa un riesgo inaceptable para la seguridad nacional. Esta postura se detalló en documentos legales presentados en respuesta a una demanda de la propia empresa, que impugna su designación como un riesgo para la cadena de suministro.

El conflicto surge de la negativa de Anthropic a permitir que sus modelos de inteligencia artificial se utilicen para vigilancia masiva o desarrollo de armas autónomas. El Pentágono señaló que los contratos de tecnología de IA suelen permitir el uso para cualquier propósito legal, pero la posición de la empresa ha generado dudas sobre su fiabilidad como socio para proyectos militares sensibles.

El departamento también subrayó que los sistemas de IA son vulnerables a la manipulación, y un desarrollador podría, en teoría, alterar el comportamiento de un modelo o restringir su funcionalidad en un momento crítico. Según el Departamento de Defensa, esta dependencia de las decisiones de una empresa privada es inaceptable en operaciones militares, lo que fundamentó la imposición de restricciones.

Anteriormente, como se documentó en el caso, la administración presidencial estadounidense ordenó a las agencias federales que dejaran de usar las tecnologías de Anthropic. La empresa busca una suspensión temporal de esta decisión a través de los tribunales, alegando posibles pérdidas multimillonarias. Mientras tanto, varias grandes empresas tecnológicas, incluyendo Microsoft, Google y OpenAI, han expresado su apoyo a Anthropic.