Tribunal bloquea restricciones a Anthropic en disputa por uso de IA

Un tribunal federal estadounidense ha bloqueado temporalmente la inclusión de Anthropic en la lista gubernamental de "riesgos en la cadena de suministro", un giro significativo en el conflicto de alto perfil sobre el uso de la inteligencia artificial. La jueza Rita Lin ha concedido a la empresa una medida cautelar, suspendiendo así las restricciones que impedían a las agencias federales emplear su tecnología.

La disputa estalló cuando Anthropic se negó a modificar los términos de sus contratos, que habrían permitido el uso de sus soluciones de IA para vigilancia masiva y desarrollo de armas autónomas. Como respuesta, la administración ordenó a los departamentos federales dejar de utilizar los productos de la empresa, incluido el modelo Claude, y el Pentágono designó oficialmente a Anthropic como una amenaza para la cadena de suministro, una etiqueta que suele reservarse a competidores extranjeros.

El tribunal ha cuestionado estas acciones. En su resolución señala que las medidas del gobierno parecen un intento de castigar a la empresa por sus críticas públicas. La jueza subrayó que clasificar a Anthropic como una amenaza potencial contradice la ley, parece arbitrario y podría violar los derechos de la Primera Enmienda. Además, se indicó por separado que el desacuerdo de la empresa con la postura gubernamental no justifica etiquetarla como una entidad peligrosa.

Anthropic declaró que agradece la rápida decisión judicial y tiene la intención de mantener un diálogo constructivo con el gobierno mientras desarrolla tecnologías de IA seguras. Sin embargo, el proceso legal continúa y aún no hay una resolución definitiva, aunque el tribunal ya ha señalado una alta probabilidad de que se respalde la posición de la empresa.