Conflit entre le Pentagone et Anthropic sur les règles d'utilisation de l'IA Claude

Le Pentagone américain et le développeur d'IA Anthropic sont au bord d'un conflit concernant les conditions d'utilisation du modèle Claude. Le différend ne porte pas sur la technologie elle-même, mais sur les règles que l'entreprise impose pour ses applications militaires.

Le Pentagone exige que tout système d'intelligence artificielle avec lequel il collabore soit utilisable pour toutes les tâches militaires légales. Cela inclut des scénarios de sécurité nationale qui peuvent dépasser les restrictions habituelles des entreprises. Si Anthropic n'accepte pas, la coopération sur des projets de défense clés pourrait être suspendue.

De son côté, Anthropic maintient des normes éthiques strictes. La société interdit l'utilisation de Claude dans les systèmes d'armes autonomes et la surveillance de masse des citoyens sans intervention humaine. La startup souligne que le respect de ces règles est crucial dans le développement de l'IA, surtout dans des situations affectant des vies humaines.

En jeu, un contrat avec le département américain de la Défense, d'une valeur pouvant atteindre 200 millions de dollars, signé l'été dernier. Il prévoyait l'intégration de Claude dans plusieurs systèmes de défense, mais il risque désormais de s'effondrer en raison de désaccords fondamentaux entre les parties. Le Pentagone laisse entendre que si les conditions ne sont pas révisées, la coopération pourrait être totalement interrompue.

Le cas d'Anthropic illustre l'écart croissant entre les ambitions éthiques des entreprises technologiques et les besoins pratiques du secteur de la défense. Cela soulève une question essentielle : qui doit fixer les limites pour les applications puissantes de l'IA ? Les développeurs, le gouvernement ou les législateurs ?