Pentagono e Anthropic in disaccordo sull'uso di Claude per la difesa

Il Pentagono statunitense e lo sviluppatore di intelligenza artificiale Anthropic sono vicini a uno scontro sulle condizioni d'uso del modello Claude. La disputa non riguarda la tecnologia in sé, ma le regole che l'azienda impone per le sue applicazioni militari.

Il Pentagono esige che qualsiasi sistema di intelligenza artificiale con cui collabora sia utilizzabile per tutti i compiti militari legittimi. Questo include scenari di sicurezza nazionale che potrebbero rientrare al di fuori delle restrizioni aziendali standard. Se Anthropic non accetta, la cooperazione su progetti di difesa cruciali potrebbe essere sospesa.

Nel frattempo, Anthropic mantiene rigidi standard etici. L'azienda vieta l'uso di Claude in sistemi d'arma autonomi e nella sorveglianza di massa dei cittadini senza intervento umano. La startup sottolinea che rispettare queste regole è di fondamentale importanza nello sviluppo dell'IA, specialmente in situazioni che coinvolgono vite umane.

In gioco c'è un contratto con il Dipartimento della Difesa degli Stati Uniti del valore fino a 200 milioni di dollari, firmato la scorsa estate. Prevedeva l'integrazione di Claude in diversi sistemi di difesa, ma ora rischia di saltare a causa di disaccordi di fondo tra le parti. Il Pentagono lascia intendere che, se le condizioni non verranno riviste, la collaborazione potrebbe essere interrotta del tutto.

Il caso Anthropic mette in luce il divario crescente tra le ambizioni etiche delle aziende tecnologiche e le esigenze pratiche del settore della difesa, sollevando la questione di chi debba determinare i limiti per le applicazioni di IA potenti: gli sviluppatori, il governo o i legislatori.