La Casa Bianca sta valutando come intensificare i controlli sullo sviluppo dell'intelligenza artificiale. Stando al New York Times, i funzionari discutono la creazione di un'apposita task force per monitorare i nuovi modelli di IA.
La proposta principale prevede una revisione federale obbligatoria dei sistemi di IA prima del loro rilascio pubblico. In pratica, questo impedirebbe alle aziende di lanciare liberamente nuovi modelli senza prima aver superato valutazioni di sicurezza e rischio.
Non c'è ancora una decisione definitiva, ma il modello normativo in esame richiama in parte il modello britannico, che già prevede una supervisione articolata su più livelli. Là i sistemi sono sottoposti a controlli di conformità agli standard di sicurezza, anche se il quadro normativo stesso è oggetto di critiche e divisioni interne.
L'eventuale istituzione di una simile struttura rappresenterebbe un'inversione di rotta netta rispetto alla strategia precedente degli Stati Uniti. Il piano precedente per l'IA puntava su un intervento pubblico ridotto al minimo, lasciando ampia libertà alle aziende.
Ora, con l'accelerazione tecnologica e i rischi crescenti, l'amministrazione potrebbe cambiare rotta. Resta da vedere se l'attuale amministrazione sia in grado di mettere a punto un sistema di regole efficace, capace di arginare i potenziali pericoli senza frenare l'innovazione.