La Casa Bianca valuta una stretta sullo sviluppo dell'intelligenza artificiale

Danny Weber

La Casa Bianca discute la creazione di una task force per monitorare i modelli IA e imporre una revisione federale obbligatoria prima del rilascio. Scopri di più

La Casa Bianca sta valutando come intensificare i controlli sullo sviluppo dell'intelligenza artificiale. Stando al New York Times, i funzionari discutono la creazione di un'apposita task force per monitorare i nuovi modelli di IA.

La proposta principale prevede una revisione federale obbligatoria dei sistemi di IA prima del loro rilascio pubblico. In pratica, questo impedirebbe alle aziende di lanciare liberamente nuovi modelli senza prima aver superato valutazioni di sicurezza e rischio.

Non c'è ancora una decisione definitiva, ma il modello normativo in esame richiama in parte il modello britannico, che già prevede una supervisione articolata su più livelli. Là i sistemi sono sottoposti a controlli di conformità agli standard di sicurezza, anche se il quadro normativo stesso è oggetto di critiche e divisioni interne.

L'eventuale istituzione di una simile struttura rappresenterebbe un'inversione di rotta netta rispetto alla strategia precedente degli Stati Uniti. Il piano precedente per l'IA puntava su un intervento pubblico ridotto al minimo, lasciando ampia libertà alle aziende.

Ora, con l'accelerazione tecnologica e i rischi crescenti, l'amministrazione potrebbe cambiare rotta. Resta da vedere se l'attuale amministrazione sia in grado di mettere a punto un sistema di regole efficace, capace di arginare i potenziali pericoli senza frenare l'innovazione.

© RusPhotoBank