La Maison-Blanche cherche à renforcer le contrôle sur le développement de l’intelligence artificielle. D’après le New York Times, ses équipes envisagent de créer un groupe de travail spécifique pour surveiller les nouveaux modèles d’IA.
L’idée phare ? Une évaluation fédérale obligatoire avant toute mise sur le marché d’un système d’IA. Concrètement, les entreprises ne pourraient plus lancer librement leurs modèles : elles devraient auparavant se soumettre à un examen de sécurité et de gestion des risques.
Rien n’est encore décidé, mais le cadre réglementaire à l’étude s’inspire en partie du modèle britannique, où plusieurs niveaux de supervision existent déjà. Là-bas, les systèmes sont vérifiés pour leur conformité aux normes de sécurité, même si ce dispositif essuie des critiques et connaît des désaccords internes.
Si une telle architecture voyait le jour, elle marquerait un tournant net par rapport à la stratégie américaine précédente, qui misait sur une intervention minimale de l’État et accordait une large autonomie aux acteurs du secteur.
Face aux avancées technologiques rapides et à l’accumulation des risques, l’administration semble prête à changer de cap. Reste à savoir si elle parviendra à bâtir un système efficace, capable de juguler les menaces sans brider l’innovation.