La Casa Blanca busca endurecer la supervisión del desarrollo de la inteligencia artificial. Según revela The New York Times, se discute la creación de un grupo de trabajo específico para vigilar los nuevos modelos de IA.
Una de las propuestas clave es la revisión federal obligatoria de los sistemas de IA antes de su lanzamiento. En términos prácticos, esto impediría a las empresas lanzar libremente nuevos modelos sin haber superado antes controles de seguridad y evaluación de riesgos.
Aún no hay una decisión definitiva, pero el modelo regulatorio que se baraja recuerda en parte al enfoque del Reino Unido, donde ya opera una supervisión escalonada de la IA. Allí los sistemas se someten a verificaciones de conformidad con los estándares de seguridad, aunque el propio marco suscita críticas y desencuentros internos.
De implantarse una estructura de este tipo, supondría un vuelco frente a la estrategia anterior de Estados Unidos. El plan de desarrollo de IA previo se caracterizaba por una intervención pública mínima y otorgaba a las empresas un amplio margen de maniobra.
En el contexto actual de rápida evolución tecnológica y crecientes riesgos, la administración podría virar su rumbo. Queda por ver si la actual Casa Blanca es capaz de diseñar un sistema regulatorio eficaz que contenga las amenazas potenciales sin estrangular la innovación.