Verificări obligatorii pentru IA propuse de Casa Albă

Danny Weber

Casa Albă vrea evaluare obligatorie a modelelor de IA înainte de lansare, inspirată de reglementările din Marea Britanie, pentru controlul riscurilor.

Casa Albă caută metode de a înăspri controlul asupra dezvoltării inteligenței artificiale. Conform The New York Times, oficialii iau în discuție crearea unei echipe speciale care să monitorizeze noile modele de IA.

Una dintre propunerile principale prevede ca sistemele de IA să fie supuse unei evaluări federale obligatorii înainte de a fi lansate public. În practică, asta ar însemna că firmele nu ar mai putea lansa liber noi modele fără a trece mai întâi prin verificări de siguranță și risc.

Deocamdată nu există o decizie finală, dar modelul de reglementare analizat reflectă parțial abordarea Marii Britanii, unde funcționează deja un sistem de supraveghere a IA pe mai multe paliere. Acolo, sistemele sunt verificate din punct de vedere al conformității cu standardele de siguranță, deși cadrul în sine este criticat și se confruntă cu divergențe interne.

Dacă o astfel de structură va fi adoptată, ar reprezenta o ruptură netă față de strategia americană anterioară. Planul precedent de dezvoltare a IA punea accentul pe o intervenție guvernamentală minimă și lăsa companiilor o marjă considerabilă de manevră.

Acum, în contextul în care tehnologia avansează rapid și riscurile se acumulează, administrația ar putea schimba macazul. Rămâne de văzut dacă actuala administrație de la Casa Albă poate concepe un sistem de reglementare eficient, care să țină sub control eventualele amenințări fără a înăbuși inovația.

© RusPhotoBank