Bílý dům hledá cesty, jak zpřísnit dohled nad vývojem umělé inteligence. Podle informací deníku The New York Times úředníci diskutují o vzniku specializované pracovní skupiny, která by monitorovala nové modely AI.
Klíčovým návrhem je zavedení povinného federálního přezkumu AI systémů před jejich veřejným uvedením. Pro firmy by to v praxi znamenalo konec volného uvádění nových modelů – nejprve by musely absolvovat bezpečnostní a rizikové hodnocení.
Konečné rozhodnutí zatím nepadlo. Zvažovaný regulační model se však částečně inspiruje přístupem Spojeného království, kde již funguje vícestupňový dohled nad umělou inteligencí. Tam se systémy kontrolují z hlediska dodržování bezpečnostních norem, ačkoli tento rámec čelí kritice i vnitřním sporům.
Vznik takové struktury by znamenal výrazný odklon od předchozí americké strategie. Dřívější plán rozvoje AI zdůrazňoval minimální zásahy státu a ponechával firmám značnou volnost.
S rychlým technologickým pokrokem a narůstajícími riziky se nyní administrativa může odhodlat ke změně kurzu. Stále však není jasné, zda současné vedení Bílého domu dokáže vytvořit účinný regulační systém, který by krotil potenciální hrozby, aniž by udusil inovace.