Vita huset undersöker hur man kan skärpa översynen av AI-utvecklingen. Enligt The New York Times diskuterar tjänstemän att inrätta en särskild arbetsgrupp med uppdrag att övervaka nya AI-modeller.
Ett av huvudförslagen är att AI-system ska genomgå en obligatorisk federal granskning innan de släpps offentligt. I praktiken skulle det innebära att företagen inte längre fritt kan lansera nya modeller utan att först ha genomgått säkerhets- och riskbedömningar.
Något slutgiltigt beslut har ännu inte fattats, men den regleringsmodell som övervägs påminner delvis om den brittiska, där flernivå-tillsyn av AI redan är på plats. Där kontrolleras systemens efterlevnad av säkerhetsstandarder, även om ramverket är föremål för kritik och interna motsättningar.
Skulle en sådan struktur upprättas, vore det ett tydligt trendbrott från USA:s tidigare strategi. Den dåvarande AI-planen betonade minimala statliga ingripanden och gav företagen stort manöverutrymme.
Nu, när tekniken utvecklas i allt snabbare takt och riskerna ökar, kan administrationen svänga. Det återstår att se om Vita huset kan utforma ett effektivt regelverk som dämpar hoten utan att kväva innovationen.