Het Witte Huis bekijkt hoe het toezicht op de ontwikkeling van kunstmatige intelligentie kan worden aangescherpt. Volgens The New York Times wordt er gesproken over de oprichting van een speciale taskforce die nieuwe AI-modellen moet gaan monitoren.
Een van de belangrijkste voorstellen is een verplichte federale toetsing van AI-systemen voordat ze publiekelijk worden uitgebracht. In de praktijk betekent dit dat bedrijven niet langer zomaar nieuwe modellen op de markt mogen brengen zonder eerst een veiligheids- en risicobeoordeling te doorlopen.
Er is nog geen definitief besluit genomen, maar het model dat op tafel ligt, lijkt deels op de Britse aanpak, waar al een gelaagd toezichtssysteem voor AI functioneert. Daar toetst men systemen aan veiligheidsnormen, al is er ook kritiek op het systeem en spelen er interne tegenstellingen.
Zou zo'n structuur er daadwerkelijk komen, dan betekent dat een scherpe breuk met de voorgaande Amerikaanse koers. In het eerdere plan voor AI-ontwikkeling stond minimale overheidsbemoeienis centraal, met veel speelruimte voor de bedrijven.
Met de snelle technologische vooruitgang en de toenemende risico's kan de regering van koers veranderen. Of het huidige Witte Huis in staat is een effectief toezichtskader op te tuigen dat dreigingen beteugelt zonder de innovatie te smoren, is nog maar de vraag.