Danny Weber
Biały Dom analizuje zaostrzenie nadzoru nad sztuczną inteligencją. Nowe przepisy mogą wymagać obowiązkowych testów bezpieczeństwa AI przed publicznym udostępnieniem. Czy to zmieni rynek?
Biały Dom analizuje możliwości zaostrzenia nadzoru nad rozwojem sztucznej inteligencji. Jak donosi The New York Times, urzędnicy dyskutują o powołaniu specjalnej grupy zadaniowej do monitorowania nowych modeli AI.
Jednym z kluczowych pomysłów jest obowiązkowa ocena federalna systemów AI, zanim trafią one do publicznego użytku. W praktyce oznacza to, że firmy nie mogłyby już swobodnie wypuszczać nowych modeli bez uprzednich testów bezpieczeństwa i analizy ryzyka.
Ostateczna decyzja jeszcze nie zapadła, jednak dyskutowany model regulacji w pewnym stopniu przypomina rozwiązania brytyjskie, gdzie już funkcjonuje wielopoziomowy nadzór nad sztuczną inteligencją. Tam systemy przechodzą kontrole zgodności z normami bezpieczeństwa, chociaż same przepisy spotykają się z krytyką i wewnętrznymi sporami.
Wprowadzenie takiego modelu oznaczałoby radykalny zwrot w porównaniu z dotychczasową strategią USA. Wcześniejszy plan rozwoju sztucznej inteligencji zakładał minimalną ingerencję państwa i pozostawiał firmom dużą swobodę działania.
Obecnie, w obliczu szybkiego postępu technologii i rosnących zagrożeń, administracja może zmienić kurs. Otwarte pozostaje pytanie, czy obecny Biały Dom będzie w stanie stworzyć skuteczne ramy regulacyjne, które ograniczą potencjalne ryzyko, nie tłamsząc przy tym innowacyjności.
© RusPhotoBank