Белый дом рассматривает возможность усиления контроля над разработкой искусственного интеллекта. По информации The New York Times, власти обсуждают создание специальной рабочей группы, которая будет следить за новыми моделями ИИ.
Одной из ключевых идей является введение обязательной федеральной проверки систем искусственного интеллекта до их публичного запуска. Это может означать, что компании больше не смогут свободно выпускать новые модели без предварительной оценки их безопасности и потенциальных рисков.
Пока окончательное решение не принято, но рассматриваемая модель регулирования частично напоминает подход Великобритании, где уже действует многоуровневый надзор за ИИ. Там проверяется соответствие технологий стандартам безопасности, хотя сама система регулирования сталкивается с критикой и внутренними спорами.
Если новая структура всё же появится, это станет резким поворотом по сравнению с предыдущей стратегией США. Ранее представленный план развития ИИ делал ставку на минимальное вмешательство государства и предоставлял компаниям значительную свободу действий.
Теперь же на фоне стремительного развития технологий и роста рисков власти могут пересмотреть этот подход. При этом остаётся открытым вопрос, сможет ли текущая администрация выстроить эффективную систему регулирования, которая не затормозит инновации, но при этом снизит потенциальные угрозы.