Учёные назвали главную опасность ИИ
Учёные предупреждают о «роях» ИИ, способных создавать иллюзию массовой поддержки и манипулировать общественным мнением.
Science: «рои» ИИ грозят изменить общественное мнение
Учёные предупреждают о «роях» ИИ, способных создавать иллюзию массовой поддержки и манипулировать общественным мнением.
Science: «рои» ИИ грозят изменить общественное мнение
Фото: © RusPhotoBank
Международная группа учёных предупредила о новой угрозе — так называемых «роях» искусственного интеллекта, способных формировать иллюзию массового общественного мнения. В публикации в журнале Science исследователи отмечают, что объединение больших языковых моделей с многоагентными системами позволяет создавать координированные сети ИИ-персон, которые действуют как реальные пользователи и могут незаметно влиять на цифровую среду.
В отличие от примитивных ботов прошлого, современные ИИ-агенты способны поддерживать устойчивую «личность», запоминать предыдущие взаимодействия и адаптировать стиль общения в зависимости от реакции аудитории. Такие цифровые профили могут работать синхронно, продвигая одну и ту же повестку, но при этом имитируя независимые мнения. Это создаёт эффект «синтетического консенсуса», когда искусственно сгенерированная активность воспринимается как широкая общественная поддержка определённой позиции.
По мнению исследователей, подобные механизмы представляют серьёзную угрозу для демократических процессов и общественного диалога. Один злоумышленник при помощи ИИ может выдать себя за тысячи голосов, влияя на тренды, давление на публичных фигур и распространение дезинформации. Более того, массовое производство искусственного контента способно искажать обучающие данные для других систем искусственного интеллекта, усиливая эффект манипуляции.
Эксперты подчёркивают, что традиционная модерация отдельных публикаций уже неэффективна против подобных сетей. Вместо этого необходимо выявлять статистически аномальную координацию, отслеживать происхождение контента и применять методы поведенческих наук для анализа коллективных действий ИИ-агентов. Среди предложенных мер — внедрение механизмов верификации с сохранением приватности, создание распределённой системы мониторинга ИИ-влияния и сокращение финансовых стимулов для недостоверной онлайн-активности.