Онлайн-опросы, которые долгое время служили фундаментом для сбора данных в социальных и поведенческих науках, столкнулись с серьёзной угрозой. Согласно материалу 404 Media, профессор Дартмутского колледжа Шон Вествуд опубликовал в журнале PNAS исследование, показывающее, что современные большие языковые модели способны почти идеально имитировать человеческих респондентов — и разрушать достоверность опросов.
Вествуд создал инструмент под названием «автономный синтетический респондент» — ИИ-агента, который отвечает на вопросы, маскируясь под человека, и при этом обходит 99,8% самых продвинутых систем выявления ботов. Исследователь предупреждает, что теперь нельзя быть уверенным, что ответы в опросах принадлежат реальным людям, а «загрязнение данных ботами может подорвать всю научную базу знаний».
Особенно тревожно то, что ИИ научился обходить задачи, которые люди выполнить не могут, а роботы выполняют легко. Теперь система имитирует человеческое поведение настолько детально, что это перестаёт работать как инструмент проверки. Агент подстраивает время чтения под уровень образования, генерирует реалистичные движения мыши, печатает ответы с опечатками и исправлениями, а также умеет обходить reCAPTCHA.
ИИ также способен создавать фальшивые «профили» с любыми демографическими параметрами, что позволяет вмешиваться в результаты опросов, подбирая нужные характеристики респондентов. Исследование показало, что для искажения прогнозов семи ключевых опросов перед выборами 2024 года достаточно было добавить всего от 10 до 52 таких поддельных ответов — стоимостью всего по пять центов каждый, тогда как участие реального человека стоит около $1,50.
Метод проверили на широком наборе моделей: OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3, Gemini 2.5 Preview. Во всех случаях результаты оказались пугающе эффективными: модели имитировали заданный «характер» после чтения подсказки в 500 слов и отвечали как реальные пользователи.
Учёные могут усложнить верификацию личности участников, использовать более строгий набор методов отбора (например, выборку по адресам или файлам избирателей), но это повышает риски для приватности. Авторы исследования призывают к пересмотру методик и созданию новых протоколов, которые смогут обеспечить достоверность социсследований в эпоху стремительно развивающегося ИИ.