Danny Weber
09:37 25-11-2025
© A. Krivonosov
PNAS掲載の研究が示すのは、大規模言語モデルによるAI合成回答者が人間を精巧に模倣し、ボット検出やreCAPTCHAを回避してオンライン調査の信頼性を揺るがす現実。人口統計の偽装や低コストな世論操作の危険、本人確認強化とプライバシーのジレンマ、運用プロトコルの必要性を解説。検出回避率99.8%という衝撃的結果も報告。
社会・行動科学のデータ収集を支えてきたオンライン調査が、いま大きな脅威にさらされている。404 Mediaの報道によると、ダートマス大学のショーン・ウェストウッド教授がPNASに発表した研究で、最新の大規模言語モデルが人間の回答者をほぼ完璧に模倣できることが示され、調査の信頼性が揺らいでいる。
ウェストウッド氏は「自律型合成回答者」と呼ぶツールを開発。人間になりすまして質問に答え、最先端のボット検出システムの99.8%をすり抜けるAIエージェントだ。研究者はもはや回答が本物の人から来ていると確信できないと同氏は警鐘を鳴らし、ボットによるデータ汚染が科学的知見の土台を蝕みかねないと指摘する。
不気味なのは、人間かどうかの見分けに使われてきた課題を、この仕組みが軽々と乗り越える点だ。単に答えるだけではない。人間の微細な挙動を緻密に再現する。回答者が申告した学歴に合わせて読む速度を変え、現実味のあるマウス操作を示し、タイプミスと即時の修正まで織り込み、reCAPTCHAも回避する。
さらにAIは、望む属性を選ぶだけでどんな人口統計でも“それらしい”プロフィールを量産でき、攻撃者が結果を誘導する余地を広げる。研究では、2024年以前の主要な選挙関連の7つの世論調査で予測を偏らせるのに、合成回答は10件から52件で足りたという。1件あたりのコストは約$0.05。一方で実際の参加者は約$1.50。これだけの差となれば、悪用を見過ごすのは難しい。
手法は幅広いモデルで試された。OpenAI o4-mini、DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3、Gemini 2.5 Previewのいずれでも、効果は顕著だ。約500語のプロンプトを与えると、モデルは指定した人物像になりきり、実在のユーザーのように回答した。
対策としては、本人確認を厳格化し、住所や有権者名簿などに基づく厳しいリクルーティングに頼る手もある。ただしそれはプライバシーのリスクを高める。著者らは、従来の運用を見直し、加速するAI時代でも社会調査の信頼性を保てる新しいプロトコルの整備を求めている。悠長に構えている余裕はない。