AI生成コンテンツの見分け方と信頼性に関する米国調査

米国の成人のほとんどがAI生成コンテンツに遭遇したことがあるが、本物の素材と確信を持って見分けられる人ははるかに少ない。CNETの調査によると、回答者の94%がソーシャルメディアでAI生成の画像や動画を見たことがあると報告している。しかし、実際の映像とアルゴリズムによる出力を見分けられると自信を持って答えたのは44%にとどまった。

大半のユーザーは視覚的分析に頼っている。回答者の約60%が、画像や動画の詳細を不自然な点がないか精査していると認めた。しかしこのアプローチは次第に信頼性を失いつつある。調査対象者の4分の1はソースを確認するために逆画像検索を利用し、5%は専門的なディープフェイク検出サービスを利用している。さらに3%は、最初からそのようなコンテンツを潜在的に偽物として扱っている。

回答者の半数以上にあたる51%は、AI生成素材の義務的なラベリングが必要だと考えている。別の21%はより抜本的な対策を主張し、ソーシャルメディアでのAIコンテンツを完全に禁止することを提案している。これらの動画や画像に実用的または情報的価値を見出している回答者はわずか11%だった。

この調査では、米国成人の72%が動画の信憑性を確認しようと試みていることも明らかになった。ただし、高齢世代では批判的な精査が低い傾向にある。生成モデルが急速に進歩する中、指の本数が間違っているといった従来の偽物発見の手がかりは、次第に重要性を失いつつある。専門家は、デジタルコンテンツへの信頼がますます問題となりつつあり、プラットフォーム側によるより体系的な解決策が必要だと指摘している。