AIによる匿名ユーザーの実名特定とプライバシー懸念

スイス連邦工科大学チューリッヒ校の研究者らが、Anthropicの専門家と共同で、現代の大規模言語モデルは、すでに偽名で隠れたユーザーの実名を大量に特定できると主張している。査読前の研究によれば、インターネット上の従来の「匿名性の保護」は急速に効果を失いつつある。

実験では、科学者らがAIエージェントを構築し、ユーザーのフォーラム投稿やプロフィールを分析し、公開データと照合した。Hacker NewsやRedditなどのプラットフォームからのテキストに基づき、システムは約3分の2のケースで実名を特定することに成功した。この作業は人間が手作業で行うと数時間を要するが、モデルは自動的かつ大規模に実行した。

この手法は、フォーラムのコメントからLinkedInのプロフィールや匿名インタビューまで、異なるデータソースを照合する場合でも有効だった。AI利用に関するアンケートへの回答など、中立的なテキストでも、モデルが特定の個人を突き止める例があった。ユーザーが意見を活発に共有するほど、アルゴリズムは検索範囲を絞り込みやすかった。

著者らは、実在する人物の身元を明かさず、システムの能力を安全に評価する特別な仕組みを開発したと強調する。それでも、研究の結論は懸念すべきものだ。従来のデジタルフットプリントの「曖昧さ」は、もはや保護を保証しなくなった。科学者らによれば、ユーザー、プラットフォーム、規制当局は、AI時代のプライバシーに対する理解を見直す必要があり、さもなければインターネットの匿名性は深刻な脅威に直面する可能性がある。