KI kann anonyme Nutzer identifizieren – Studie zeigt Gefahren für Privatsphäre

Forschende der Eidgenössischen Technischen Hochschule Zürich haben gemeinsam mit Spezialisten von Anthropic eine beunruhigende Entdeckung gemacht: Moderne große Sprachmodelle können bereits massenhaft die echten Identitäten von Nutzern ermitteln, die sich hinter Pseudonymen verstecken. Eine noch nicht peer-reviewte Studie kommt zu dem Schluss, dass der konventionelle "Schutz der Anonymität" im Internet rapide an Wirksamkeit verliert.

In einem Experiment entwickelten die Wissenschaftler eine KI, die Nutzerpublikationen und Profile in Foren analysierte und mit offenen Daten abglich. Basierend auf Texten von Plattformen wie Hacker News und Reddit gelang es dem System in etwa zwei Dritteln der Fälle, die tatsächlichen Identitäten zu bestimmen. Während ein Mensch für solche Arbeiten Stunden benötigen würde, führte das Modell sie automatisiert und in großem Maßstab durch.

Die Methode erwies sich selbst dann als effektiv, wenn unterschiedliche Datenquellen zusammengeführt wurden – von Forenkommentaren über LinkedIn-Profile bis hin zu anonymen Interviews. Selbst neutrale Texte, etwa Antworten auf Umfragen zur KI-Nutzung, ermöglichten es dem Modell in einigen Fällen, konkrete Personen zu identifizieren. Je aktiver ein Nutzer seine Meinungen teilte, desto einfacher konnte der Algorithmus die Suche eingrenzen.

Die Autoren betonen, dass sie keine Identitäten realer Personen offengelegt und spezielle Mechanismen zur sicheren Bewertung der Systemfähigkeiten entwickelt haben. Dennoch ist das Fazit der Studie besorgniserregend: Die bisherige "Unschärfe" digitaler Fußabdrücke bietet keinen ausreichenden Schutz mehr. Nutzer, Plattformen und Regulierungsbehörden müssen nach Ansicht der Forschenden ihr Verständnis von Privatsphäre im KI-Zeitalter überdenken – sonst droht der Internetanonymität ernsthafte Gefahr.