AI potrafi identyfikować użytkowników – zagrożenia dla prywatności

Naukowcy ze Szwajcarskiego Federalnego Instytutu Technologii w Zurychu, współpracujący ze specjalistami z Anthropic, twierdzą, że współczesne duże modele językowe potrafią już masowo identyfikować prawdziwe tożsamości użytkowników ukrywających się za pseudonimami. Zgodnie z badaniem, które nie przeszło jeszcze recenzji, tradycyjna "ochrona anonimowości" w internecie szybko traci na skuteczności.

W eksperymencie stworzono agenta AI analizującego publikacje i profile użytkowników na forach, porównując je z otwartymi danymi. Na podstawie tekstów z platform takich jak Hacker News i Reddit system zdołał ustalić prawdziwe tożsamości w około dwóch trzecich przypadków. Człowiek potrzebowałby na taką pracę wielu godzin, podczas gdy model wykonywał ją automatycznie i na dużą skalę.

Metoda okazała się skuteczna nawet przy dopasowywaniu różnych źródeł danych – od komentarzy na forach po profile LinkedIn i anonimowe wywiady. Nawet neutralne teksty, takie jak odpowiedzi na ankiety dotyczące korzystania z AI, pozwalały modelowi w niektórych przypadkach zidentyfikować konkretne osoby. Im aktywniej użytkownik wyrażał opinie, tym łatwiej było algorytmowi zawęzić poszukiwania.

Autorzy podkreślają, że nie ujawnili tożsamości realnych osób i opracowali specjalne mechanizmy do bezpiecznej oceny możliwości systemu. Mimo to wniosek z badania jest niepokojący: dotychczasowa "rozmytość" cyfrowych śladów nie gwarantuje już ochrony. Według naukowców użytkownicy, platformy i regulatorzy muszą na nowo przemyśleć swoje rozumienie prywatności w erze AI, w przeciwnym razie anonimowość w internecie może stanąć przed poważnymi zagrożeniami.