AI potrafi identyfikować użytkowników – zagrożenia dla prywatności
Badanie pokazuje, że duże modele językowe masowo identyfikują prawdziwe tożsamości użytkowników. Dowiedz się, jak AI zagraża anonimowości w internecie.
Badanie pokazuje, że duże modele językowe masowo identyfikują prawdziwe tożsamości użytkowników. Dowiedz się, jak AI zagraża anonimowości w internecie.
© RusPhotoBank
Naukowcy ze Szwajcarskiego Federalnego Instytutu Technologii w Zurychu, współpracujący ze specjalistami z Anthropic, twierdzą, że współczesne duże modele językowe potrafią już masowo identyfikować prawdziwe tożsamości użytkowników ukrywających się za pseudonimami. Zgodnie z badaniem, które nie przeszło jeszcze recenzji, tradycyjna "ochrona anonimowości" w internecie szybko traci na skuteczności.
W eksperymencie stworzono agenta AI analizującego publikacje i profile użytkowników na forach, porównując je z otwartymi danymi. Na podstawie tekstów z platform takich jak Hacker News i Reddit system zdołał ustalić prawdziwe tożsamości w około dwóch trzecich przypadków. Człowiek potrzebowałby na taką pracę wielu godzin, podczas gdy model wykonywał ją automatycznie i na dużą skalę.
Metoda okazała się skuteczna nawet przy dopasowywaniu różnych źródeł danych – od komentarzy na forach po profile LinkedIn i anonimowe wywiady. Nawet neutralne teksty, takie jak odpowiedzi na ankiety dotyczące korzystania z AI, pozwalały modelowi w niektórych przypadkach zidentyfikować konkretne osoby. Im aktywniej użytkownik wyrażał opinie, tym łatwiej było algorytmowi zawęzić poszukiwania.
Autorzy podkreślają, że nie ujawnili tożsamości realnych osób i opracowali specjalne mechanizmy do bezpiecznej oceny możliwości systemu. Mimo to wniosek z badania jest niepokojący: dotychczasowa "rozmytość" cyfrowych śladów nie gwarantuje już ochrony. Według naukowców użytkownicy, platformy i regulatorzy muszą na nowo przemyśleć swoje rozumienie prywatności w erze AI, w przeciwnym razie anonimowość w internecie może stanąć przed poważnymi zagrożeniami.