Studie PNAS: LLM napodobují lidi a podkopávají důvěru v online průzkumy

Online průzkumy, léta páteř sběru dat v sociálních a behaviorálních vědách, čelí vážné hrozbě. Jak uvádí 404 Media, profesor Dartmouth College Sean Westwood zveřejnil v PNAS studii, podle níž dnešní velké jazykové modely dokážou až znepokojivě věrně napodobit lidské respondenty, a tím zpochybňují důvěryhodnost průzkumů. Nejde přitom o okrajový detail; v sázce je metoda, na níž tyto obory dlouhodobě stojí.

Westwood vytvořil nástroj, který označuje jako „autonomního syntetického respondenta“ — AI agenta, jenž odpovídá na otázky, působí jako člověk a projde 99,8 % nejpokročilejších systémů detekce botů. Varuje, že badatelé si už nemohou být jisti, zda odpovědi skutečně pocházejí od lidí, a dodává, že kontaminace dat boty může podkopat vědeckou bázi poznání.

Znepokojivé je hlavně to, jak se systém vypořádává s úlohami, které dříve sloužily k oddělení lidí od botů. Nejenže odpovídá; s pečlivostí kopíruje mikrochování člověka. Agent přizpůsobuje dobu čtení uvedené úrovni vzdělání respondenta, vytváří realistické pohyby myší, píše s překlepy a průběžnými opravami a dokonce obejde reCAPTCHA. Obrana, na kterou se obor spoléhal, se tím mění v iluzi bezpečí.

AI navíc umí vytvářet fiktivní profily s libovolným demografickým složením, takže útočník může výsledky směrovat výběrem požadovaných charakteristik. Studie zjistila, že k vychýlení predikcí v sedmi klíčových předvolebních průzkumech před rokem 2024 stačilo 10 až 52 takových syntetických odpovědí — zhruba za pět centů za kus oproti asi 1,50 dolaru za skutečného účastníka. Už samotná ekonomika provozu dává zneužití těžko ignorovatelný náskok.

Metoda byla otestována napříč širokou paletou modelů — OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 a Gemini 2.5 Preview. Ve všech případech byly výsledky výrazně účinné: po 500slovném promptu modely přijaly zadanou personu a odpovídaly jako skuteční uživatelé.

Badatelé by sice mohli přitvrdit ověřování identity a sáhnout po přísnějším náboru — například přes adresní databáze nebo voličské seznamy — jenže to zvyšuje rizika pro soukromí. Autoři proto vyzývají k přehodnocení zavedených postupů a k vytvoření nových protokolů, které udrží sociální výzkum spolehlivý v éře rychle se vyvíjející AI. Bez takové změny budou bariéry i důvěra dál erodovat.