Syntetiske KI-respondenter lurer nettbaserte spørreundersøkelser og forvrenger data

Danny Weber

09:32 25-11-2025

© A. Krivonosov

PNAS-studie viser at KI-agenter kan etterligne menneskelige respondenter, passere 99,8% av bot-detektorer og påvirke nettundersøkelser. Les mer om risikoen.

Nettbaserte spørreundersøkelser, lenge selve ryggraden i datainnsamlingen innen samfunns- og atferdsvitenskap, står nå overfor en alvorlig trussel. Ifølge 404 Media har Dartmouth-professor Sean Westwood publisert en PNAS-studie som viser at dagens store språkmodeller kan etterligne menneskelige respondenter nesten til perfeksjon – noe som rokker ved troverdigheten til slike undersøkelser.

Westwood har utviklet et verktøy han omtaler som en «autonom syntetisk respondent», en KI-agent som svarer på spørsmål, passerer som menneske og sniker seg forbi 99,8 prosent av de mest avanserte bot-detektorene. Han advarer om at forskere ikke lenger kan være sikre på at svarene virkelig kommer fra mennesker, og at botdrevet forurensning av data kan undergrave selve kunnskapsgrunnlaget.

Det mest urovekkende er hvordan systemet håndterer oppgaver som tidligere skilte mennesker fra roboter. Det nøyer seg ikke med å svare; det speiler menneskelig mikroatferd ned til detaljnivå. Agenten tilpasser lesetid til respondentenes oppgitte utdanningsnivå, lager realistiske musebevegelser, skriver med tastefeil og spontane korrigeringer – og kommer seg til og med forbi reCAPTCHA.

KI-en kan også generere oppdiktede profiler med hvilken som helst demografisk sammensetning, slik at en angriper kan styre resultatene ved å velge ønskede kjennetegn. Studien fant at det i sju sentrale meningsmålinger før valgåret 2024 var nok med mellom 10 og 52 slike syntetiske svar for å vippe prognosene – til en kostnad på rundt 5 cent per svar, mot cirka 1,50 dollar for en ekte deltaker. Når regnestykket ser slik ut, blir risikoen vanskelig å se bort fra.

Metoden ble testet på en bred rekke modeller — OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 og Gemini 2.5 Preview. I samtlige tilfeller var effekten slående: Etter en prompt på 500 ord tok modellene en spesifisert rolle og svarte som ekte brukere.

Forskere kan i teorien stramme inn identitetskontrollen og rekruttere strengere — for eksempel ved å sample via adresser eller velgerregistre — men det øker personvernrisikoen. Forfatterne etterlyser derfor en revurdering av standardpraksis og nye protokoller som kan holde samfunnsforskningen pålitelig i en tid der KI utvikler seg i rekordfart. Det er vanskelig å se en vei videre uten at metodene oppdateres betydelig.