Come l’IA falsifica i sondaggi online: lo studio di Westwood

I sondaggi online, a lungo spina dorsale della raccolta dati nelle scienze sociali e comportamentali, stanno affrontando una minaccia seria. Secondo 404 Media, Sean Westwood, professore al Dartmouth College, ha pubblicato su PNAS uno studio che mostra come gli attuali modelli linguistici di grandi dimensioni riescano a imitare con sorprendente fedeltà i rispondenti umani, mettendo in discussione l’affidabilità dei questionari.

Westwood ha costruito uno strumento che definisce un autonomous synthetic respondent: un agente di IA che risponde passando per umano e aggirando il 99,8% dei sistemi di rilevamento bot più avanzati. L’autore avverte che i ricercatori non possono più essere certi che le risposte provengano da persone reali e sostiene che la contaminazione dei dati guidata dai bot rischi di erodere la base di conoscenze scientifiche.

Ciò che inquieta è il modo in cui il sistema supera i compiti un tempo usati per distinguere persone e automi. Non si limita a rispondere: replica con cura le micro-condotte umane. L’agente adatta i tempi di lettura al livello di istruzione dichiarato, simula movimenti plausibili del mouse, digita con refusi e correzioni al volo, e riesce persino ad aggirare reCAPTCHA.

L’IA può anche generare profili fittizi con qualsiasi combinazione demografica, permettendo a chi attacca di orientare i risultati scegliendo le caratteristiche desiderate. Lo studio segnala che per alterare le previsioni in sette sondaggi chiave precedenti al 2024 sono bastate da 10 a 52 risposte sintetiche — al costo di circa cinque centesimi l’una, contro circa 1,50 dollari per un partecipante reale. Solo il fattore costo rende difficile ignorare il rischio di abusi.

Il metodo è stato testato su un ampio ventaglio di modelli — OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 e Gemini 2.5 Preview. In tutti i casi, l’efficacia è stata notevole: dopo un prompt di 500 parole i modelli adottavano una persona specificata e rispondevano come utenti in carne e ossa.

I ricercatori potrebbero irrigidire la verifica dell’identità e puntare su reclutamenti più rigorosi — per esempio campionando tramite indirizzi o registri elettorali —, ma questo apre rischi per la privacy. Gli autori invitano a ripensare le pratiche standard e a creare nuovi protocolli in grado di mantenere affidabile la ricerca sociale in un’era di IA che avanza a ritmo serrato. Non c’è una soluzione semplice, ma il segnale è difficile da ignorare.