Danny Weber
09:27 25-11-2025
© A. Krivonosov
Un estudio revela que la IA imita a humanos en encuestas en línea, evade detectores y sesga resultados a bajo costo. Guía para evitar sesgos.
Las encuestas en línea, durante años columna vertebral de la investigación en ciencias sociales y del comportamiento, encaran una amenaza seria. Según 404 Media, el profesor de Dartmouth College Sean Westwood publicó en PNAS un estudio que muestra que los modelos de lenguaje actuales pueden aproximarse de forma sorprendente a imitar a respondentes humanos, poniendo en entredicho la credibilidad de los sondeos.
Westwood desarrolló una herramienta a la que llama “respondente sintético autónomo”: un agente de IA que contesta como si fuera una persona y logra esquivar el 99,8% de los sistemas avanzados de detección de bots. Advierte que los investigadores ya no pueden estar seguros de que las respuestas provengan de individuos reales y que la contaminación de datos por bots podría erosionar la base de conocimiento científico.
Lo inquietante es la forma en que el sistema supera tareas diseñadas para separar humanos de automatismos. No se limita a responder: replica microconductas humanas con minuciosidad. Ajusta el tiempo de lectura al nivel educativo declarado del participante, emula movimientos realistas del cursor, escribe con erratas y correcciones sobre la marcha, e incluso sortea reCAPTCHA.
La IA también puede crear perfiles ficticios con cualquier combinación demográfica, permitiendo a un atacante orientar los resultados eligiendo las características deseadas. El estudio constató que sesgar las proyecciones en siete encuestas clave previas a las elecciones de 2024 requería tan solo entre 10 y 52 respuestas sintéticas, a un coste aproximado de cinco centavos cada una, frente a unos 1,50 dólares por participante real. Solo ese cálculo económico ya invita a no pasar por alto el riesgo de abuso.
El método se probó con una amplia gama de modelos —OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 y Gemini 2.5 Preview—. En todos los casos, los resultados fueron llamativamente eficaces: tras una instrucción de 500 palabras, los modelos adoptaron la persona indicada y respondieron como usuarios reales.
Los equipos de investigación podrían endurecer la verificación de identidad y optar por reclutamientos más estrictos —muestreo mediante direcciones postales o registros de votantes, por ejemplo—, pero eso eleva los riesgos para la privacidad. Los autores piden replantear las prácticas estándar y diseñar nuevos protocolos capaces de preservar la fiabilidad de la investigación social en una era de IA que avanza a toda velocidad. El mensaje es nítido: la frontera entre humano y máquina se difumina, y la metodología deberá ponerse al día.