LLM-mallit jäljittelevät ihmisiä ja ohittavat bottisuojat – verkkokyselyt kriisissä

Verkkokyselyt, jotka ovat pitkään olleet yhteiskunta- ja käyttäytymistieteiden tiedonkeruun peruspilari, ovat ajautumassa vakavaan paineeseen. 404 Median mukaan Dartmouth Collegen professori Sean Westwood julkaisi PNASissa tutkimuksen, jonka mukaan nykyiset suuret kielimallit kykenevät hämmästyttävän lähelle täydellisesti jäljittelemään ihmisten vastauksia – ja siten horjuttamaan kyselyiden uskottavuutta.

Westwood rakensi työkalun, jota hän kutsuu nimellä ”autonomous synthetic respondent” – itsenäinen synteettinen vastaaja. Kyse on tekoälyagentista, joka vastaa kysymyksiin ihmisenä esiintyen ja ohittaa 99,8 prosenttia kehittyneimmistä bottientunnistusjärjestelmistä. Westwoodin mukaan tutkijat eivät voi enää olla varmoja, tulevatko vastaukset oikeilta ihmisiltä, ja bottien aiheuttama datan saastuminen voi murentaa tieteellisen tiedon perustaa.

Hätkähdyttäväksi tämän tekee se, miten järjestelmä läpäisee tehtävät, joita on totuttu pitämään ihmisten ja bottien erottajina. Se ei vain vastaa; se jäljittelee mikrokäyttäytymistä häkellyttävällä tarkkuudella. Agentti säätää lukemiseen käyttämäänsä aikaa vastaajan ilmoitetun koulutustason mukaan, tuottaa realistisia hiirenliikkeitä, kirjoittaa kirjoitusvirheitä ja korjaa ne lennossa – ja kiertää jopa reCAPTCHAn.

Tekoäly voi myös luoda keksittyjä profiileja millä tahansa demografisella koostumuksella, jolloin tuloksia voidaan ohjata haluttuun suuntaan valitsemalla sopivat ominaisuudet. Tutkimuksessa havaittiin, että seitsemän ennen vuotta 2024 tehtyä keskeistä vaalikyselyä voitiin kallistaa suuntaan tai toiseen niinkin pienellä määrällä kuin 10–52 synteettistä vastausta. Yhden vastauksen hinnan ollessa noin viisi senttiä – verrattuna noin 1,50 dollariin oikealta osallistujalta – pelkkä kustannusasetelma tekee väärinkäytön mahdollisuudesta vaikeasti sivuutettavan.

Menetelmää testattiin laajalla mallikirjolla: OpenAI o4-mini, DeepSeek R1, Mistral Large, Claude 3.7 Sonnet, Grok3 ja Gemini 2.5 Preview. Tulokset olivat jokaisella kerralla poikkeuksellisen tehokkaita: noin 500 sanan ohjeistuksella mallit omaksuivat määrätyn persoonan ja vastasivat kuin oikeat käyttäjät.

Tutkijat voisivat tiukentaa henkilöllisyyden varmistamista ja turvautua kurinalaisempaan rekrytointiin – esimerkiksi osoite- tai äänestäjärekistereihin – mutta se lisää yksityisyysriskejä. Tekijät kehottavat arvioimaan vakiintuneita käytäntöjä uudelleen ja luomaan uudet toimintamallit, jotka pitävät yhteiskuntatutkimuksen luotettavana aikana, jolloin tekoäly kehittyy vauhdilla. Kuva on selvä: vanhat menetelmät natisevat liitoksistaan, ja kestävä ratkaisu on löydettävä nopeasti.