Tekoälyn luoman sisällön tunnistaminen ja luottamus digitaaliseen materiaaliin

Lähes kaikki yhdysvaltalaiset aikuiset ovat kohdanneet tekoälyn luomaa sisältöä, mutta paljon vähemmän osaa luotettavasti erottaa sitä aidosta materiaalista. CNET:n tutkimuksen mukaan 94 prosenttia vastaajista on nähnyt tekoälyn luomia kuvia tai videoita sosiaalisessa mediassa. Vain 44 prosenttia uskoo kykenevänsä tarkasti tunnistamaan, katsovatko he todellista materiaalia vai algoritmin tuotosta.

Useimmat käyttäjät luottavat visuaaliseen analyysiin. Noin 60 prosenttia vastaajista myönsi tarkkailevansa kuvien tai videoiden yksityiskohtia epäjohdonmukaisuuksien varalta. Tämä lähestymistapa on kuitenkin yhä epäluotettavampi. Neljännes kyselyyn osallistuneista käyttää käänteistä kuvahakua lähteiden tarkistamiseen, kun taas 5 prosenttia turvautuu erikoistuneisiin deepfake-tunnistuspalveluihin. Toiset 3 prosenttia käsittelevät tällaista sisältöä alusta alkaen mahdollisesti väärennöksenä.

Yli puolet osallistujista – 51 prosenttia – pitää tekoälyn luomien materiaalien pakollista merkitsemistä tarpeellisena. Toiset 21 prosenttia kannattaa radikaaleja toimenpiteitä, ehdottamalla tekoälysisällön täydellistä kieltämistä sosiaalisessa mediassa. Vain 11 prosenttia vastaajista näkee näissä videoissa ja kuvissa käytännön tai informatiivista arvoa.

Tutkimus paljasti myös, että 72 prosenttia yhdysvaltalaisista aikuisista yrittää varmistaa videoiden aitouden, vaikka kriittinen tarkastelu on vähäisempää vanhemmissa sukupolvissa. Generatiivisten mallien kehittyessä nopeasti perinteiset väärennösten havaitsemisen vihjeet – kuten väärät sormimäärät – ovat muuttumassa yhä vähemmän relevantiksi. Asiantuntijat huomauttavat, että luottamus digitaaliseen sisältöön on muuttumassa yhä ongelmallisemmaksi, mikä vaatii alustoilta systemaattisempia ratkaisuja.