Kan du skilja AI-innehåll från äkta material?
En studie visar att 94% av amerikaner stött på AI-genererat innehåll, men bara 44% kan skilja det från verkligt. Lär dig om metoder och utmaningar.
En studie visar att 94% av amerikaner stött på AI-genererat innehåll, men bara 44% kan skilja det från verkligt. Lär dig om metoder och utmaningar.
© Сгенерировано нейросетью
Nästan alla vuxna amerikaner har stött på innehåll skapat av AI, men betydligt färre kan med säkerhet skilja det från äkta material. Enligt en CNET-studie har 94 procent av respondenterna sett AI-genererade bilder eller videor på sociala medier. Men bara 44 procent tror att de kan avgöra korrekt om det är verkliga klipp eller algoritmisk produktion.
De flesta användare förlitar sig på visuell analys. Cirka 60 procent av respondenterna erkände att de granskar detaljer i bilder eller videor efter inkonsekvenser. Denna metod blir dock alltmer opålitlig. En fjärdedel av de tillfrågade använder omvänd bildsökning för att verifiera källor, medan 5 procent vänder sig till specialiserade tjänster för att upptäcka deepfakes. Ytterligare 3 procent behandlar sådant innehåll direkt som potentiellt falskt.
Mer än hälften av deltagarna—51 procent—anser att obligatorisk märkning av AI-genererat material är nödvändig. Ytterligare 21 procent förespråkar radikala åtgärder, som ett totalförbud mot AI-innehåll på sociala medier. Endast 11 procent av respondenterna ser praktiskt eller informativt värde i dessa videor och bilder.
Studien visade också att 72 procent av vuxna amerikaner försöker verifiera videors äkthet, även om den kritiska granskningen är lägre bland äldre generationer. När generativa modeller utvecklas snabbt blir traditionella ledtrådar för att upptäcka förfalskningar—som felaktigt antal fingrar—allt mindre relevanta. Experter noterar att förtroendet för digitalt innehåll blir alltmer problematiskt, vilket kräver mer systematiska lösningar från plattformarna.