Studie viser utfordringer med å oppdage KI-generert innhold

Nesten alle voksne amerikanere har møtt på innhold skapt av kunstig intelligens, men langt færre kan trygt skille det fra ekte materiale. En CNET-studie viser at 94 prosent av respondentene har sett KI-genererte bilder eller videoer på sosiale medier. Bare 44 prosent tror imidlertid at de kan vurdere nøyaktig om de ser på ekte opptak eller algoritmisk produsert innhold.

De fleste brukerne stoler på visuell analyse. Omtrent 60 prosent av respondentene innrømmet at de gransker detaljer i bilder eller videoer for å finne uoverensstemmelser. Denne tilnærmingen blir imidlertid stadig mer upålitelig. En fjerdedel av de spurte bruker omvendt bildesøk for å bekrefte kilder, mens 5 prosent henvender seg til spesialiserte tjenester for å oppdage deepfakes. Ytterligere 3 prosent behandler slikt innhold rett og slett som potensielt falskt fra starten av.

Mer enn halvparten av deltakerne – 51 prosent – mener at obligatorisk merking av KI-generert materiale er nødvendig. Ytterligere 21 prosent går inn for radikale tiltak og foreslår et fullstendig forbud mot KI-innhold på sosiale medier. Bare 11 prosent av respondentene ser praktisk eller informasjonsmessig verdi i disse videoene og bildene.

Studien avdekket også at 72 prosent av voksne amerikanere prøver å bekrefte videoers autentisitet, selv om kritisk gransking er lavere blant eldre generasjoner. Etter hvert som generative modeller utvikler seg raskt, blir tradisjonelle tegn for å oppdage falsknerier – som feil antall fingre – mindre relevante. Eksperter påpeker at tilliten til digitalt innhold blir stadig mer problematisk, noe som krever mer systematiske løsninger fra plattformer.