Hoe Amerikanen AI-gegenereerde content herkennen en controleren

Bijna alle Amerikaanse volwassenen zijn al eens AI-gegenereerde content tegengekomen, maar veel minder mensen kunnen dat met zekerheid van authentiek materiaal onderscheiden. Uit een onderzoek van CNET blijkt dat 94% van de respondenten AI-gegenereerde beelden of video's op sociale media heeft gezien. Slechts 44% denkt echter nauwkeurig te kunnen bepalen of ze naar echt beeldmateriaal of naar algoritmische output kijken.

De meeste gebruikers vertrouwen op visuele analyse. Ongeveer 60% van de respondenten gaf toe details in beelden of video's op inconsistenties te controleren. Deze aanpak is echter steeds onbetrouwbaarder. Een kwart van de ondervraagden gebruikt reverse image search om bronnen te verifiëren, terwijl 5% gespecialiseerde deepfake-detectiediensten inschakelt. Nog eens 3% behandelt dergelijke content vanaf het begin simpelweg als potentieel nep.

Meer dan de helft van de deelnemers—51%—vindt verplichte labeling van AI-gegenereerd materiaal noodzakelijk. Nog eens 21% pleit voor radicale maatregelen en stelt een volledig verbod op AI-content op sociale media voor. Slechts 11% van de respondenten ziet praktische of informatieve waarde in deze video's en afbeeldingen.

Het onderzoek toonde ook aan dat 72% van de Amerikaanse volwassenen probeert de authenticiteit van video's te verifiëren, hoewel kritische controle lager ligt bij oudere generaties. Naarmate generatieve modellen snel vooruitgaan, worden traditionele aanwijzingen voor het spotten van nep—zoals onjuiste vingertellingen—steeds minder relevant. Experts merken op dat vertrouwen in digitale content steeds problematischer wordt, wat meer systematische oplossingen van platforms vereist.