Exposition au contenu IA : 94% des Américains touchés, difficultés à distinguer le vrai du faux

La quasi-totalité des adultes américains a déjà été exposée à du contenu généré par l'IA, mais bien moins nombreux sont ceux capables de le distinguer avec certitude de matériel authentique. Une étude de CNET indique que 94 % des personnes interrogées ont vu des images ou vidéos créées par l'intelligence artificielle sur les réseaux sociaux. Pourtant, seuls 44 % estiment pouvoir déterminer avec précision s'ils regardent des images réelles ou des productions algorithmiques.

La plupart des utilisateurs s'appuient sur une analyse visuelle. Environ 60 % des sondés ont reconnu examiner minutieusement les détails des images ou vidéos à la recherche d'incohérences. Mais cette méthode devient de moins en moins fiable. Un quart des personnes interrogées utilise la recherche d'image inversée pour vérifier les sources, tandis que 5 % se tournent vers des services spécialisés de détection de deepfakes. Pour 3 % d'entre elles, ce type de contenu est systématiquement considéré comme potentiellement faux.

Plus de la moitié des participants—51 %—jugent nécessaire un étiquetage obligatoire des contenus générés par l'IA. Un autre 21 % préconise des mesures plus radicales, proposant une interdiction pure et simple de ces contenus sur les réseaux sociaux. Seuls 11 % des répondants voient une valeur pratique ou informative dans ces vidéos et images.

L'étude révèle également que 72 % des adultes américains tentent de vérifier l'authenticité des vidéos, bien que l'esprit critique soit moins développé chez les générations plus âgées. Avec les progrès rapides des modèles génératifs, les indices traditionnels pour repérer les faux—comme un nombre incorrect de doigts—deviennent de moins en moins pertinents. Les experts soulignent que la confiance dans le contenu numérique pose un problème croissant, exigeant des solutions plus systématiques de la part des plateformes.