Quasi tutti gli adulti americani si sono imbattuti in contenuti generati dall'intelligenza artificiale, ma molti meno sono in grado di distinguerli con sicurezza da materiale autentico. Secondo uno studio di CNET, il 94% degli intervistati ha dichiarato di aver visto immagini o video creati dall'IA sui social media. Tuttavia, solo il 44% ritiene di poter identificare con precisione se sta guardando filmati reali o prodotti algoritmici.
La maggior parte degli utenti si affida all'analisi visiva. Circa il 60% degli intervistati ha ammesso di esaminare i dettagli delle immagini o dei video alla ricerca di incongruenze. Ma questo approccio sta diventando sempre meno affidabile. Un quarto delle persone intervistate utilizza ricerche inverse di immagini per verificare le fonti, mentre il 5% si rivolge a servizi specializzati di rilevamento di deepfake. Un altro 3% tratta semplicemente tali contenuti come potenzialmente falsi fin dall'inizio.
Più della metà dei partecipanti, il 51%, ritiene necessaria l'etichettatura obbligatoria dei materiali generati dall'IA. Un altro 21% propone misure radicali, suggerendo un divieto totale dei contenuti di intelligenza artificiale sui social media. Solo l'11% degli intervistati vede un valore pratico o informativo in questi video e immagini.
Lo studio ha anche rivelato che il 72% degli adulti americani cerca di verificare l'autenticità dei video, sebbene lo scrutinio critico sia minore tra le generazioni più anziane. Con i modelli generativi che avanzano rapidamente, gli indizi tradizionali per individuare i falsi, come il conteggio errato delle dita, stanno diventando meno rilevanti. Gli esperti sottolineano che la fiducia nei contenuti digitali sta diventando sempre più problematica, richiedendo soluzioni più sistematiche da parte delle piattaforme.