Jak Amerykanie radzą sobie z treściami generowanymi przez sztuczną inteligencję?

Prawie wszyscy dorośli Amerykanie zetknęli się z treściami generowanymi przez sztuczną inteligencję, ale znacznie mniej osób potrafi z pewnością odróżnić je od autentycznych materiałów. Badanie CNET pokazuje, że 94% ankietowanych widziało obrazy lub filmy stworzone przez AI w mediach społecznościowych. Jednak tylko 44% uważa, że potrafi dokładnie rozpoznać, czy ogląda prawdziwe nagranie, czy efekt działania algorytmów.

W większości użytkownicy polegają na analizie wizualnej. Około 60% respondentów przyznało, że szczegółowo sprawdza obrazy lub filmy w poszukiwaniu niespójności. To podejście staje się jednak coraz mniej skuteczne. Ćwierć ankietowanych korzysta z wyszukiwań odwrotnych obrazów, aby zweryfikować źródła, podczas gdy 5% sięga po specjalistyczne usługi wykrywania deepfake'ów. Kolejne 3% od początku traktuje takie treści jako potencjalnie fałszywe.

Ponad połowa uczestników – 51% – uważa za konieczne obowiązkowe oznaczanie materiałów generowanych przez AI. Kolejne 21% opowiada się za radykalnymi środkami, proponując całkowity zakaz treści AI w mediach społecznościowych. Tylko 11% respondentów dostrzega praktyczną lub informacyjną wartość w tych filmach i obrazach.

Badanie ujawniło również, że 72% dorosłych Amerykanów próbuje weryfikować autentyczność filmów, choć krytyczna analiza jest mniej powszechna wśród starszych pokoleń. W miarę szybkiego rozwoju modeli generatywnych, tradycyjne wskazówki do wykrywania fałszerstw – jak nieprawidłowa liczba palców – tracą na znaczeniu. Eksperci zwracają uwagę, że zaufanie do treści cyfrowych staje się coraz większym problemem, wymagającym bardziej systematycznych rozwiązań od platform.