Czy 8K ma sens? Na 50-calowym ekranie z 3 m nie odróżnisz 1440p

Danny Weber

17:07 28-10-2025

© A. Krivonosov

Nowe badanie: z 3 m na 50-calowym TV większość nie odróżnia 8K od 1440p. Sprawdź kalkulator percepcji i wnioski zespołu z Cambridge. Poznaj szczegóły.

Nowe badanie podważa logikę wyścigu po ultrawysokie rozdzielczości. Naukowcy ustalili, że przy oglądaniu 50‑calowego ekranu z około trzech metrów ludzkie oko nie odróżnia 8K od 1440p. W codziennym użytkowaniu dokładanie kolejnych pikseli wcale nie musi przekładać się na wyraźniejszy detal — branżowa pogoń za cyferkami dostaje więc trzeźwiący sygnał.

Zespół zmierzył, ile pikseli oko jest w stanie rozróżnić w obrębie jednego stopnia kąta widzenia — to tzw. rozdzielczość percepcyjna. Wyniki zwracają uwagę: próg sięgnął 94 pikseli na stopień dla barwy szarej, ale tylko 53 pikseli na stopień dla żółci i fioletu.

Profesor Rafal Mantiuk z Uniwersytetu w Cambridge zwrócił uwagę, że upychanie dodatkowych pikseli czyni wyświetlacz mniej wydajnym, podbija koszty i wymaga więcej mocy obliczeniowej.

Aby potwierdzić wnioski, badacze przygotowali kalkulator percepcji. Narzędzie pozwala wprowadzić parametry ekranu, odległość oglądania i oświetlenie, by oszacować widoczne różnice w rozdzielczości. Zgodnie z tym kalkulatorem, przy oglądaniu 50‑calowego telewizora z trzech metrów tylko 1% osób potrafi rozróżnić 1440p od 8K. Począwszy od 4K wzwyż różnice znikają całkowicie.

Dotąd przyjmowano, że granica ludzkich możliwości to 60 pikseli na stopień. Nowe badanie podnosi poprzeczkę i pokazuje, że nasz system wzrokowy działa subtelniej — zwłaszcza w zależności od koloru i kontrastu. Wniosek nasuwa się sam: mniej liczy się popis w tabelce ze specyfikacją, bardziej to, jak oko faktycznie przetwarza barwy i szczegóły.

Te ustalenia mogą odbić się na projektowaniu wyświetlaczy, pipeline’ach renderowania i kodowaniu wideo. Być może przyszedł moment, by producenci zadali sobie pytanie, czy nie doszliśmy już do granicy, po której dodatkowe piksele przestają mieć znaczenie.