Zdarza się czasami tak, że technologia — ścigając się z biologią — znacznie wyprzedzą tą drugą i powstaje istotna dysproporcja. Naukowcy z Uniwersytetu Cambridge i Meta Reality Labs postanowili sprawdzić, czy wyścig na coraz wyższe rozdzielczości ekranów ma jeszcze sens – i gdzie kończy się zdolność ludzkiego oka do odróżniania szczegółów. I tak okazało się, że w typowym salonie 8K nie ma żadnej przewagi nad 4K. A czasem nawet nad zwykłym QHD.
Badacze z Cambridge stworzyli zestaw eksperymentalny z ruchomym ekranem. Uczestnicy patrzyli na obrazy o bardzo drobnych wzorach, w odcieniach szarości i w kolorze, zarówno na wprost, jak i kątem oka. Ekran przybliżano i oddalano, by określić dokładny moment, w którym oko przestaje rozróżniać linie.
Zamiast skupiać się na samej rozdzielczości technicznej (np. 4K czy 8K), naukowcy użyli wskaźnika PPD – pixels per degree, czyli liczby pikseli przypadających na jeden stopień pola widzenia. To bardziej miarodajne, bo odpowiada to nam na ważną kwestię: jak realnie wygląda reklam z miejsca, w którym siedzisz tu i teraz?
Oko kontra piksele
Standardowe 20/20 – czyli „wzrok idealny” – pozwala rozróżniać około 60 pikseli na stopień. Badanie Cambridge pokazało jednak, że w przypadku nowoczesnych ekranów ten limit jest wyższy: około 94 PPD dla czarno-białych wzorów. Problem w tym, że nasz mózg nie przetwarza wszystkich kolorów tak samo dobrze i wynika to z budowy ludzkiego oka. Dla czerwieni i zieleni granica spada do 89 PPD, a dla żółci i fioletu – zaledwie 53 PPD.
Nasze oczy to dość prymitywne sensory. Mózgi wiele rzeczy sobie „dopowiadają”, budując wizję świata opartą na doświadczeniach całych pokoleń naszych przodków. Nawet jeśli ten konkretny ekran potrafi więcej, nasz system percepcyjny już nie.
Czytaj dalej poniżej
Kiedy „więcej” to „za dużo”
Im więcej pikseli, tym więcej energii, kosztów i mocy obliczeniowej potrzeba do ich obsługi. Telewizor 8K nie tylko nie poprawi jakości obrazu w typowym salonie, ale będzie też mniej wydajny i droższy w produkcji.
Zespół dr Malihy Ashraf z Cambridge podkreśla, że brak realnych danych o granicach percepcji doprowadził do sytuacji, w której inżynierowie na siłę udoskonalają coś, czego człowiek już nie zauważa. Badanie ustala więc granicę, za którą dalszy wzrost rozdzielczości nie ma sensu.
Wyniki badań opublikowano w Nature Communications, a wraz z nimi naukowcy udostępnili darmowy kalkulator online. Wystarczy wpisać rozmiar pokoju i przekątną telewizora, by dowiedzieć się, jaka rozdzielczość ma faktyczny sens w danym układzie. To wszystko zaś może stać się ważnym sygnałem dla branży. Chodzi o kierunek, w którym rozwój technologii powinien iść — nie zaś o wyścig w górę liczby pikseli, lecz o mądrzejsze wykorzystanie tego, co ludzkie oko potrafi zobaczyć. Po co mamy iść w kierunku 8K, a kiedyś może i absurdalnego 16K, skoro nie będziemy w stanie zobaczyć realnej różnicy? Po co nam więcej elektrozłomu, co nam z wyższego poboru prądu i coraz bardziej skomplikowanych matryc, skoro jedyna różnica odczuwalna przez nas, to ta „na papierze”?
Czytaj również: Rewolucja w YouTube na telewizorach. Pokochacie te zmiany!
Co to oznacza dla zwykłego widza
Jeśli siedzisz dwa i pół metra od telewizora, nie zauważysz różnicy między 4K a 8K. Co więcej, wiele treści i tak nie jest dostępnych w 8K, a streaming takiego materiału pochłania ogromną ilość danych. Strzelamy z armaty do komara.
Zamiast inwestować w piksele, lepiej postawić na lepszy kontrast, odwzorowanie barw, HDR lub częstotliwość odświeżania. Właśnie te parametry faktycznie wpływają na wrażenia z oglądania. Reszta – to niestety głównie marketing, na który i tak się nabieramy. Zasiadamy na kanapie w domu, uruchamiamy nasz nowy telewizor i mówimy „wow”: nawet wtedy, gdy nie widzimy większej różnicy. Ale — przecież zakup należy jakoś uzasadnić, prawda?