Co to znaczy Full HD i w czym jest lepsze od HD? Co rozumieć przez 4K, a czym jest UHD? Trudno jest doradzić, jaki telewizor kupić, jeśli ktoś nie zna tych terminów. Mają one znaczenie także ze względu na to, że kanały telewizji satelitarnej, takie jak Canal + lub Cyfrowy Polsat, promując swoją ofertę, podkreślają możliwość oglądania programów w HD lub 4K. Dlatego warto bliżej się tym kwestiom przyjrzeć.

Rozdzielczość telewizora – co trzeba o niej wiedzieć?

HD, Full HD, HD+, HDTV, HD Ready, UHD, 4K – wszystkie te skróty mają związek z rozdzielczością ekranu oraz wyświetlaniem obrazu telewizora. Jest ich tyle, że można się pogubić. Zatem co to jest HD? Co to jest 4K? Najpierw trzeba wyjaśnić sobie termin rozdzielczość.

Rozdzielczość bezpośrednio przekłada się na jakość obrazu. Ekran telewizora składa się bowiem z punktów, które są ustawione w linie poziome i pionowe. Choć telewizory cyfrowe i analogowe pod pewnymi względami tu się różnią, to zasada jest ta sama. Im więcej punktów, czyli pikseli, im są one mniejsze i im więcej ich linii, tym większe możliwości wyświetlacza, jeśli chodzi o odwzorowanie szczegółów obrazu.

Rozdzielczość nie jest jednak jedynym parametrem, który wpływa na jakość obrazu. Oprócz niej ważne są także kwestie takie jak m.in.:

  • kontrast,
  • maksymalna jasność ekranu,
  • częstotliwość odświeżania.

Z tego względu porównanie 4K vs Full HD, jeśli chodzi o przyjemność oglądania, czasem wypada na korzyść telewizora w tym drugim standardzie. Warto o tym pamiętać, decydując się na zakup telewizora. Co jednak przez to 4K i Full HD rozumieć?

SDTV – cyfrowa telewizja przed HD, Full HD i 4K

Przez lata to, co marketingowo określano jako HD, zmieniało się. Dlatego przeglądając stare reklamy, na przykład z lat siedemdziesiątych, a nawet z lat trzydziestych XX wieku, można się spotkać z HD. HD to skrót od High Definition, co można przetłumaczyć jako wysoką rozdzielczość – hasło bardzo pojemne, jeśli nie nadać mu bliższego kontekstu.

Z bardziej technicznego punktu widzenia przez wiele lat mieliśmy do czynienia z SDTV. SD oznacza standardową rozdzielczość i był to cyfrowy odpowiednik analogowych standardów PAL i NTSC. Jako SDTV można w zasadzie rozumieć wszystkie rozdzielczości, które nie uznaje się za wysokie. W praktyce oznacza to telewizory o rozdzielczości np. 648 x 486, 720 x 486, 720 x 540, 720 x 486, 720 x 576 pikseli lub 768 x 576 pikseli. Według innego rodzaju oznaczeń to telewizory o rozdzielczości 480i, 576i, 480p, 576p. W tym przypadku podawana jest liczba poziomych linii w pionie, a litery przy liczbie oznaczają standard wyświetlania obrazu (z przeplotem lub ze skanowaniem progresywnym).

Co różni HD od Full HD?

Na początku lat dwutysięcznych zaczął się upowszechniać nowy standard telewizji o wyższej rozdzielczości, czyli HDTV albo mówiąc inaczej – telewizja HD. Wraz z rozwojem technologicznym pojawiały się coraz wyższe rozdzielczości, jeszcze lepiej prezentujące obraz. HD i Full HD to po prostu nazwy tych konkretnych rozdzielczości. To co je odróżnia, to liczba pikseli.

HD to standard, zgodnie z którym ekran wyświetla minimum 720 linii poziomych. To rozdzielczości takie jak 1280 x 720 czy 1366 x 768. W przypadku Full HD obraz jest wyświetlany w rozdzielczości 1920 x 1080 pikseli (zapisywanej także jako 1080i lub 1080p). Z kolei HD+, z którym również można się spotkać, to ekrany o rozdzielczości 1600 x 900 pikseli.

A co z HD Ready? To oznaczenie, na które można było trafić w dawniej produkowanych telewizorach, zwłaszcza tańszych modelach plazmowych oraz LCD. Oznaczało, że urządzenie jest kompatybilne z rozdzielczością HD. Potrzebowało jednak do wyświetlania dodatkowego urządzenia odbiorczego, takiego jak chociażby dekoder HD. Warto przy okazji zaznaczyć, że HD Ready nie jest tym samym co HDR Ready. Drugie określenie oznacza telewizory, które mogą wyświetlać obraz o szerokim zakresie dynamiki tonalnej (z ang. High Dynamic Range, czyli właśnie HDR). Treści HDR mogą być obsługiwane zarówno przez telewizory 4K, jak i Full HD (choć często radzą sobie z tym gorzej).

Czym jest Ultra HD i czym różni się od 4k?

4K jest kolejnym krokiem w ewolucji ekranów. Telewizor 4K może wyświetlać obraz w rozdzielczości co najmniej 3840 x 2160 pikseli, czyli 2160p. Warto od razu podkreślić, że 4K nie oznacza, że obraz jest czterokrotnie lepszy, a jedynie, że jest na nim cztery razy więcej pikseli w porównaniu z Full HD. Ekran w 4K posiada za to dwa razy więcej linii w pionie, a to już przekłada się na wzrost szczegółowości. Bardziej poprawny i fachowy jest jednak termin UHD albo Ultra HD. 4K to marketingowe hasło, czasem wykorzystywane także dla telewizorów nie spełniających norm UHD. W przekazie reklamowym oba terminy są stosowane zamiennie i de facto oznaczają to samo – telewizję o ultrawysokiej rozdzielczości i wysokiej jakości obrazu.

Faktem jest jednak, że telewizja 4K to obraz bardziej szczegółowy, ostry i wyrazisty. To także lepsze odwzorowanie kolorów i zakres tonalny, zwłaszcza w kontekście coraz bardziej popularnej technologii HDR, dzięki której możliwe jest uzyskanie szczegółów w najciemniejszych i najjaśniejszych punktach ekranu. 4K pokazuje pełnię swoich możliwości na większych ekranach – powyżej 50 cali. Trzeba też pamiętać, że dobry telewizor Full HD może dawać ładniejsze obraz niż najtańsze telewizory 4K, ale standard UHD to przyszłość telewizji w nadchodzących latach.

Dzięki swym zaletom ekrany 4K UHD dynamicznie się upowszechniają. Telewizje cyfrowe już teraz wyświetlają treści w 4K, choć wciąż najbardziej powszechnym standardem jest Full HD. Programy 4K posiada w swojej ofercie zarówno Canal +, jak i Cyfrowy Polsat. Można w nich oglądać audycje sportowe, przyrodnicze i edukacyjne. Dostępne są także seriale i filmy, w tym wielkie kinowe superprodukcje. Do odbierania treści 4K potrzebny jest oczywiście dekoder 4K. Nagrania w takiej rozdzielczości są również dostępne przez internet oraz serwisy VOD oferowane przez telewizje cyfrowe.