Skocz do zawartości

freakXP

Użytkownicy
  • Postów

    2
  • Dołączył

  1. 1. Z tych dwóch zawsze wybieraj wyższą, twój komputer z palcem w tyłku da radę w obydwu. Np. na YouTube strumień 720p jest DUŻO gorszej jakości (dużo gorszej, niż wynikałoby to z oficjalnej specyfikacji), niż 1080p - tak to sobie wymyślili, żeby oszczędzać. 2. Dzieląc proporcje typowego filmu (16/9) i parametry rozdzielczości Twojego ekranu (1366/768) różnica wychodzi dopiero w trzeciej cyfrze po przecinku i jest to około ~0,001, więc będziesz miał co najwyżej mikroskopijne, czarne paseczki po obu stronach obrazu. Taka rozdzielczość twojego ekranu na tanich laptopach to jest kompromis między wielkością, ceną i możliwościami, bo aby mieć większą rozdzielczość niż typowe HD Ready (1280×720), ale już nie dużo droższe full HD (1920×1080) trzeba iść na kompromis. Taka rozdzielczość musi mieć maksymalnie zbliżone proporcje do 16:9 oraz jej człony MUSZĄ dzielić się przez dwa ("2"). Z drugiej strony taki ekran (1366) bierze mniej prądu (oszczędza baterię), wymaga mniejszej mocy obliczeniowej do jego obsługi przez kartę graficzną, i mniej pamięci operacyjnej oraz graficznej. 4. Wersje rozdzielczości z "i" w nazwie dotyczą obrazu z przeplotem - w telewizji cyfrowej zamiast wysyłać całą klatkę, wysyła się półklatki najpierw z przeplotem nieparzystym, a potem parzystym, a telewizor (lub dekoder) sobie to sam automatycznie wszystko skleja swoją elektroniką. Materiał wygląda legitnie, a jego objętość jest dwa razy mniejsza, więc wykorzystanie pasma jest dwa razy mniejsze, telewizje płacą za nie dwa razy mniej i wszyscy są happy. Na kompach niestety widać ten przeplot (obraz drga, a podczas wzmożonego ruchu widać nakładające się klatki na siebie albo poziome pasy), ale nowoczesne karty graficzne od około 15-20 lat mają (mniej lub bardziej doskonałe) algorytmy jego kompensacji (trzeba poszukać w opcjach sterownika karty graficznej albo programowego odtwarzacza na którym oglądasz swoje video), które mogą też być mniej lub bardziej zasobnożerne dla głównego procesora (zależy od karty graficznej jak sobie z tym radzi). Lepiej ściągać materiał w rozdzielczości "p", tyle, że będzie on dwa razy większy. 3. Czy to prawda co było napisane w Google że 720p jest lepsze niż 1080i w HDTV? Tak naprawdę to w HDTV (HD TeleVision) masz na ogół rozdzielczości z "i" w nazwie - napisałem dlaczego na górze. I tak naprawdę to zależy, jak się dany materiał zakoduje, z jakim profilem etc., tak więc 720p może wyglądać dużo lepiej, niż 1080i i odwrotnie, zwłaszcza w telewizji. 5. Mam odświeżanie monitora 60Hz to czy to ma jakieś znaczenie dla wyboru rozdzielczości? Krórko mówiąc: NIE. Długo pisząc: strumienie w Internecie i telewizji cyfrowej, w rozdzielczościach 720 i 1080, mają typowo 23,999, 24, 30 lub 60 klatek na sekundę, więc 60Hz styknie. To jest typowa wartośc w starszych i tańszych rozwiązaniach.
  2. Proszę o pomoc i z góry dziękuję. OTL.Txt Extras.Txt
×
×
  • Dodaj nową pozycję...