Urgon wrote:
Matryce monitorów komputerowych mają przekątne 19-30". Telewizory zaczynają się od 40". Dlatego monitory w technologii LCD czy plazmowej są tańsze od telewizorów.
Rozdzielczosci sa TV i sa PC - przekatna jest czesciowo pochodna dostepnego procesu technologicznego
Urgon wrote:
Dobry monitor LCD wyświetla obraz z taką częstotliwością, z jaką wysyła go karta graficzna. Dla mojego monitora graniczna częstotliwość to 85Hz. Problemy z tym, że to się nie dzieli przez liczbę klatek rozwiązuje karta graficzna. Po prostu część klatek jest wyświetlana cztery razy, a część tylko trzy. Monitor nie musi mieć bufora obrazu. A framerate może się zmieniać w zakresie 1-85FPS. Zresztą średni framerate dla filmów kodowanych czy to kodekami DivX/XviD, czy H.246 nigdy nie wynosi równe 25. Z reguły jest to 24.95-25.05 i jest to wina procesu konwersji. Dla człowieka to nie robi wielkiej różnicy.
Monitor zazwyczaj wyswietla dane tak jak mu przychodza z ukladu akwizycji - czasem moze jednak zwiekszyc ilosc klatek. Forsujac 85Hz (uzyteczne w grach) w wypadku TV jednak nic nie uzyskujesz.
Normy na sygnal wizyjny nie dopuszczaja takich odchylek o jakich piszesz - co wiecej gdyby zaakcpetowac zaproponowane przez ciebie granice to przypuszczalnie niemozliwe byloby zdekodowanie jakiegolwiek sygnalu CVBS.
Plywanie fps w cyfrowych zrodlach wynika wylacznie z bledow implementacycjnych konstruktorow oraz ograniczen samej technologi.
Sredni framerate w sprzetowym dekoderze H.264 jest 25.0 - dekoder ma dostac dane, pobrac je i wyprodukowac w sekundzie 25 obrazow i to robi (natomiast nie ma hustawki ze raz 24.95 a raz 25.05 bo akurat jest przerwanie od czegos i nie mozna wystawic danych)
Monitor ma bufor bo taka jest natura dzialnia wysiwetlaczy z bezposrednim adresowaniem pikseli (plasm, oled czy lcd) - inna sprawa czy bufor zaimplementowany jest w driverze matrycy czy dodatkowo w ukladzie procesroa wizyjnego.
85/50=1.7 - jesli Tobie to nie robi roznicy to nie jest moj klopot, mi robi to roznice.
Twoje uwagi bazuja na obserwacji zachowan PC pelniacego role zrodla - to bardzo kiepskie zrodlo.
Urgon wrote:
Teraz bardzo opłaca się kupić telewizor/monitor plazmowy. Gorzej z dostępnością, bo marketingowcy wciskają telewizory LCD z podświetleniem LED jako telewizory LED. Zarówno stare LCD, jak i nowe zajmują miejsce magazynowe, a plazmowych się nie sprowadza bo przeciętny "Kowalski" nabiera się na marketingowe triki. Zwłaszcza że pokutuje opinia o straszliwych wypalonych pikselach w matrycach plazmowych. Nie zmieni tego fakt, że obecnie znaleźć jeden taki piksel jest dużo trudniej - wzrosła jakość produkcji.
Zgadzam sie - to o czym wielu nie pamieta lub wrecz nie rozumie - LCD nie jest zrodlem swiatla - to filtr i to mocno niedoskonaly a podswietleniem jest zazwyczaj dosc kiepska CCFL - calosc wyglada bardzo kiepsko (to trzeba zoabczyc jak wyglada obraz na LCD ktory jest przed korekcja - wielu zapewne zdzwiloby sie widzac takie cos - sygnal wizyjny trzeba przepuscic przez mocno korekcje by skompensowac wady LCD) - wielu tez nei widzi efektu pamieciowego na LCD a przeciez on wysteopuje i nei trzeba miec super oczu by zobaczyc LCD z "wypalonym" obrazem - mam kilkanaiscie takich TV w pracy w ktorych nastapilo trwale zuzycie LCD i w specyficznych warunkach widac dosc wyraznie co bylo wczesniej wyswietlane.
Stad jesli kierowac sie jaksocia wsrod plaskich wyswietlaczy to plazma nie ma konkurencji.
Pomijam tu juz ze czas zycia typowej CCFL jest podobny co w starszych generacjach plazm - ok 60 tys godzin maks.
Urgon wrote:
Dlatego obraz SD źle wygląda na ekranie LCD czy plazmowym FullHD. Dopóki wszystkie kanały nie będą nadawane w FullHD, i dopóki płyty DVD nie zostaną całkowicie wyparte przez BlueRay, dopóty się nie opłaca inwestować w telewizory FullHD.
nawet wtedy pozostaje problem - wiekszosc TV nie honoruje flagi overscan i obcina przychadzacy obraz a pozniej reskaluje go do natywnej rozdzielczosci matrycy
Czesto 1920x1080 jest obcinane a pozniej reskalowane do 1920x1080, pomijam tu juz ze zdarza sie ze nadawca nadaje HD ze zmniejszonym pasmem wizyjnym np Anixe uwielbia 1440x1080 - taki obraz jest reskalowany do 1920x1080 w STB a nastepnie po raz kolejny cropowany w TV i reskalowany do natywnej 1920x1080 - to dzieje sie w 70% przypadkow TV na rynku
Urgon wrote:
Na szczęście obecnie zarówno karty graficzne, jak i oprogramowanie radzą sobie wystarczająco z dopasowaniem obrazu do rozdzielczości ekranu. Oczywiście, będzie to lepiej wyglądać na monitorze CRT, który wyświetli obraz w rozdzielczości kodeka, ale to i tak dużo lepiej, niż TV LCD z sapermarketu...
Znow nie do konca - jesli obraz jest interlace to najpierw trzeba go zdeinterlacowac (a nie ma optymalnej metody deinterlacingu i kazda powoduje artefakty), potem resizowac i znow reinterlaceowac - TV musi zrobic podobna operacje bo jest z natury progresywny (LCD czy PDP)
Urgon wrote:
Mój monitor CRT posiada szereg różnych wejść. W tym złącza YPbPr, dzięki którym jak mnie najdzie ochota, to mogę sobie obejrzeć cokolwiek w FullHD podpinając do mojego dekodera N...
akurat YPbPr nie jest najlepszym zlaczem komponentowym - kazdy TV jest wysiwietlaczem RGB (no prawie kazdy) - i kazdy moze sobie zrobic dosiwadczenie ze czasem analogowe lacze jest lepsze - DVI ma 8 bitow na komponent - wiekszosc kart ma 10 i 12 bitowe przetworniki DAC, regulacje gammy dokonywane na karcie z reguly nie powoduja utraty sygnalu - co wiecej obecnosc szumu redukuje w znacznym stpniu efekt bandingu tak widoczny na DVI/HDMI - alternatywa jest oczywiscie deep color w HDMI 1.3 i wyzszych ale malo urzadzen pracuje z deep color - proponuje porownac wejscie analogowe monitora i wejscie cyforwe - obraz z wejscia analogowego bedzie blizszy naturalnemu zwlaszcza w obszarze gradientow.
Dodano po 20 [minuty]:
Macosmail wrote: Mnie osobiście bardziej raziły niedoskonałości CRT chociaż mial 100Hz i to zaawansowane, statyczny obraz był super stabilny to przy dynamicznych scenach rzucało się w oczy pompowanie i pływanie np. loga programu. Także geometria pozostawiała trochę do życzenia i co gorsze zależała od treści obrazu tak samo jak ostrość. O zbieżności to nawet nie wspomnę. Jeżeli chodzi o szybkie przewijanie drobnych czcionek np. na pasku informacyjnym to w znacznej części CRT wysokiej klasy z "czystego" interlace też zostało już nie wiele.
To oznacza ze nie miales dobrego monitora - stabilizacja pradu anodowego, SVM, czy dynamiczna korekcja zbieznosci i astygmatyzmu - to rzeczy ktore w dobrych monitorach dzialaly calkiem sprawnie - ja mam znacznie wiecej problemow obecnie z aliasingiem na LCD czy PDP niz na CRT i to mnie irytuje - plywanie fazy piksela - niejednoznacznosci na granicy probkowania - to mozna prownac torche do ogladania swiata przez dwie siatki - zrob sobie proste dosiwadczenie - wez dwa sitka i i zacznij je skrecac, rozsuwac patrzac przez nie (jedno za drugim) - co zoabczysz? Sygnal wizyjny to nie sa piksele - co potrzebujemy na wyjsciu przetwornika DAC? (
http://en.wikipedia.org/wiki/Reconstruction_filter ) - gdzie to jest w LCD czy PDP?
I na koniec proste pytanie - jak czesto zdarza ci sie mierzyc linijka odcinki na monitorze? i jak czesto mierzysz odcinki na zdjeciach z wakacji? w dobrym CRT geometria byla na poziomie wiecej niz zadowalajacym - ci ktorzy uzywaja CAD po prostu kaza narysowac prosty odcinek i nie uzywaja linijki przylozonej do monitora by zweryfikowac czy wektor jest "prosty" a w zyciu? gdzie w zyciu ptorzebujesz tej doskonalej geoemtri (ktora jest doskonala tylko dla odcinkow prowadzonych pod katem prostym bo juz kolko, krzywa czy linia ukosna bedzie reprezentowana w uposledzony sposob).
Z autopsji wiem ze ogladajac film czy grajac nie zwracam uwagi na pojedynczy piksel - najgorsze ze wielu osobom przeszkadza to ze CRT nie jest suepr ostry a nei przeszkadza im banding, widoczne na ekranie bloki wielkosci kostki masla czy dzwonienie wokol ostrych krawedzi - te nienaturalane artefakty sa czescia skompresowanego obrazu a co najgorsze - LCD czy PDP tylko je uwyplukaja - stad SD wygladajace calkiem przyzwoicie na CRT wyglada fatalnie na LCD czy PDP
Dodano po 3 [minuty]:
Quote: Bo prawda jest taka, że dobre CRT skończyły się w 2000 roku. Te późniejsze modele mimo zaawansowanych technologii, to era kiepskiego wykonania, i słabych kineskopów.
przede wszystkim zmiany w okolicach 2000 (troche wczesniej) nastapily w luminoforze - do dzis mam monitor Elsy ktory ma inna charakterystyke luminoforu i te zmiane dosc mocno widac szczegolnie w zestawieniu z ostatnimi monitorami CRT przystosowanymi do pracy z duzymi predkosciami odswiezania (migotanie widoczne nawet w okolicach 80fps - konieczne odswiezanie w granicach 90-100fps)