AVE...
CYRUS2 wrote: Urgon wrote: AVE...
Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. .
Mechanicznie chcesz uzyskać czas otwarcia migawki 1/4000 sek ????
Trollus2, ja nie. Ale Sony to zrobiło, w A5100. Przy okazji najszybszą migawkę w historii fotografii analogowej miała Minolta Dynax 9xi z 1992 roku. Migawka była zbudowana z włókna węglowego i pozwalała na czas naświetlania równy 1/12000s. Tak, trollusie, jedną dwunastotysięczną sekundy!
wada wrote:
Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV , było czytane liniami poziomymi, i albo z przeplotem - co druga linia, albo bez przeplotu - stąd te wyginanie. Małe nowoczesne matryce czytają polami.
B.Z.D.Ura! Ikonoskopy i ortikony skanowały liniami, raz parzyste, raz nieparzyste, bo taki był format sygnału telewizyjnego...
Sensory CCD odczytywały liniami, bo ładunki z kolejnych pikseli były przepychane na wyjście bądź wyjścia impulsami zegarowymi. podawanymi na wejścia sterujące. Tak samo działają linie opóźniające BBD (Bucket Brigade Device).
W sensorach CMOS mamy do czynienia z matrycą pikseli złożoną z kolumn i rzędów. Zwykle wybierany jest rząd pikseli, i sygnały z kolumn są przetwarzane przez wbudowane konwertery ADC. Potem czytany jest kolejny rząd. Przy fotografii to nie jest problemem, przy kręceniu filmów powoduje pewne, niewielkie opóźnienie między odczytem pierwszego, a ostatniego rzędu, co ma konsekwencję w formie skoszenia linii pionowych, jeśli aparat/kamera obróci się zbyt szybko w poziomie.
Aha, na YT przy wyborze rozdzielczości jest napisane 720p, 1080p, czy 1440p. Litera "p" oznacza kodowanie obrazu progresywne, linijka po linijce. Istnieją też formaty z literką "i", oznaczającą kodowanie z przeplotem - to pozostałość czasów, gdy przechodziliśmy z telewizji analogowej na cyfrową i było to potrzebne dla kompatybilności z kineskopami.
wada wrote: Sygnał Analogowy z każdego piksela R , G , B i w niektórych jeszcze K od szarości, trafia na przetworniki analog / cyfra i to są te o których wcześniej wspominałem nieszczęsne 4 bit/pixel, paczki tych sygnałów (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu) trafiają do dalszej obróbki przez procesor i jego pamięć podręczną, a potem do zapisu na jakąś kartę pamięci, a te miliony pixeli to procek ma co robić, i jeszcze to zapisać na niezbyt szybkich kartach pamięci.
Jak już, to każdy piksel składa się z czterech subpikseli: czerwonego, niebieskiego i dwóch zielonych. Dlaczego? Bo tak dało się zrobić ładną maskę subpikseli, a dodatkowo oko ludzkie jest najwrażliwsze na odcienie zieleni. Dlatego też w filmie używa się zielonego ekranu, zamiast niebieskiego. Niebieski był dobry w czasach telewizji analogowej, bo był najdalej od koloru skóry.
Rozdzielczość informacji o kolorze jest zwykle od 8 bitów do 14 bitów. To, o co tobie chodzi to sposób kodowania koloru w filmie by ograniczyć liczbę bajtów do odczytania. Znaczy się odczytuje się informację o jasności każdego piksela, ale informację o kolorach uśrednia się. Dla przykładu kodowanie 4:4:4 oznacza odczyt koloru każdego piksela, 4:2:2 oznacza uśrednienie koloru dla dwóch sąsiednich pikseli w rzędzie, zaś 4:2:0 to uśrednienie informacji dla koloru dla dwóch pikseli w rzędzie i skopiowanie tej wartości dla pikseli rząd niżej. W filmie można sobie na to pozwolić, bo oko ludzkie jest bardziej wrażliwe na jasność, niż na kolor.
Rozdzielczość DPI
nie ma nic współnego ze sposobem kodowania koloru czy zapisu pliku. Ona ma znaczenie tylko dla wyświetlania bądź drukowania obrazu. DPI czyli Dots Per Inch to parametr określający, ile kropek farby drukarskiej lub pikseli na ekranie jest w długości jednego cala. Im większa jest ta wartość, tym lepiej odwzorowane są detale, gdy patrzymy z bliska na obraz/wydruk.
Jeśli stoisz od obrazu w odległości 60cm, rozdzielczość wydruku powinna wynosić 300DPI dla maksymalnej jakości detali. Dla dwóch metrów to 90DPI, dla 10 metrów to 18DPI. Z tego można łatwo obliczyć maksymalną wielkość wydruku danego zdjęcia lub grafiki przy określonej odległości od widza. Wystarczy podzielić rozdzielczość w pionie i w poziomie przez pożądaną wartość DPI, a potem uzyskaną liczbę pomnożyć przez 2,54 by uzyskać właściwy wymiar w centymetrach.
wada wrote: To wszystko zajmuje sporo czasu, duże matryce mają spore pojemności pixeli i tak jak z procesorami do PC, że pomniejsza się elementy (architekturę) do coraz mniejszych nano metrów, aby zwiększyć ich czułość jak i szybkość, niestety dowolny błąd w produkcji przy tych pomniejszonych powoduje spore szumy.
Problemem nie jest sensor, czy prędkość transferu danych do pamięci, tylko prędkość kodowania i zapisywania informacji na karcie pamięci...
Dalej, w procesorach miniaturyzacja ma znaczenie, bo chcemy zwiększyć prędkość przełączania i zmniejszyć opóźnienia oraz zużycie energii. Ale to nie ma zastosowania do sensorów w aparatach czy kamerach. Im większy jest bowiem piksel, tym czulszy jest na światło. Dlatego nawet najlepszy współczesny smartfon kiepsko sobie radzi w słabszym oświetleniu, podczas gdy lustrzanka lub bezlusterkowiec radzi sobie o wiele lepiej...
wada wrote: Niektóre firmy stosuję przetworniki C M Y K , w kolorystyce jak w drukarkach, wówczas głębia kolorów jest idealna, a nie cukierkowa jak przy gołym RGB, choć to co mają nowoczesne Smartfony i R G B K jest też ciekawe w ilości barw.
No teraz to żeś pojechał po bandzie. Powiedz mi, jaka magiczna technologia pozwala mierzyć intensywność czerni? NASA dzwoniło i chcą to dodać do teleskopów by czarnych dziur szukać...