Elektroda.pl
Elektroda.pl
X

Search our partners

Find the latest content on electronic components. Datasheets.com
Elektroda.pl
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

Jak i czym fotografować elektronikę? Wielki poradnik Urgona 1 - Sprzęt.

Urgon 21 Nov 2021 01:15 23823 420
Optex
  • #151
    yego666
    Level 33  
    Urgon wrote:

    Jeśli chcesz "złapać" kompletne wyładowanie albo zestaw wyładowań, to ustaw aparat na czas "B", doreguluj ostrość przed zrobieniem zdjęcia (funkcja "back button focus" może się przydać), zgaś światło, naciśnij spust i aktywuj wyładowanie...

    AVE :)
    Dziękuję za podpowiedż, jednak problem w tym, że chcę złapać zjawisko krok po kroku na nośnik cyfrowy co powiedzmy 50 us by post factum analizować jego przebieg w kolejnych przedziałach czasu.
    Nie chcę tego mieć na jednym zdjęciu dla celów artystycznych.
    Łuk elektryczny podałem jedynie jako ( może nie najszczęśliwszy przykład ), a chodzi mi o bardziej powtarzalne zjawiska jak proces rozjarzania się lampy czy diody LED lub powstawanie stożka Taylora czy temu podobne.
  • Optex
  • #152
    wada

    VIP Meritorious for electroda.pl
    bez szybkich kamer to jest niewykonalne :|
    ALE - dla celów pokazowych jak masz możliwość sterowania tymi procesami (LEDami) to przykładowo przy kamerze 30 klatek na sekundę bez przeplotu, możesz przykładowego LEDa zapalać na krótko (kilka ms) z częstotliwością o jakieś ułamki Hz wyższe niż 30Hz kamery, można też zmieniać ten czas zapalania.
    - jakiś efekt na filmie się zobaczy, bo to jest symulacja próbkowania
    Można próbować jakieś kamery przemysłowe co mają wejście zewnętrznej synchronizacji ramki,
    Ale jednak szukał bym szybkich kamer
  • #153
    Urgon
    Editor
    AVE...

    Zjawiska powtarzalne, które zawsze mają taki sam przebieg to pestka. Ogranicza Cię tylko prędkość migawki. Dla przykładu maksymalna prędkość migawki mojego aparatu wynosi 1/4000s, co oznacza, że minimalna długość fotografowanego zjawiska wynosi 250µs.

    Załóżmy iż od wysłania sygnału do wyzwalacza do faktycznego wykonania zdjęcia upłynie 100ms. Załóżmy też, że fotografujemy proces rozżarzania się żarówki. Wysyłamy sygnał wyzwalacza i 100ms później załączamy żarówkę. Następnie to powtarzamy, ale za każdym razem odejmujemy 250µs od opóźnienia, czyli drugie zdjęcie ma opóźnienie 99,75ms, trzecie 99,5ms, i tak dalej. Gdy zjawisko trwa dłużej, niż 100ms, to po prostu wyzwalamy zjawisko przed wyzwoleniem migawki, a nie po.

    Ultra-szybkie kamery są tak drogie, nawet do wynajęcia, bo w ciągu 1/1000 sekundy, a nawet szybciej, muszą przesłać od kilku do kilkudziesięciu megabajtów danych z sensora do pamięci, a potem sensor "zresetować" do następnego zdjęcia. Kosztem tego pośpiechu jest niska czułość sensora, dlatego przy ultra-szybkich kamerach potrzebne są ultra-jasne lampy. Mowa tu o odpowiedniku kilku kW w lampach halogenowych...
  • #154
    jarek_lnx
    Level 43  
    yego666 wrote:
    Zrobiłem więc tak, że zmierzyłem liczbę klatek jakie robi w sekundę moja kamera internetowa, a następnie dostrajam częstotliwość inicjowania interesującego mnie procesu do liczby klatek i obniżam tę częstotliwość o kilka mikrosekund.
    W ten sposób mogę łapać to co mnie interesuje.
    Na tej zasadzie działały oscyloskopy samplingowe, wysokie wymagania były tylko w stosunku do szybkości układu próbkującego. W przypadku kamery ograniczeniem pozostaje względnie długi czas naświetlania.

    W przypadku szybko poruszających się obiektów wymagających oświetlenia, lampa błyskowa może zastąpić szybką migawkę w przypadku tych które świecą chyba nie ma jak tego poprawić.
  • Optex
  • #155
    CosteC
    Level 34  
    Po taniości możesz szukać smartfonów które mają tryb szybki albo używanych Casio Exilim EX-FC100, EX-FS10, EX-FH20, EX-F1. Oferują 1000 fps, któryś 1200 fps. Używaliśmy tego do testów w firmie. Do powolnych mechanicznych zjawisk działa świetnie, mimo ograniczeń na rozdzielczość. @urgon pisze o słabej czułości, to nie słaba czułość - to bardzo mało czasu aby nałapać światła. Wychodzi oczywiście na to samo - trzeba bardzo jasnej lampy, i to nie zasilanej z 50 Hz - bo takowy halogen widać jak przygasa i rozjaśnia się w rytm 100 Hz.
    Ogólnie - tanio nie będzie bo nie może.

    EDIT: Casio Exilim ex-fh20 występuje w śmiesznych cenach. Cud to nie jest, ale taniej raczej nie będzie. 1000 fps o ile dobrze widzę.
  • #156
    398216 Usunięty
    Level 43  
    Urgon wrote:
    Jeśli chcesz "złapać" kompletne wyładowanie albo zestaw wyładowań, to ustaw aparat na czas "B", doreguluj ostrość przed zrobieniem zdjęcia (funkcja "back button focus" może się przydać), zgaś światło, naciśnij spust i aktywuj wyładowanie...
    I nie uzyska się wtedy kilku-kilkunastu obrazów na jednej klatce? Czy nie jest tak, że każdy obraz musi być "przepisany" do pamięci aparatu/karty pamięci i dopiero wtedy może nastąpić kolejne "otwarcie migawki"? Nie znam się na technologii działania aparatu cyfrowego, ale chyba po to jest opóźnienie pomiędzy wykonywaniem kolejnych zdjęć wymuszona przez producenta? Nawet jak robi się serię zdjęć to pomiędzy nimi pozostaje ustalony odcinek czasu. Tak przynajmniej zauważyłem.
  • #157
    spec220
    Level 26  
    yego666 wrote:
    Łuk elektryczny podałem jedynie jako ( może nie najszczęśliwszy przykład ), a chodzi mi o bardziej powtarzalne zjawiska jak proces rozjarzania się lampy czy diody LED lub powstawanie stożka Taylora czy temu podobne.

    No to kolego trudna sprawa o ile ma być tanio...
    Potrzebna jest tu naprawdę szybka matryca, jak i również odpowiedni system zapisu. Mam na myśli matrycę o bardzo szybkim czasie odświeżania. Dodatkowo przy filmowaniu takich zjawisk matryca powinna zapisywać w tzw. pamięci podręcznej wszystkie piksele w jednym czasie (podobnie jak klisza choć tam akurat trudno mówić o "pikselach"), a dopiero poprzez multipleksację pamięci podręcznej wysyłać je do pamięci operacyjnej urządzenia... Jeżeli użyjesz matrycy która przesyła jedynie dane poprzez multipleksację odczytywanych pikseli, to klatki przy szybkich zjawiskach optycznych mogą być rozmyte częściowo bądź całkowicie...

    Wracając do tematu;
    398216 Usunięty wrote:
    Jeśli pozwoli to odczytać symbol scalaka o którym akurat w temacie mowa - czemu nie?


    Wczoraj pstryknąłem jeszcze kilka fotek, i powiem tak;
    Zrobienie fotki bindów łączących LEDa, THT 5mm, czy też pamięć eprom nie stanowi jakiegoś większego wyzwania ponieważ to widać gołym okiem. Gorzej jak przyjdzie nam sfotografować wysłużonym smartfonem wypalony laserem napis na chipie wielkości padu portu mikro USB, albo bindów łączących LEDa SMD 0603, czy też RGB.
    W klasycznym dobrym aparacie można zamontować odpowiedni obiektyw, natomiast smartfonem starszej generacji np. 2017r. trzeba by nieźle się nakombinować aby zrobić czytelne zdjęcia. (odpowiednie światło + odpowiedni kąt padania, jak również odpowiedni kąt aparatu)
    Zresztą sami zobaczcie;
    Dwa ostatnie czysto samym telefonem (zrobione od ręki), a kolejne poprzez lupkę w różnym powiększeniu...
  • #158
    Urgon
    Editor
    AVE...
    398216 Usunięty wrote:
    Urgon wrote:
    Jeśli chcesz "złapać" kompletne wyładowanie albo zestaw wyładowań, to ustaw aparat na czas "B", doreguluj ostrość przed zrobieniem zdjęcia (funkcja "back button focus" może się przydać), zgaś światło, naciśnij spust i aktywuj wyładowanie...


    I nie uzyska się wtedy kilku-kilkunastu obrazów na jednej klatce?

    Aparat będzie się zachowywał tak, jak aparat analogowy - światło będzie się kumulowało "na kliszy" dopóki nie zamkniemy migawki.

    398216 Usunięty wrote:
    Czy nie jest tak, że każdy obraz musi być "przepisany" do pamięci aparatu/karty pamięci i dopiero wtedy może nastąpić kolejne "otwarcie migawki"?

    Prawdę pisząc, to nie wiem, jak dokładnie to jest rozwiązane. Fotodioda w każdym sub-pikselu generuje ładunek proporcjonalny do jasności. Ta fotodioda współpracuje z tranzystorami MOSFET, które realizują funkcję wzmacniania sygnału i usuwania ładunku po odczycie. Piksele tworzą matrycę, jak w pamięci DRAM. Czas naświetlania takiego sensora to odstęp od resetu do odczytu matrycy pikseli. Ale im dłuższy ten czas, tym więcej szumu nałoży się na ładunki kumulowane przez fotodiody. Dlatego niektóre aparaty rozbijają długi czas ekspozycji na serię krótszych czasów, gdzie wartości z poszczególnych pikseli są sumowane i dodatkowo "odszumiane" algorytmicznie.

    398216 Usunięty wrote:
    Nie znam się na technologii działania aparatu cyfrowego, ale chyba po to jest opóźnienie pomiędzy wykonywaniem kolejnych zdjęć wymuszona przez producenta? Nawet jak robi się serię zdjęć to pomiędzy nimi pozostaje ustalony odcinek czasu. Tak przynajmniej zauważyłem.

    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. To jedno ograniczenie prędkości. Drugim ograniczeniem jest czas potrzebny na transfer danych z sensora do pamięci RAM, i z pamięci RAM do karty pamięci. Odczyt z sensora następuje w chwili, gdy migawka jest zamknięta, dzięki czemu nie są kumulowane dodatkowe ładunki.

    Przy kręceniu filmu migawka mechaniczna nie jest używana, a procesor enkoduje kolejne obrazy "w locie". Ponieważ dane z sensora są czytane rzędami, przy szybkich ruchach aparatu lub kamery linie pionowe ulegają "skrzywieniu".
  • #159
    398216 Usunięty
    Level 43  
    Urgon wrote:
    Drugim ograniczeniem jest czas potrzebny na transfer danych z sensora do pamięci RAM, i z pamięci RAM do karty pamięci.
    Czyli jednak może być problem z uzyskaniem szybszego wczytywania kolejnych obrazów, nawet jeśli wczytywane są w locie jakiś czas na to jest potrzebny. Dobrze myślę? Te krzywe linie o których piszesz mogłyby na to wskazywać.
  • #160
    wada

    VIP Meritorious for electroda.pl
    Urgon wrote:
    398216 Usunięty wrote:
    Nie znam się na technologii działania aparatu cyfrowego, ale chyba po to jest opóźnienie pomiędzy wykonywaniem kolejnych zdjęć wymuszona przez producenta? Nawet jak robi się serię zdjęć to pomiędzy nimi pozostaje ustalony odcinek czasu. Tak przynajmniej zauważyłem.

    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. To jedno ograniczenie prędkości. Drugim ograniczeniem jest czas potrzebny na transfer danych z sensora do pamięci RAM, i z pamięci RAM do karty pamięci. Odczyt z sensora następuje w chwili, gdy migawka jest zamknięta, dzięki czemu nie są kumulowane dodatkowe ładunki.

    Przy kręceniu filmu migawka mechaniczna nie jest używana, a procesor enkoduje kolejne obrazy "w locie". Ponieważ dane z sensora są czytane rzędami, przy szybkich ruchach aparatu lub kamery linie pionowe ulegają "skrzywieniu".

    Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV , było czytane liniami poziomymi, i albo z przeplotem - co druga linia, albo bez przeplotu - stąd te wyginanie. Małe nowoczesne matryce czytają polami.
    Sygnał Analogowy z każdego piksela R , G , B i w niektórych jeszcze K od szarości, trafia na przetworniki analog / cyfra i to są te o których wcześniej wspominałem nieszczęsne 4 bit/pixel, paczki tych sygnałów (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu) trafiają do dalszej obróbki przez procesor i jego pamięć podręczną, a potem do zapisu na jakąś kartę pamięci, a te miliony pixeli to procek ma co robić, i jeszcze to zapisać na niezbyt szybkich kartach pamięci.

    To wszystko zajmuje sporo czasu, duże matryce mają spore pojemności pixeli i tak jak z procesorami do PC, że pomniejsza się elementy (architekturę) do coraz mniejszych nano metrów, aby zwiększyć ich czułość jak i szybkość, niestety dowolny błąd w produkcji przy tych pomniejszonych powoduje spore szumy.

    Niektóre firmy stosuję przetworniki C M Y K , w kolorystyce jak w drukarkach, wówczas głębia kolorów jest idealna, a nie cukierkowa jak przy gołym RGB, choć to co mają nowoczesne Smartfony i R G B K jest też ciekawe w ilości barw.


    Moderated By gulson:

    Raport. Prośba kolejny raz o nie wprowadzanie w błąd i nie robienie z wątku śmietnika.

  • #161
    CosteC
    Level 34  
    wada wrote:
    Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV , było czytane liniami poziomymi, i albo z przeplotem - co druga linia, albo bez przeplotu - stąd te wyginanie. Małe nowoczesne matryce czytają polami.
    Sygnał Analogowy z każdego piksela R , G , B i w niektórych jeszcze K od szarości, trafia na przetworniki analog / cyfra i to są te o których wcześniej wspominałem nieszczęsne 4 bit/pixel, paczki tych sygnałów (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu) trafiają do dalszej obróbki przez procesor i jego pamięć podręczną, a potem do zapisu na jakąś kartę pamięci, a te miliony pixeli to procek ma co robić, i jeszcze to zapisać na niezbyt szybkich kartach pamięci.

    To wszystko zajmuje sporo czasu, duże matryce mają spore pojemności pixeli i tak jak z procesorami do PC, że pomniejsza się elementy (architekturę) do coraz mniejszych nano metrów, aby zwiększyć ich czułość jak i szybkość, niestety dowolny błąd w produkcji przy tych pomniejszonych powoduje spore szumy.

    Niektóre firmy stosuję przetworniki C M Y K , w kolorystyce jak w drukarkach, wówczas głębia kolorów jest idealna, a nie cukierkowa jak przy gołym RGB, choć to co mają nowoczesne Smartfony i R G B K jest też ciekawe w ilości barw.

    Dasz jakieś źródło na te rewelacje? Nie kojarzę żadnego aparatu fotograficznego z matrycą CMYK i raczej nie zobaczę, bo to bez sensu (zły model barw - substraktywny, właściwy do druku, zamiast addytywnego RGB odpowiedniego do aparatów i wyświetlaczy)
    O odczycie matrycy też jakaś albo historia antyczna, albo pomyłka z matryc od kamer.
    Pomysł łączenia DPI z architekturą matrycy też kosmiczny, co najmniej. Dalej nie wytłumaczyłeś jakim cudem to miało by działać i jaki by sens miało mieć.
    Nanometry też ci się udały... subpixle mają mikrometry, a poniżej 700 nm będzie bardzo trudno zejść (zagadka czemu...)

    Zacznij dawać źródła do tych "rewelacji" proszę albo proszę przestań wymyślać.
  • #162
    spec220
    Level 26  
    wada wrote:
    Sygnał Analogowy z każdego piksela R , G , B i w niektórych jeszcze K od szarości, trafia na przetworniki analog / cyfra i to są te o których wcześniej wspominałem nieszczęsne 4 bit/pixel

    Nie bardzo rozumiem o co się rozchodzi z tymi czterema bitami na pixel? przecież z tego praktycznie wyjdą same plamy.
    Może miał kolega na myśli 4 Bajty/pixel? 256 X 256 X 256 X 256 = 4 296 967 296 kolorów...

    398216 Usunięty wrote:
    Czyli jednak może być problem z uzyskaniem szybszego wczytywania kolejnych obrazów, nawet jeśli wczytywane są w locie jakiś czas na to jest potrzebny. Dobrze myślę? Te krzywe linie o których piszesz mogłyby na to wskazywać.

    Zwłaszcza przy bezpośrednim zrzucie z ramu na kartę pamięci... O ile mowa o szybkiej kamerze poklatkowej...
    Dobra kamera poklatkowa nie czyta pikseli rzędami, czy też sektorami tylko wartość wszystkich na raz zapisuje w pamięci poręcznej (rejestrach), które z kolei są sczytywane i zapisywane w pamięci ram do obróbki, bądź kolejki skąd później trafiają do szybkiej pamięci masowej wbudowanej w urządzeniu. Na pamięć zewnętrzną, bądź inne urządzenie można skopiować po nagraniu... Dlatego właśnie te matryce, czy też kamery są takie drogie, bo nie rozciągają na klatkach np. przelatującego pocisku, tylko tak jak klisza "łapią" wszystkie piksele w tym samym czasie, a nie szczytują.
  • #163
    md
    Level 40  
    Bardzo dobry pomysł na poradnik właśnie powoli przestaje mieć sens, przynajmniej w tej formie, w jaką rozwinął się za przyczyną krytyków, krytykantów, kontestatorów itp.
    Skoro to ma być autorski projekt, powinien to być wątek zamknięty. Autor poradnika zamieszcza w nim to, co uznaje za potrzebne i co wypełnia kryteria publikacji w formie poradnika. Koniec, kropka. Kto chce, zagląda do wątku, korzysta lub nie. Kto uważa, że nie musi, bo umie i wie, nie zagląda. W przypadku stwierdzenia rażących błędów w treści poradnika, zgłaszanie ich powinno być kierowane albo za pomocą prywatnych wiadomości do autora poradnika lub do moderatorów czy administratorów. Sam poradnik powinien być wątkiem, w którym prawo edycji, umieszczania nowych postów ma wyłącznie autor.
    Tylko w ten sposób można sprawić, że poradnik będzie poradnikiem, a nie kolejnym tematem, polem do przepychanek, krytyki (uzasadnionej lub nie), w którym odnalezienie interesującej nas treści będzie graniczyć z cudem, bo treść ta zginie w gąszczu postów niekoniecznie związanych z tematem. Na tę chwilę wątek zajmuje już 6 stron, z czego sam poradnik zajmuje połowę pierwszej strony.
  • #164
    CYRUS2
    Level 42  
    Urgon wrote:
    AVE...
    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. .
    Mechanicznie chcesz uzyskać czas otwarcia migawki 1/4000 sek ????
  • #165
    kosmo21
    Level 18  
    CYRUS2 wrote:
    Urgon wrote:
    AVE...
    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. .
    Mechanicznie chcesz uzyskać czas otwarcia migawki 1/4000 sek ????


    Canon 1D miał czas otwarcia mechanicznej migawki nawet 1/16000 sek.
  • #166
    CosteC
    Level 34  
    CYRUS2 wrote:
    Urgon wrote:
    AVE...
    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. .
    Mechanicznie chcesz uzyskać czas otwarcia migawki 1/4000 sek ????


    Mamy wysyp ludzi którzy nic nie wiedzą, ale muszą się wypowiedzieć, i wymyślać matryce CMYK
    @cyrus21 Tak, mechanicznie antyczny Nikon D40 ma najszybszą migawkę 1/4000 sekundy a lepsze aparaty mają 1/8000. Jeszcze szybsze czasy są już rzadkie, ale da się jak wspomniano zresztą... Katalog Canon, Nikon, Sony... weź proszę zajrzyj.

    @urgon Dużo lepsze te nowe zdjęcia w poradniku.
  • #167
    spec220
    Level 26  
    md wrote:
    Sam poradnik powinien być wątkiem, w którym prawo edycji, umieszczania nowych postów ma wyłącznie autor.

    Do edycji treści materiału ma prawo tylko autor, oraz moderatorzy/ administratorzy. Natomiast jeżeli mowa o postach, to nie wina userów że autor zamieścił artykuł w takim miejscu w którym może zostać narażony na wolną krytykę etc. komentarze...
  • #168
    md
    Level 40  
    Nie rozważam tego w kategorii czyjejś winy. Wyraziłem swoje zdanie na temat poradnika, który z poradnika zamienił się m tradycyjną już na forum przepychankę, co na pewno nie służy idei powstania poradnika, który mógłby sprawić, że na forum pojawią się lepsze zdjęcia.
  • #169
    spec220
    Level 26  
    @md takie uroki forów internetowych na co zresztą sama nazwa wskazuje.
    Co do "konstruktywnej krytyki" to myślę że autor z czasem sam przywyknie tj. większość userów którzy coś tam zamieszczają w sieci...
  • #170
    Urgon
    Editor
    AVE...

    CYRUS2 wrote:
    Urgon wrote:
    AVE...
    Większość bezlusterkowców i wszystkie lustrzanki używają mechanicznych migawek. .
    Mechanicznie chcesz uzyskać czas otwarcia migawki 1/4000 sek ????


    Trollus2, ja nie. Ale Sony to zrobiło, w A5100. Przy okazji najszybszą migawkę w historii fotografii analogowej miała Minolta Dynax 9xi z 1992 roku. Migawka była zbudowana z włókna węglowego i pozwalała na czas naświetlania równy 1/12000s. Tak, trollusie, jedną dwunastotysięczną sekundy!


    wada wrote:

    Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV , było czytane liniami poziomymi, i albo z przeplotem - co druga linia, albo bez przeplotu - stąd te wyginanie. Małe nowoczesne matryce czytają polami.

    B.Z.D.Ura! Ikonoskopy i ortikony skanowały liniami, raz parzyste, raz nieparzyste, bo taki był format sygnału telewizyjnego...
    Sensory CCD odczytywały liniami, bo ładunki z kolejnych pikseli były przepychane na wyjście bądź wyjścia impulsami zegarowymi. podawanymi na wejścia sterujące. Tak samo działają linie opóźniające BBD (Bucket Brigade Device).
    W sensorach CMOS mamy do czynienia z matrycą pikseli złożoną z kolumn i rzędów. Zwykle wybierany jest rząd pikseli, i sygnały z kolumn są przetwarzane przez wbudowane konwertery ADC. Potem czytany jest kolejny rząd. Przy fotografii to nie jest problemem, przy kręceniu filmów powoduje pewne, niewielkie opóźnienie między odczytem pierwszego, a ostatniego rzędu, co ma konsekwencję w formie skoszenia linii pionowych, jeśli aparat/kamera obróci się zbyt szybko w poziomie.

    Aha, na YT przy wyborze rozdzielczości jest napisane 720p, 1080p, czy 1440p. Litera "p" oznacza kodowanie obrazu progresywne, linijka po linijce. Istnieją też formaty z literką "i", oznaczającą kodowanie z przeplotem - to pozostałość czasów, gdy przechodziliśmy z telewizji analogowej na cyfrową i było to potrzebne dla kompatybilności z kineskopami.

    wada wrote:
    Sygnał Analogowy z każdego piksela R , G , B i w niektórych jeszcze K od szarości, trafia na przetworniki analog / cyfra i to są te o których wcześniej wspominałem nieszczęsne 4 bit/pixel, paczki tych sygnałów (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu) trafiają do dalszej obróbki przez procesor i jego pamięć podręczną, a potem do zapisu na jakąś kartę pamięci, a te miliony pixeli to procek ma co robić, i jeszcze to zapisać na niezbyt szybkich kartach pamięci.

    Jak już, to każdy piksel składa się z czterech subpikseli: czerwonego, niebieskiego i dwóch zielonych. Dlaczego? Bo tak dało się zrobić ładną maskę subpikseli, a dodatkowo oko ludzkie jest najwrażliwsze na odcienie zieleni. Dlatego też w filmie używa się zielonego ekranu, zamiast niebieskiego. Niebieski był dobry w czasach telewizji analogowej, bo był najdalej od koloru skóry.

    Rozdzielczość informacji o kolorze jest zwykle od 8 bitów do 14 bitów. To, o co tobie chodzi to sposób kodowania koloru w filmie by ograniczyć liczbę bajtów do odczytania. Znaczy się odczytuje się informację o jasności każdego piksela, ale informację o kolorach uśrednia się. Dla przykładu kodowanie 4:4:4 oznacza odczyt koloru każdego piksela, 4:2:2 oznacza uśrednienie koloru dla dwóch sąsiednich pikseli w rzędzie, zaś 4:2:0 to uśrednienie informacji dla koloru dla dwóch pikseli w rzędzie i skopiowanie tej wartości dla pikseli rząd niżej. W filmie można sobie na to pozwolić, bo oko ludzkie jest bardziej wrażliwe na jasność, niż na kolor.

    Rozdzielczość DPI nie ma nic współnego ze sposobem kodowania koloru czy zapisu pliku. Ona ma znaczenie tylko dla wyświetlania bądź drukowania obrazu. DPI czyli Dots Per Inch to parametr określający, ile kropek farby drukarskiej lub pikseli na ekranie jest w długości jednego cala. Im większa jest ta wartość, tym lepiej odwzorowane są detale, gdy patrzymy z bliska na obraz/wydruk.

    Jeśli stoisz od obrazu w odległości 60cm, rozdzielczość wydruku powinna wynosić 300DPI dla maksymalnej jakości detali. Dla dwóch metrów to 90DPI, dla 10 metrów to 18DPI. Z tego można łatwo obliczyć maksymalną wielkość wydruku danego zdjęcia lub grafiki przy określonej odległości od widza. Wystarczy podzielić rozdzielczość w pionie i w poziomie przez pożądaną wartość DPI, a potem uzyskaną liczbę pomnożyć przez 2,54 by uzyskać właściwy wymiar w centymetrach.

    wada wrote:
    To wszystko zajmuje sporo czasu, duże matryce mają spore pojemności pixeli i tak jak z procesorami do PC, że pomniejsza się elementy (architekturę) do coraz mniejszych nano metrów, aby zwiększyć ich czułość jak i szybkość, niestety dowolny błąd w produkcji przy tych pomniejszonych powoduje spore szumy.

    Problemem nie jest sensor, czy prędkość transferu danych do pamięci, tylko prędkość kodowania i zapisywania informacji na karcie pamięci...

    Dalej, w procesorach miniaturyzacja ma znaczenie, bo chcemy zwiększyć prędkość przełączania i zmniejszyć opóźnienia oraz zużycie energii. Ale to nie ma zastosowania do sensorów w aparatach czy kamerach. Im większy jest bowiem piksel, tym czulszy jest na światło. Dlatego nawet najlepszy współczesny smartfon kiepsko sobie radzi w słabszym oświetleniu, podczas gdy lustrzanka lub bezlusterkowiec radzi sobie o wiele lepiej...

    wada wrote:
    Niektóre firmy stosuję przetworniki C M Y K , w kolorystyce jak w drukarkach, wówczas głębia kolorów jest idealna, a nie cukierkowa jak przy gołym RGB, choć to co mają nowoczesne Smartfony i R G B K jest też ciekawe w ilości barw.

    No teraz to żeś pojechał po bandzie. Powiedz mi, jaka magiczna technologia pozwala mierzyć intensywność czerni? NASA dzwoniło i chcą to dodać do teleskopów by czarnych dziur szukać...
  • #171
    Preskaler
    Level 39  
    Niestety, znów wystąpiły nieścisłości (?). Pomyłka co do określania szybkości migawki. Szybkości w postaci 1/4000sek. 1/8000sek czy 1/12000sek. określane jako same wartości mianownika tych ułamków nie mają nic wspólnego z prawdziwą szybkością migawki bo te „szybkości” to jest CZAS naświetlania kolejnych pixeli matrycy uzyskiwany przez odpowiednio szeroką szczelinę migawki. Rzeczywisty czas migawki to czas przy jakim synchronizowana jest lampa błyskowa. Dlaczego tak jest? A no dlatego, że najpierw musi pierwsza kurtyna przelecieć przez całą matrycę i jak zupełnie ją otworzy to druga kurtyna musi ją powtórnie zamknąć. W moim aparacie jest to czas 1/250sek. a w starszych aparatach analogowych były to czasy od 1/30sek. do 1/125sek. Krótsze czasy uzyskuje się przez zastosowanie tzw. migawki szczelinowej, czyli jeśli druga kurtyna zaczyna bieg przed dobiegnięciem pierwszej do końca. Powstaje więc szczelina, której szerokość określa czas naświetlania poszczególnych pixeli. Nie ma technicznych ograniczeń w stosowaniu czasów naświetlania poniżej 8000, 12000, czy jeszcze krótszych ale nie ma to sensu z powodu zniekształceń kształtu obrazu szybko poruszających się przedmiotów.
  • #172
    Urgon
    Editor
    AVE...

    Celowo nie zagłębiałem się aż w takie detale, ponieważ nie o tym toczy się dyskusja...

    W najszybszym aparacie analogowym wspomnianym wyżej każda z kurtyn osiągała prędkość 13,3m/s, a cały ruch trwał 1,8ms. Szczelina między kurtynami miała 1,1mm szerokości przy czasie 1/12000s...

    Swoją szosą napisałem poradnik dla przyszłych amatorów fotografii, a zrobiła się z tego dyskusja na tematy całkowicie odległe od głównej idei poradnika. Może by się przydało część tematu wydzielić?


    @costec

    Nowe zdjęcie początkowe zostało zrobione z obiektywem Vivitar 90-230 z pojedynczym pierścieniem pośrednim. Przesłona bodaj f/8, czas naświetlania 1/5s, ISO 200. Udało się dzięki zewnętrznemu wyzwalaczowi - inaczej poruszenie aparatu by zrujnowało zdjęcie...
  • #173
    CosteC
    Level 34  
    Urgon wrote:
    Nowe zdjęcie początkowe zostało zrobione z obiektywem Vivitar 90-230 z pojedynczym pierścieniem pośrednim. Przesłona bodaj f/8, czas naświetlania 1/5s, ISO 200. Udało się dzięki zewnętrznemu wyzwalaczowi - inaczej poruszenie aparatu by zrujnowało zdjęcie...


    Oczywiście użyłeś statywu. Tutaj kompakty mają zalety - są lżejsze - można użyć tańszego statywu. Ale dalej przy czasie 1/5 sekundy nie wolno drania dotknąć.
    Rozwiązanie #1: wyzwalacz kablowy
    Rozwiązanie #2: Pilot IR + opóźnienie wyzwolenia migawki (pip, pip, zdjęcie) Najtańszy do Nikona znalazłem za 9zł, a do innych marek nie będzie gorzej.

    Jeśli ktoś ma kompakta to polecam też spróbować zrobić sobie namiot bezcieniowy z bloku technicznego A3 bądź ręczników papierowych jeśli nie chce się kupować gotowego.
    Lampa błyskowa z też da radę, zwłaszcza jeśli dodać rozpraszacz np z matowego plastiku.
    Czemu trzeba rozpraszacz? Bo z reguły wbudowana lampa jest za nisko i obiektyw rzuca cień na fotografowany obiekt. W namiocie bezcieniowym rozpraszacza dodatkowego często nie trzeba w ogóle.
    O np taki: https://photographylife.com/macro-photography...20the%20light%20from%20an%20on-camera%20flash.

    Lampa błyskowa ma dodatkową zaletę - daje ładne kolory - daje białe światło. LEDy mogą być zimne, ciepłe, neutralne, ich mieszanie może powodować bardzo dziwne efekty kolorystyczne w tym kolorowe cienie.
    Z reguły, z okazji minimalnej odległości, mała wbudowana lampa wystarcza (Niestety nie wystarcza do oświetlenia całego kościoła Mariackiego gdy turyści robią mu zdjęcia w nocy)
  • #174
    Urgon
    Editor
    AVE...

    Chyba wszystkie aparaty mają samowyzwalacz czasowy, więc i bez pilota można się obejść. Ale niektóre, zaawansowane techniki wymagają jednak zewnętrznego wyzwalacza: kablowego, IR albo radiowego...

    Teraz ciekawostka: to zdjęcie składa się z czterech zdjęć, i wykorzystuje jedną z metod stosowanych w fotografii produktowej. Ba, tańsze kompakty by nie pozwoliły na wykonanie tego zdjęcia, bo zwykle nie można przełączyć ich na ręczną regulację ostrości - AF zostanie aktywowany. Plus, mogą nie oferować wystarczającej głębi dla rozmycia tła...

    Zdjęcie można jeszcze ulepszyć poprawiając kolorystykę, na przykład przez emulację kliszy czy dodanie winietowania. Uznałem jednak, że to nie jest konieczne...
  • #175
    Jawi_P
    Level 35  
    bsw wrote:
    Co ujawniłem przy okazji opisywania innego urządzenia w wątku:
    https://www.elektroda.pl/rtvforum/topic3542895.html
    ...zostałem tam zbesztany że taki aparat to do muzeum...

    Nie kłam, nie zostałeś. Ktoś napisał, bez związku z tematem, że aparat nadaje się do muzeum, a Ty widzisz w tym "zbesztanie"?
    Jak Ci zaraz napiszę, że jesteś brzydki to już nie wyjdziesz z domu? ;)
  • #176
    spec220
    Level 26  
    CosteC wrote:
    Lampa błyskowa ma dodatkową zaletę - daje ładne kolory - daje białe światło. LEDy mogą być zimne, ciepłe, neutralne, ich mieszanie może powodować bardzo dziwne efekty kolorystyczne w tym kolorowe cienie.

    O ile ktoś już bawi się amatorsko w fotografię, a używa przy tym LEDowego oświetlenia (sufitowe, naścienne, albo jakieś inne lampki stacjonarne) to może użyć żarówek LED bazujących na module COB z wymieszanymi LEDami (białe zimne, neutralne oraz ciepłe). Resztę załatwi mleczna kopuła żarówki która w tym przypadku zadziała jako mieszacz, oraz rozpraszać światła emitowanego poprzez różne diody LED.
  • #177
    Jawi_P
    Level 35  
    Urgon wrote:
    Nie ma ani jednego profesjonalnego fotografa, który robiłby zdjęcia smartfonem. Tak samo nie ma ani jednego profesjonalnego filmowca kręcącego filmy smartfonem.

    To zależy co ten fotograf fotografuje. Znam dziennikarza, który 90% swoich zdjęć do reportażu właśnie robi smartfonem.
    I jak sam mówi, reportażu ulicznego, do zdjęć z ręki, sytuacyjnych. I wszystko ok, jeżeli to zdjęcie ma wylądować na portalu do oglądania na monitorach, smartfonach czy gazetki drukowanej na gazetowym papierze.
    Ale jak to ma być materiał na foldery, bilbordy, pod konkretne zamówienie, to niestety targa swój sprzęt. Ale on jak poczyta elektrodę to pewnie zmieni zdanie ;)
    Ja się wyleczyłem ze smartfonów, jak dwa lata temu wpadłem na pomysł, po co targać aparat w góry, jak tam każdy kilogram się liczy. Zabrałem smartfona Samsunga od żony i nikona kompakt. No i co... chce sfotografować wodospad, żeby było widać rozmazaną wodę, ten dynamizm wydobyć, nie zatrzymane w czasie kropelki. No nie da się. No to późnym popołudniem będąc na grani, słońce bardzo nisko, zrobić panoramy nie da się, światło nie to. Matryca szumi jak szalona bo ciemno. No to w południe pstryknę fotkę ze szczytów na wysokości > 3tys m. No też za bardzo się nie da, bo w lustrzance założył bym połówkowy filtr, może UV/CPL i po sprawie.
    Ja sam użyję telefonu, jak dokument skanowany potrzebuje do urzędu/pracy, czy wrzucić coś na forum, i to koniec zastosowań w moim przypadku.

    Smartfon robi świetne zdjęcia, przy dobrym świetle, kontrolowanych warunkach. Ale możliwość w plenerze użycia filtrów, nieskończona możliwość wyboru czasu naświetlania, czy wyboru przysłony, sterowania głębią... To niestety, jak ktoś tego nie używał, pstryka zdjęcia na fora, tego nie zrozumie.

    I prawda jest taka, że artykuł o robieniu zdjęć na elektrodę, powinien maksymalnie skupić się na kadrowaniu, oświetleniu, obróbce i dodatkach typu lampy, ba najlepiej samoróbki. Powinien zawierać info o CRI diod, jak je wykorzystać etc. I to jest podpowiedź co chciałbym przeczytać w następnej części. Bo chciałbym ją zobaczyć. Super pomysł, że artykuł się pojawił, mimo kontrowersji.

    p.s.
    Jak moja żona robiła sobie "selfi" smartfonem to się z niej śmiałem, że jest super, bo wygląda na co najmniej 15 lat młodszą, serio to piszę. Tak soft aparatu zmieniał parametry i szlifował obraz, że mimo iż było ładne, wszystkim się podobało włącznie ze mną, technicznie było super, to niestety - nie było prawdziwe.
  • #178
    wada

    VIP Meritorious for electroda.pl
    Urgon wrote:
    Celowo nie zagłębiałem się aż w takie detale, ponieważ nie o tym toczy się dyskusja...

    I właśnie o to chodzi :!:
    Kontrowersyjny mój post miał w skrócie podkreślić problem z czasem przetwarzania i zapisu obrazu, dotyczyło to kilku wcześniejszych postów

    wada wrote:

    Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV ...

    Przypominam że najpierw cyfrowe przetworniki obrazu pojawiły się kamerach Video z zapisem na taśmie, dopiero później jak zaczęły się pojawiać podręczne pamięci cyfrowe , to te same przetworniki trafiły do aparatów fotograficznych.
    Z tego powodu przez dłuższy czas były aparaty o rozdzielczości tylko VGA, i później pojawiły się lustrzanki które wykorzystywały przetworniki liniowe ze skanerów stołowych, po prostu mechanicznie skanowały obraz jak ówczesne skanery.

    Wyraźnie też zaznaczyłem Kursywą
    wada wrote:

    (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu)
    Pisałem to z pamięci, i nie mam czasu i ochoty na szukanie tych staroci w internecie.

    Co do nieszczęsnego CMYK to kombinował z tym Ricoh, i chyba Panasonic.
    Zwróćcie uwagę że przy wielu aparatach nie jest podawany typ matrycy, i pisze "inny"
    Postęp i możliwości technologiczne z roku na rok są coraz wyższe i niedługo będą aparaty z TERAbajtowymi matrycami i tylko po to aby "sfitfocie" zamieścić w internecie.
    I aby dolać oliwy do ognia to SONY zabawia się swoimi trzema przetwornikami czarno/białymi jako RGB, a przed nimi pryzmaty i filtry, co ten obraz tak rozdzielają (pukniesz w coś kamerą i już kolory się nie nakładają), a jeszcze niedawno (jak dla mnie) próbował optycznie rozdzielać obraz na barwy takie jakie są w systemie nadawania PAL, jak i NTSC, ci co pamiętają te systemy wiedzą o co chodzi, a w skrócie to takie samo oszustwo jak teraz promowany DVB-T2 - wysoka rozdzielczość czarno/biała i na to nałożone dwie jakieś tam nędzne barwy różnicowe (dotyczy to analogowego PALu, jak i cyfrowego HSV) :D
    I aby uzyskać wszystkie barwy kolorów - wcale nie musi być podział na RGB
    Urgon wrote:
    Jak już, to każdy piksel składa się z czterech subpikseli: czerwonego, niebieskiego i dwóch zielonych. Dlaczego? Bo tak dało się zrobić ładną maskę subpikseli, a dodatkowo oko ludzkie jest najwrażliwsze na odcienie zieleni. Dlatego też w filmie używa się zielonego ekranu, zamiast niebieskiego. Niebieski był dobry w czasach telewizji analogowej, bo był najdalej od koloru skóry.
    Czyli znów nietypowo bo R G G B I mnie w szkole uczyli że stosunek sygnałów RGB w bieli jest zupełnie inny, no ale tu zacząłby się kolejny wywód akademicki, nie związany z tym tematem, bo ta biel to jeszcze gorszy koszmar, związany z jej temperaturą w jakiś Kelwinach - ale to będzie pewnie w kolejnych poradnikach.

    Urgon wrote:
    Dalej, w procesorach miniaturyzacja ma znaczenie, bo chcemy zwiększyć prędkość przełączania i zmniejszyć opóźnienia oraz zużycie energii. Ale to nie ma zastosowania do sensorów w aparatach czy kamerach. Im większy jest bowiem piksel, tym czulszy jest na światło. Dlatego nawet najlepszy współczesny smartfon kiepsko sobie radzi w słabszym oświetleniu, podczas gdy lustrzanka lub bezlusterkowiec radzi sobie o wiele lepiej...

    Chyba co nieco pomyliłeś, i zapomniałeś o sile światła obiektywu - jego rozmiary i średnica
  • #179
    snow
    Level 30  
    CosteC wrote:
    @urgon Dużo lepsze te nowe zdjęcia w poradniku.


    Masz na myśli to główne zdjęcie gdzie widać że brudna matryca, jest prześwietlone i nieostre?

    Quote:
    Jak i czym fotografować elektronikę? Wielki poradnik Urgona 1 - Sprzęt.
  • #180
    Urgon
    Editor
    AVE...

    wada wrote:
    Urgon wrote:
    Celowo nie zagłębiałem się aż w takie detale, ponieważ nie o tym toczy się dyskusja...

    I właśnie o to chodzi :!:
    Kontrowersyjny mój post miał w skrócie podkreślić problem z czasem przetwarzania i zapisu obrazu, dotyczyło to kilku wcześniejszych postów

    To było do Preskalera odnośnie budowy i działania migawki mechanicznej. Co do prędkości przetwarzania to największym ograniczeniem jest karta pamięci, potem sam procesor. Transfer z matrycy ma znaczenie tylko jak robimy zdjęcia seryjne. Mój aparat osiąga prędkość 6fps. co oznacza iż prędkość transferu z matrycy wynosi ~3,4Gbps. Ale znów zagłębiamy się w detale, które nie są istotne dla tego poradnika...

    Swoją szosą, to ile klatek na sekundę może zrobić smartfon? 0,33?
    wada wrote:

    wada wrote:

    Stare duże matryce działały jak w analogowych kamerach Video, i tak jak odtwarzanie w lampowych TV ...

    Przypominam że najpierw cyfrowe przetworniki obrazu pojawiły się kamerach Video z zapisem na taśmie, dopiero później jak zaczęły się pojawiać podręczne pamięci cyfrowe , to te same przetworniki trafiły do aparatów fotograficznych.
    Z tego powodu przez dłuższy czas były aparaty o rozdzielczości tylko VGA, i później pojawiły się lustrzanki które wykorzystywały przetworniki liniowe ze skanerów stołowych, po prostu mechanicznie skanowały obraz jak ówczesne skanery.

    Raczej z powodu ograniczeń pojemności pamięci. Pierwsze cyfrowe aparaty używały zwykłych dyskietek o pojemności 1,44MB.
    Dalej, pierwsze sensory CCD były stworzone po to, by zastąpić duże i niedoskonałe vidikony i ortikony - lampy próżniowe analizujące obraz. I występowały głownie w kamkorderach. Trochę się zeszło, zanim technologia pamięci masowych pozwoliła osiągnąć praktyczne aparaty cyfrowe. Były to okolice roku dwutysięcznego, jeśli mnie pamięć nie myli...


    wada wrote:
    znaczyłem Kursywą
    wada wrote:

    (tu powstają te dziwne DPI, powiązane z tymi paczkami i polami odczytu, dokładnie nie pamiętam, bo ostatnie kamery serwisowałem około 15 lat temu)
    Pisałem to z pamięci, i nie mam czasu i ochoty na szukanie tych staroci w internecie.

    Nadal nie rozumiesz: DPI to zagęszczenie pikseli przy wydruku. Nie ma to nic wspólnego ani z matrycą, ani z zapisem obrazu do pamięci. Faktyczna wartość DPI zależy od możliwości drukarki i od wielkości wydruku. Więc nie pisz głupot, okej?

    wada wrote:
    [Co do nieszczęsnego CMYK to kombinował z tym Ricoh, i chyba Panasonic.
    Zwróćcie uwagę że przy wielu aparatach nie jest podawany typ matrycy, i pisze "inny"
    Postęp i możliwości technologiczne z roku na rok są coraz wyższe i niedługo będą aparaty z TERAbajtowymi matrycami i tylko po to aby "sfitfocie" zamieścić w internecie.

    Fizyka światła się kłania. Jak mieszasz światła czerwone, zielone i niebieskie, to dostajesz światło białe. Dlatego sensory i ekrany były, są i będą typu RGB. Jeśli chcesz zamienić światło odbite od powierzchni na kolor, to musisz część widma pochłonąć za pomocą farby. Dlatego by ze światła białego uzyskać kolorowe plamy na papierze zwane obrazami, stosuje się barwniki w kolorach Cyan, Magenta, Yellow i blaK, czyli CMYK w skrócie. Czarny jest dodany, bo mieszanie farb CMY nie zawsze daje stuprocentowe zaczernienie. Więc albo coś gdzieś źle przeczytałeś i nie zrozumiałeś, albo zwyczajnie piszesz bzdury...

    wada wrote:
    [I aby dolać oliwy do ognia to SONY zabawia się swoimi trzema przetwornikami czarno/białymi jako RGB, a przed nimi pryzmaty i filtry, co ten obraz tak rozdzielają (pukniesz w coś kamerą i już kolory się nie nakładają), a jeszcze niedawno (jak dla mnie) próbował optycznie rozdzielać obraz na barwy takie jakie są w systemie nadawania PAL, jak i NTSC, ci co pamiętają te systemy wiedzą o co chodzi, a w skrócie to takie samo oszustwo jak teraz promowany DVB-T2 - wysoka rozdzielczość czarno/biała i na to nałożone dwie jakieś tam nędzne barwy różnicowe (dotyczy to analogowego PALu, jak i cyfrowego HSV)

    Światło było rozdzielane na R, G i B w kamerach telewizyjnych i video dlatego, że dzięki temu vidikony i ortikony pozwalały osiągać lepszą jakość obrazu. W systemach analogowej telewizji kolorowej zawsze stosowano luminofory w kolorach czerwonym, zielonym i niebieskim, niezależnie od sposobu kodowania informacji o kolorze. W kamerach konsumenckich i w tańszych kamerach profesjonalnych zastosowano vidikony i ortikony z trzema działami analizujące obraz RGB tak, jak potem kineskop z trzema działami go odtwarzał. Gdy zaczęto robić pierwsze przetworniki CCD, producenci zrobili tak, jak robili z większymi kamerami - lampy zastąpili sensorami, ale zachowali rozdzielenie kolorów. Przetworniki CCD z subpikselami pojawiły się później.

    Tylko co to ma współnego z poradnikiem na temat sprzętu fotograficznego dla amatora, tego nie wiedzą nawet egipscy górale...

    wada wrote:
    [I aby uzyskać wszystkie barwy kolorów - wcale nie musi być podział na RGB

    No, to prawda. Malarze mają farby w setkach kolorów, i jeszcze je ze sobą mieszają.
    Ale podział na RGB jest najbardziej praktyczny, bo pozwala uzyskać światło o dowolnym kolorze za pomocą regulacji jasności. Nigdy nie bawiłeś się LEDami RGB?

    wada wrote:
    Urgon wrote:
    ]Jak już, to każdy piksel składa się z czterech subpikseli: czerwonego, niebieskiego i dwóch zielonych. Dlaczego? Bo tak dało się zrobić ładną maskę subpikseli, a dodatkowo oko ludzkie jest najwrażliwsze na odcienie zieleni. Dlatego też w filmie używa się zielonego ekranu, zamiast niebieskiego. Niebieski był dobry w czasach telewizji analogowej, bo był najdalej od koloru skóry.
    Czyli znów nietypowo bo R G G B I mnie w szkole uczyli że stosunek sygnałów RGB w bieli jest zupełnie inny, no ale tu zacząłby się kolejny wywód akademicki, nie związany z tym tematem, bo ta biel to jeszcze gorszy koszmar, związany z jej temperaturą w jakiś Kelwinach - ale to będzie pewnie w kolejnych poradnikach.

    Układ Bayera, bo tak się to nazywa, jest stosowany od lat w cyfrowych kamerach i aparatach konsumenckich. Producenci eksperymentują też z innymi układami kolorów, a czasem dodają też kolor żółty albo bursztynowy oraz piksele bez koloru, tylko do jasności. I przyznam szczerze, że akurat w ten temat się nie zagłębiałem...

    wada wrote:
    Urgon wrote:
    ]Dalej, w procesorach miniaturyzacja ma znaczenie, bo chcemy zwiększyć prędkość przełączania i zmniejszyć opóźnienia oraz zużycie energii. Ale to nie ma zastosowania do sensorów w aparatach czy kamerach. Im większy jest bowiem piksel, tym czulszy jest na światło. Dlatego nawet najlepszy współczesny smartfon kiepsko sobie radzi w słabszym oświetleniu, podczas gdy lustrzanka lub bezlusterkowiec radzi sobie o wiele lepiej...

    Chyba co nieco pomyliłeś, i zapomniałeś o sile światła obiektywu - jego rozmiary i średnica

    Faktycznie, dzięki za kolejny argument przeciw smartfonom...