Witam.
potrzebuję określić z jaką dokładnością są próbkowane sygnały podczas przetwarzania sygnału analogowego do cyfrowej postaci. W instrukcji obsługi jest napisane że częstotliwość próbkowania wynosi 72MHz. To jednoznacznie pozwala mi określić że kolejne punkty czasowe są z dokładnością do: 1/72MHz. Niestety problem jest przy pojęciu "nieliniowość skali czasu" która wynosi 0,0001% (fluktuacje generatora kwarcowego).
Z tego względu że nie jestem elektonikiem nie jestem w stanie samodzielnie rozwikłać tego zagadnienia. Jeżeli ktoś mógłby mi wytłumaczyć bardziej przystępnym językiem jaki wpływ mają te fluktuacje na dokładność pomiaru czasu. Czy ta dokładność jest zależna od tego jak długi sygnał jest próbkowany? Czy ta niedokładność jest stała niezależna od ilości próbek.
Będę bardzo wdzięczny za pomoc w temacie.
Pozdrawiam
ARek
potrzebuję określić z jaką dokładnością są próbkowane sygnały podczas przetwarzania sygnału analogowego do cyfrowej postaci. W instrukcji obsługi jest napisane że częstotliwość próbkowania wynosi 72MHz. To jednoznacznie pozwala mi określić że kolejne punkty czasowe są z dokładnością do: 1/72MHz. Niestety problem jest przy pojęciu "nieliniowość skali czasu" która wynosi 0,0001% (fluktuacje generatora kwarcowego).
Z tego względu że nie jestem elektonikiem nie jestem w stanie samodzielnie rozwikłać tego zagadnienia. Jeżeli ktoś mógłby mi wytłumaczyć bardziej przystępnym językiem jaki wpływ mają te fluktuacje na dokładność pomiaru czasu. Czy ta dokładność jest zależna od tego jak długi sygnał jest próbkowany? Czy ta niedokładność jest stała niezależna od ilości próbek.
Będę bardzo wdzięczny za pomoc w temacie.
Pozdrawiam
ARek
