Wiatm.
Jestem początkujący w tej dziedzinie. Jeste wiele projektów liczących czas (np. https://www.elektroda.pl/rtvforum/topic1069375.html ) do zegarów i nie tylko. Nie znam języka C++, a pierwsze kroki stawiam za pomocą micropascala (znam pascala i delphi).
Chciałbym nauczyć się jak liczyć czas, tzn. tak na chłopski rozum jak to się dzieje a z resztą spróbuje sam. Mam podłączony kwarc 4MHz do atmega8. Zadania typu delay(1000) dziłają dość dobrze, ale gdy jest ono w pętli z jakimś innym zadaniem to orzymuje już np 1001ms i wszystko sie rozleguluje po kilku minutach.
Więc jak robi sie to profesjonalnie? Sprzętowo, programowo? (dokładność +-minuta na miesiąc wystarczy)
Jestem początkujący w tej dziedzinie. Jeste wiele projektów liczących czas (np. https://www.elektroda.pl/rtvforum/topic1069375.html ) do zegarów i nie tylko. Nie znam języka C++, a pierwsze kroki stawiam za pomocą micropascala (znam pascala i delphi).
Chciałbym nauczyć się jak liczyć czas, tzn. tak na chłopski rozum jak to się dzieje a z resztą spróbuje sam. Mam podłączony kwarc 4MHz do atmega8. Zadania typu delay(1000) dziłają dość dobrze, ale gdy jest ono w pętli z jakimś innym zadaniem to orzymuje już np 1001ms i wszystko sie rozleguluje po kilku minutach.
Więc jak robi sie to profesjonalnie? Sprzętowo, programowo? (dokładność +-minuta na miesiąc wystarczy)