Wiele obecnych konstrukcji wykorzystuje trzy kondensatory odsprzęgające o różne wartości połączone ze sobą równolegle, zamiast zastosowania jednego kondensatora o niewielkiej wartości (na przykład 100 nF). Wszystko to opiera się na 50-letnich założeniach, które nie mają dziś już realnego zastosowania. Czas ponownie rozważyć te stare wytyczne projektowe. Chyba czas uznać je już za nieaktualne…
Mity, takie jak starszy kod i kompatybilność wsteczna
Od samego początku przemysł elektroniczny popychany jest w przyszłość przez cztery siły, które dyktują, jak projektować należy urządzenia elektroniczne. Systemy mają być szybsze, mniejsze, tańsze i gotowe na już. Spowodowało to ciągły postęp rewolucyjnych i ewolucyjnych zmian w technologii, materiałach, produkcji i projektowaniu.
Czasami zasady projektowania, które przyjmujemy we wcześniejszej generacji urządzeń, stają się „starszym kodem” w następnej generacji i nie mają już realnego zastosowania lub też są elementem kompatybilności wstecznej, umożliwiającym ponowne wykorzystanie starszych elementów projektów. To, co działało w przypadku jednej, konkretnej kombinacji technologii, może nie mieć zastosowania w nowej kombinacji. Z tego powodu różne dotychczasowe wytyczne, dotyczące projektowania urządzeń elektronicznych, stają się mitami, które powinny zostać ponownie ocenione w obecnej generacji urządzeń.
Jedyną stałą jest zmiana
Branża elektroniczna widziała już niejedną rewolucję. Postępy w zakresie wykorzystania lamp, tranzystorów, układów scalonych i systemów w pakietach (SoC, SoM etc). Doświadczyliśmy rewolucyjnych zmian w sposobie projektowania urządzeń - od dyskretnych połączeń kablowych, przez jedno- i dwuwarstwowe płytki drukowane, aż po wielowarstwowe i technologię HDI. Widzieliśmy rewolucyjne postępy od wczesnych urządzeń z montażem przewlekanym i elementami dyskretnymi, do obecnych systemów produkowanych w technologii montażu powierzchniowego z kompaktowymi układami scalonymi.
Postęp ten dobrze zobrazować można porównując urządzenia zaprojektowane w różnych czasach. Na rysunku 1 znajdują się zdjęcia z „migawkami” urządzeń elektronicznych z różnych czasów.
Rys.1. Cztery punkty w czasie (od lewej do prawej): lampy z dyskretnymi połączeniami kablowymi, lampy i płytki drukowane, dyskretne tranzystory i płytki drukowane oraz układy w obudowach BGA do montażu powierzchniowego z wielowarstwowymi płytkami drukowanymi.
Wpływ technologii na projektowanie
Podstawowe zasady interakcji sygnałów z połączeniami pomiędzy elementami elektronicznymi nie uległy zmianie w czasie ostatniego wieku. Nadal są one oparte na 150-letnich równaniach Maxwella. Jednak sposób, w jaki wdrażamy te zasady projektowania i przekształcamy je z suchych, teoretycznych zasad w wytyczne projektowe ewoluuje wraz z każdą generacją technologii projektowania i produkcji urządzeń elektronicznych.
We wczesnych dniach lamp elektronowych wykorzystywano dyskretne okablowanie do łączenia ze sobą poszczególnych wyprowadzeń lamp. Pierwszym problemem do rozwiązania w tamtych czasach był zwykle przesłuch pomiędzy poszczególnymi połączeniami. Wynika on z dużych indukcyjności pętli tych połączeń. Popularne były zasady projektowania, które podsumować można stwierdzeniem, że „im krótszy, tym lepszy”. Dodatkowo, postulowano, by przewody masowe i zasilające łączyć we wspólne wiązki. Na tym etapie zasady te sprawdzały się doskonale.
Kiedy wprowadzono płytki wielowarstwowe, znaczna część tych zasad projektowych pozostała w użyciu, częściowo z powodu przyzwyczajenia, a częściowo z braku lepszych alternatyw. Ścieżki masy i zasilania dalej prowadzono jako dyskretne linie, zamiast z wykorzystaniem płaszczyzn uziemienia (wylewek). Dziedzictwo utrzymywania linii zasilania i masy blisko siebie powstrzymywało wdrażanie wylewek masy w niektórych wczesnych projektach urządzeń elektronicznych. Do pewnego momentu było to jednak bez znaczenia.
Sprawy jednak miały się inaczej, gdy częstotliwości sygnałów w układzie wzrosły powyżej 20 MHz, gdzie zaczęły dominować efekty linii transmisyjnej, a kontrolowana impedancja, topologie ścieżek wysokiej częstotliwości i strategie ich terminacji stały się ważnymi elementami napędowymi rozwoju technologii projektowania połączeń na płytkach drukowanych. Dotychczasowe zasady, nadal mówiące, że „krótszy jest lepszy” przyczyniły się do pewnej niechęci do stosowania, np. topologii routingu łańcuchowego, co mogło skutkować nie tylko dłuższymi ścieżkami, ale i niższym szumem i redukcją odbić sygnału.
Kiedy weszliśmy w świat transmisji gigabitowych (1 Gb/s i szybciej), straty w ścieżkach stały się ważnym aspektem – zaczęliśmy wybierać inne materiały do budowy płytek drukowanych, zamiast laminatu szkło-epoksydowego w celu uzyskania niższych strat. Korzystając z tych laminatów o niższych stratach, inżynierowie doszli do wniosku, że powyżej 5 Gb/s straty miedzi są wyższe niż oczekiwano. Wtedy też ustalono, że gładkie powierzchnie miedzi sprawdzają się lepiej. Powyżej 10 Gb/s odkryto, że 50-letnie podejście do budowy płytek drukowanych wzmacnianych włóknem szklanym przyczynia się do powstania nowego problemu – wpływu splotu włókien szklanych na elektryczne działanie ścieżek, przez co zależnie od lokalizacji na PCB, ścieżki mogą mieć różne własności.
Dzięki nowym technologiom udało się rozwiązać wiele z tych problemów, ale obecnie potrzebne są nowe zasady projektowania. Stare zasady projektowania obwodów drukowanych z laminatu szkło-epoksydowego niekoniecznie są najlepszymi wytycznymi projektowymi w erze wielogigabitowych interkonektów miedzianych na PCB.
Eksperci branżowi wskazują drogę
Wytyczne projektowe, które obecnie stosuje się na co dzień w produktach elektronicznych, zostały opracowane przez liderów branży. Są to firmy angażujące wielu ekspertów w dziedzinie integralności sygnału, zasilania, kompatybilności elektromagnetycznej, materiałów, produkcji, niezawodności i integracji systemowej, którzy wprowadzają na rynek produkty o najwyższym poziomie złożoności. Eksperci ci stosują się do podstawowych zasad i praw fizyki, aby ustanowić wytyczne projektowe dla nowych materiałów, technologii układów scalonych i wprowadzanych technologii PCB.
Ale czasami to, co poprawnie działało w jednym pokoleniu technologii, staje się przeterminowanym mitem w następnym. Ponieważ zasady projektowania zostały ustanowione przez ekspertów, reszta branży, czasami bardzo niechętnie, odpuszcza starsze wytyczne projektowania. Prowadzi to do sytuacji, w których nadal stosuje się stare wytyczne projektów w nowej generacji technologii, w których mogą one nie mieć zupełnie zastosowania. Stają się mitami zakorzenionymi w naszej świadomości, ale bez pokrycia w rzeczywistości.
Jeśli poprzedni projekt działał poprawnie i został zaprojektowany zgodnie ze starymi wytycznymi projektowymi, to, jak uważa się często, oznacza to, że wytyczne są poprawne. Nic bardziej mylnego – nie możemy zakładać, że urządzenie działa dzięki założeniom projektowym; w rzeczywistości, może być tak, że układ działa pomimo stosowania starych założeń projektowych.
Stare założenia projektowe, które są dobrze zakorzenione w świadomości elektroników, łatwo zamieniają się w mity. Jednym z tych mitów jest, na przykład, stosowanie trzech kondensatorów o różnej pojemności, połączonych ze sobą równolegle, przy każdym pinie zasilania urządzenia.
W tym artykule przyjrzymy się bliżej tej trójce elementów – czy obecnie dalej konieczne jest stosowanie trzech kondensatorów o różnej pojemności do filtrowania zasilania dla układów scalonych itp.? Wytyczna ta istotnie pogarsza wydajność w projektowaniu nowej generacji urządzeń – elementy te zajmują dużo miejsca na PCB, co przekłada się na zwiększone koszty i poziom złożoności systemu.
Źródło: https://www.signalintegrityjournal.com/articles/1589-the-myth-of-three-capacitor-values
Mity, takie jak starszy kod i kompatybilność wsteczna
Od samego początku przemysł elektroniczny popychany jest w przyszłość przez cztery siły, które dyktują, jak projektować należy urządzenia elektroniczne. Systemy mają być szybsze, mniejsze, tańsze i gotowe na już. Spowodowało to ciągły postęp rewolucyjnych i ewolucyjnych zmian w technologii, materiałach, produkcji i projektowaniu.
Czasami zasady projektowania, które przyjmujemy we wcześniejszej generacji urządzeń, stają się „starszym kodem” w następnej generacji i nie mają już realnego zastosowania lub też są elementem kompatybilności wstecznej, umożliwiającym ponowne wykorzystanie starszych elementów projektów. To, co działało w przypadku jednej, konkretnej kombinacji technologii, może nie mieć zastosowania w nowej kombinacji. Z tego powodu różne dotychczasowe wytyczne, dotyczące projektowania urządzeń elektronicznych, stają się mitami, które powinny zostać ponownie ocenione w obecnej generacji urządzeń.
Jedyną stałą jest zmiana
Branża elektroniczna widziała już niejedną rewolucję. Postępy w zakresie wykorzystania lamp, tranzystorów, układów scalonych i systemów w pakietach (SoC, SoM etc). Doświadczyliśmy rewolucyjnych zmian w sposobie projektowania urządzeń - od dyskretnych połączeń kablowych, przez jedno- i dwuwarstwowe płytki drukowane, aż po wielowarstwowe i technologię HDI. Widzieliśmy rewolucyjne postępy od wczesnych urządzeń z montażem przewlekanym i elementami dyskretnymi, do obecnych systemów produkowanych w technologii montażu powierzchniowego z kompaktowymi układami scalonymi.
Postęp ten dobrze zobrazować można porównując urządzenia zaprojektowane w różnych czasach. Na rysunku 1 znajdują się zdjęcia z „migawkami” urządzeń elektronicznych z różnych czasów.
Rys.1. Cztery punkty w czasie (od lewej do prawej): lampy z dyskretnymi połączeniami kablowymi, lampy i płytki drukowane, dyskretne tranzystory i płytki drukowane oraz układy w obudowach BGA do montażu powierzchniowego z wielowarstwowymi płytkami drukowanymi.
Wpływ technologii na projektowanie
Podstawowe zasady interakcji sygnałów z połączeniami pomiędzy elementami elektronicznymi nie uległy zmianie w czasie ostatniego wieku. Nadal są one oparte na 150-letnich równaniach Maxwella. Jednak sposób, w jaki wdrażamy te zasady projektowania i przekształcamy je z suchych, teoretycznych zasad w wytyczne projektowe ewoluuje wraz z każdą generacją technologii projektowania i produkcji urządzeń elektronicznych.
We wczesnych dniach lamp elektronowych wykorzystywano dyskretne okablowanie do łączenia ze sobą poszczególnych wyprowadzeń lamp. Pierwszym problemem do rozwiązania w tamtych czasach był zwykle przesłuch pomiędzy poszczególnymi połączeniami. Wynika on z dużych indukcyjności pętli tych połączeń. Popularne były zasady projektowania, które podsumować można stwierdzeniem, że „im krótszy, tym lepszy”. Dodatkowo, postulowano, by przewody masowe i zasilające łączyć we wspólne wiązki. Na tym etapie zasady te sprawdzały się doskonale.
Kiedy wprowadzono płytki wielowarstwowe, znaczna część tych zasad projektowych pozostała w użyciu, częściowo z powodu przyzwyczajenia, a częściowo z braku lepszych alternatyw. Ścieżki masy i zasilania dalej prowadzono jako dyskretne linie, zamiast z wykorzystaniem płaszczyzn uziemienia (wylewek). Dziedzictwo utrzymywania linii zasilania i masy blisko siebie powstrzymywało wdrażanie wylewek masy w niektórych wczesnych projektach urządzeń elektronicznych. Do pewnego momentu było to jednak bez znaczenia.
Sprawy jednak miały się inaczej, gdy częstotliwości sygnałów w układzie wzrosły powyżej 20 MHz, gdzie zaczęły dominować efekty linii transmisyjnej, a kontrolowana impedancja, topologie ścieżek wysokiej częstotliwości i strategie ich terminacji stały się ważnymi elementami napędowymi rozwoju technologii projektowania połączeń na płytkach drukowanych. Dotychczasowe zasady, nadal mówiące, że „krótszy jest lepszy” przyczyniły się do pewnej niechęci do stosowania, np. topologii routingu łańcuchowego, co mogło skutkować nie tylko dłuższymi ścieżkami, ale i niższym szumem i redukcją odbić sygnału.
Kiedy weszliśmy w świat transmisji gigabitowych (1 Gb/s i szybciej), straty w ścieżkach stały się ważnym aspektem – zaczęliśmy wybierać inne materiały do budowy płytek drukowanych, zamiast laminatu szkło-epoksydowego w celu uzyskania niższych strat. Korzystając z tych laminatów o niższych stratach, inżynierowie doszli do wniosku, że powyżej 5 Gb/s straty miedzi są wyższe niż oczekiwano. Wtedy też ustalono, że gładkie powierzchnie miedzi sprawdzają się lepiej. Powyżej 10 Gb/s odkryto, że 50-letnie podejście do budowy płytek drukowanych wzmacnianych włóknem szklanym przyczynia się do powstania nowego problemu – wpływu splotu włókien szklanych na elektryczne działanie ścieżek, przez co zależnie od lokalizacji na PCB, ścieżki mogą mieć różne własności.
Dzięki nowym technologiom udało się rozwiązać wiele z tych problemów, ale obecnie potrzebne są nowe zasady projektowania. Stare zasady projektowania obwodów drukowanych z laminatu szkło-epoksydowego niekoniecznie są najlepszymi wytycznymi projektowymi w erze wielogigabitowych interkonektów miedzianych na PCB.
Eksperci branżowi wskazują drogę
Wytyczne projektowe, które obecnie stosuje się na co dzień w produktach elektronicznych, zostały opracowane przez liderów branży. Są to firmy angażujące wielu ekspertów w dziedzinie integralności sygnału, zasilania, kompatybilności elektromagnetycznej, materiałów, produkcji, niezawodności i integracji systemowej, którzy wprowadzają na rynek produkty o najwyższym poziomie złożoności. Eksperci ci stosują się do podstawowych zasad i praw fizyki, aby ustanowić wytyczne projektowe dla nowych materiałów, technologii układów scalonych i wprowadzanych technologii PCB.
Ale czasami to, co poprawnie działało w jednym pokoleniu technologii, staje się przeterminowanym mitem w następnym. Ponieważ zasady projektowania zostały ustanowione przez ekspertów, reszta branży, czasami bardzo niechętnie, odpuszcza starsze wytyczne projektowania. Prowadzi to do sytuacji, w których nadal stosuje się stare wytyczne projektów w nowej generacji technologii, w których mogą one nie mieć zupełnie zastosowania. Stają się mitami zakorzenionymi w naszej świadomości, ale bez pokrycia w rzeczywistości.
Jeśli poprzedni projekt działał poprawnie i został zaprojektowany zgodnie ze starymi wytycznymi projektowymi, to, jak uważa się często, oznacza to, że wytyczne są poprawne. Nic bardziej mylnego – nie możemy zakładać, że urządzenie działa dzięki założeniom projektowym; w rzeczywistości, może być tak, że układ działa pomimo stosowania starych założeń projektowych.
Stare założenia projektowe, które są dobrze zakorzenione w świadomości elektroników, łatwo zamieniają się w mity. Jednym z tych mitów jest, na przykład, stosowanie trzech kondensatorów o różnej pojemności, połączonych ze sobą równolegle, przy każdym pinie zasilania urządzenia.
W tym artykule przyjrzymy się bliżej tej trójce elementów – czy obecnie dalej konieczne jest stosowanie trzech kondensatorów o różnej pojemności do filtrowania zasilania dla układów scalonych itp.? Wytyczna ta istotnie pogarsza wydajność w projektowaniu nowej generacji urządzeń – elementy te zajmują dużo miejsca na PCB, co przekłada się na zwiększone koszty i poziom złożoności systemu.
Źródło: https://www.signalintegrityjournal.com/articles/1589-the-myth-of-three-capacitor-values
Fajne? Ranking DIY
