W czasach szerokiej oferty producentów urządzeń półprzewodnikowych i ogromnej ilości procesów, wykorzystywanych w tym sektorze, potrzebna jest parametryzacja poszczególnych technologii, która ułatwić ma porównywanie ich między sobą. Obecnie każdy z producentów testuje swoje produkty niezależnie, w sposób zależny od rynkowego targetu ich produkcji - taka sytuacja powinna się skończyć i ustąpić miejsca przejrzystym i obiektywnym metodom oceny technologii produkcji układów scalonych.
Niedawno Intel zaproponował nową, prostą metrykę układów opartą o gęstość upakowania tranzystorów. Firma nie doczekała się odpowiedzi konkurencji, być może dlatego, że gęstość upakowania tranzystorów w strukturze układu jest coś, w czym Intel ma przewagę, a konkurencja nie ma celu w tym, aby to potwierdzać.
Intel niedawno opublikował krytyczne wymiary tranzystorów stosowanych w produkowanych przez siebie układach - przerwy między bramkami, minimalna grubość metalizacji, wysokość struktury etc. dla procesu 10 nm. Jakkolwiek układy te nie są jeszcze w produkcji, to już sporo się o nich mówi. Podane przez Intela parametry to coś co zasadniczo każdy producent struktur krzemowych powinien być w stanie przedstawić, prezentując nową technologię. Na podstawie zaprezentowanych wymiarów możliwe jest oszacowanie maksymalnej gęstości upakowania tranzystorów w układach scalonych wyprodukowanych w tej technologii.
Jednakże, należy pamiętać, że wymiary i gęstość upakowania tranzystorów to tylko połowa historii. Jeśli nie jesteś w stanie wyprodukować tranzystorów które pracują odpowiednio szybko, pobierają odpowiednio mało prądu etc, to jakie znaczenie ma to jak gęsto upakowane są w układzie scalonym?
Jak zauważył już w 2009 roku, ówczesny szef pionu technologicznego ARM, Mike Muller, inżynierowie umieszczają w układzie scalonym coraz więcej tranzystorów, ale układy te mają za mało mocy, aby załączyć większą część z nich naraz. Muller nazwał to zjawisko "zaciemnionym krzemem".
Jak się to ma do propozycji Intela? bardzo prosto - bez powiązania proponowanej metryki z pobieraną mocą i wydajnością obliczeniową, to wartość ta nie ma żadnego znaczenia, bo nie opisuje wszystkich istotnych cech układu. W ostatnich latach przemysł półprzewodnikowy jest zgodny co do tego, że opisywanie układów scalonych w trzech kategoriach - wydajności, mocy i powierzchni (tzw. PPA) - jest najlepsze.
Szereg firm pracuje jednak nad opracowaniem lepszej metryki, która pozwoli sparametryzować różne procesy produkcji układów scalonych. International Business Strategies (IBS) zasugerowało niedawno, że dobrą wartością do opisu układów scalonych jest liczba efektywnie wykorzystanych tranzystorów. "Liczba efektywnych bramek pozwala wyznaczyć jaka jest realna gęstość używalnych tranzystorów" komentuje szef IBS, Handel Jones. Intel podaje także tą liczbę. "Jakkolwiek liczba użytecznych bramek jest wartościową metryką, to i tak nadal będzie to czubek góry lodowej" podsumowuje Jones.
Obecnie problemem jest fakt, że firmy trzymają realne osiągi swoich układów w tajemnicy, podobnie jak koszty produkcji liczone na pojedynczą bramkę. Są to krytyczne wartości dla układów scalonych, jak i dla parametryzacji ich osiągów jako takich. Dodatkowo, niezależnie od tego, na ocenę danego procesu produkcji wpływ powinny mieć także m.in. czas produkcji, szczególnie czas wprowadzania nowego układu do produkcji.
Jakie jeszcze metryki dla układów scalonych mają sens, lub po prostu są proponowane? Czytelnicy EE Times zaproponowali szereg z nich:
Jeden z czytelników zasugerował, aby mierzyć opóźnienia wynikające ze składowych RC układu w przeliczeniu na mm? jego struktury. Inni czytelnicy EE Times zauważali, że metryka proponowana przez Intela daleka jest od ideału, bo nie uwzględnia długości ścieżek w obrębie komórki układu.
Cześć czytelników zwracała uwagę na niemożność realizacji takiego porównania i wskazywało, że dopiero realne połączenie procesu i biblioteki wykorzystanej do opisu/projektowania układu daje realne porównanie, oczywiście przy założeniu że wykorzystywane są one do produkcji realnych układów. Dopiero np. porównanie dwóch procesorów o podobnym zegarze, wyprodukowanych z wykorzystaniem dwóch różnych procesów może zaowocować realnym porównaniem technologii.
Jak zauważa analityk Linley Gwennap, producenci muszą podać więcej danych dotyczących ich technologii produkcji, gdyż dopiero połączenie informacji na temat procesora z danymi dotyczącymi np. pamięci SRAM daje pełen obraz rozmiarów i osiągów układów typu system-na-chipie.
Obecnie parametryzacja produktów w sektorze urządzeń półprzewodnikowych jest krytyczna. W marcu tego roku TSMC ogłosiło, że rozpoczyna produkcję układów w trzech nowych procesach: 22 nm, 12 nm i 7+ nm, a jednocześnie kontynuuje produkcję układów w technologii 16 nm i 10 nm; w tej drugiej kategorii ilość produkowanych układów wzrasta cały czas. Zatem największy producent układów scalonych na świecie produkować będzie elementy elektroniczne wykorzystując do tego co najmniej pięć różnych procesów - czy są one w jakikolwiek sposób porównywalne? Jeśli tak, to jaka metryka powinna zostać zastosowana? Projektanci układów scalonych z wielu firm chcieliby dysponować możliwością prostej oceny oferowanych technologii, aby możliwe było ich porównanie i wybranie odpowiedniej.
Jednocześnie Globalfoundries rozpoczęło produkcję układów w technologii 22 nm, w pełni zubożonego krzemu w układzie krzem-na-izolatorze. Zaowocowało to ogromnym zainteresowaniem i nawet Intel zdecydował się na krok w tą stronę prezentując proces 22 nm FinFET, oferujący redukcję poboru prądu z zasilania.
Jak oceniają analitycy do 2020 roku wszyscy najwięksi producenci rozpoczną wykorzystywanie systemów do litografii w ekstremalnym ultrafiolecie (EUV). Początkowo, jak oceniają specjaliści, wykorzystanie EUV i jego rezultaty u poszczególnych producentów mogą od siebie odbiegać z uwagi na wstępny etap stosowania nowej technologii.
Firmy zlecające producentom wytwarzanie zaprojektowanych przez siebie chipów potrzebują czystej i jasnej metryki, jaka umożliwi im porównanie różnych technologii różnych producentów i przedstawi czysty obraz wad i zalet każdego rozwiązania. Bez tego nie ma co spodziewać się zaufania w tej branży, które powinno być podstawą dobrych stosunków biznesowych. Ten temat jest sporym wyzwaniem dla Światowego Stowarzyszenia Półprzewodnikowego (GSA), SEMI i IEEE.
Szczególnie GSA, które reprezentuje sektor projektantów układów scalonych, powinno zainteresować się tym problemem. Niestety, stowarzyszenie to nie śpieszy się do działania w tym zakresie. Jest to poniekąd zrozumiałym, gdyż do realnej oceny procesów produkcyjnych koniecznie jest ujawnienie szeregu sekretów - tak producentów, jak i projektantów. Póki co np. Qualcomm odmówił ujawnienia informacji o tym jak testuje poszczególne procesy produkcyjne, a NVidia i Mediatek nie skomentowały zapytania. Nie ma się co dziwić - ujawniając te informacje straciłyby część strategicznej przewagi nad konkurencją.
W wielu przypadkach decyzje dotyczące wyboru producenta dla układów scalonych mają tyle wspólnego z samą technologia, co z negocjacjami biznesowymi. Gdy Apple wybrało TSMC jako dostarczyciela procesorów dla swoich aplikacji Samsung utracił kontrakt na miliony układów scalonych rocznie. Z drugiej strony, w tym samym czasie, Qualcomm rozpoczął produkcję (w technologii Samsunga - 14 nm i 10 nm) swoich SoC Snapdragon. W ten oto sposób Samsung Galaxy S8 był pierwszym smartfonem na rynku z procesorem wykonanym w technologii 10 nm.
Przemysł półprzewodnikowy pełen jest skomplikowanych technologiczno-biznesowych decyzji. Ich implikacje brzmią echem w szerokim systemie sprzętu, oprogramowania i usług na wielu rynkach na świecie. Z uwagi na to istnieje konieczność stworzenia publicznej, jawnej metryki, mającej pomóc producentom i projektantom sprzętu na dobieranie technologii do konkretnych zastosowań.
Intel rozpoczął starania o opracowanie tego rodzaju metryki wraz z publikacją danych dotyczących swojej technologii 10 nm, jaką właśnie wprowadza do swoich fabryk. Czy inni producenci pójdą w jego ślady? Z pewnością narastać będą naciski, aby tak było, jednakże dopiero działania organizacji takich jak GSA mogą realnie zmusić producentów struktur krzemowych do podjęcia wspólnych starań.
Źródło: http://www.eetimes.com/author.asp?section_id=36&doc_id=1331577
Niedawno Intel zaproponował nową, prostą metrykę układów opartą o gęstość upakowania tranzystorów. Firma nie doczekała się odpowiedzi konkurencji, być może dlatego, że gęstość upakowania tranzystorów w strukturze układu jest coś, w czym Intel ma przewagę, a konkurencja nie ma celu w tym, aby to potwierdzać.
Intel niedawno opublikował krytyczne wymiary tranzystorów stosowanych w produkowanych przez siebie układach - przerwy między bramkami, minimalna grubość metalizacji, wysokość struktury etc. dla procesu 10 nm. Jakkolwiek układy te nie są jeszcze w produkcji, to już sporo się o nich mówi. Podane przez Intela parametry to coś co zasadniczo każdy producent struktur krzemowych powinien być w stanie przedstawić, prezentując nową technologię. Na podstawie zaprezentowanych wymiarów możliwe jest oszacowanie maksymalnej gęstości upakowania tranzystorów w układach scalonych wyprodukowanych w tej technologii.
Jednakże, należy pamiętać, że wymiary i gęstość upakowania tranzystorów to tylko połowa historii. Jeśli nie jesteś w stanie wyprodukować tranzystorów które pracują odpowiednio szybko, pobierają odpowiednio mało prądu etc, to jakie znaczenie ma to jak gęsto upakowane są w układzie scalonym?
Jak zauważył już w 2009 roku, ówczesny szef pionu technologicznego ARM, Mike Muller, inżynierowie umieszczają w układzie scalonym coraz więcej tranzystorów, ale układy te mają za mało mocy, aby załączyć większą część z nich naraz. Muller nazwał to zjawisko "zaciemnionym krzemem".
Jak się to ma do propozycji Intela? bardzo prosto - bez powiązania proponowanej metryki z pobieraną mocą i wydajnością obliczeniową, to wartość ta nie ma żadnego znaczenia, bo nie opisuje wszystkich istotnych cech układu. W ostatnich latach przemysł półprzewodnikowy jest zgodny co do tego, że opisywanie układów scalonych w trzech kategoriach - wydajności, mocy i powierzchni (tzw. PPA) - jest najlepsze.
Szereg firm pracuje jednak nad opracowaniem lepszej metryki, która pozwoli sparametryzować różne procesy produkcji układów scalonych. International Business Strategies (IBS) zasugerowało niedawno, że dobrą wartością do opisu układów scalonych jest liczba efektywnie wykorzystanych tranzystorów. "Liczba efektywnych bramek pozwala wyznaczyć jaka jest realna gęstość używalnych tranzystorów" komentuje szef IBS, Handel Jones. Intel podaje także tą liczbę. "Jakkolwiek liczba użytecznych bramek jest wartościową metryką, to i tak nadal będzie to czubek góry lodowej" podsumowuje Jones.
Obecnie problemem jest fakt, że firmy trzymają realne osiągi swoich układów w tajemnicy, podobnie jak koszty produkcji liczone na pojedynczą bramkę. Są to krytyczne wartości dla układów scalonych, jak i dla parametryzacji ich osiągów jako takich. Dodatkowo, niezależnie od tego, na ocenę danego procesu produkcji wpływ powinny mieć także m.in. czas produkcji, szczególnie czas wprowadzania nowego układu do produkcji.
Jakie jeszcze metryki dla układów scalonych mają sens, lub po prostu są proponowane? Czytelnicy EE Times zaproponowali szereg z nich:
Jeden z czytelników zasugerował, aby mierzyć opóźnienia wynikające ze składowych RC układu w przeliczeniu na mm? jego struktury. Inni czytelnicy EE Times zauważali, że metryka proponowana przez Intela daleka jest od ideału, bo nie uwzględnia długości ścieżek w obrębie komórki układu.
Cześć czytelników zwracała uwagę na niemożność realizacji takiego porównania i wskazywało, że dopiero realne połączenie procesu i biblioteki wykorzystanej do opisu/projektowania układu daje realne porównanie, oczywiście przy założeniu że wykorzystywane są one do produkcji realnych układów. Dopiero np. porównanie dwóch procesorów o podobnym zegarze, wyprodukowanych z wykorzystaniem dwóch różnych procesów może zaowocować realnym porównaniem technologii.
Jak zauważa analityk Linley Gwennap, producenci muszą podać więcej danych dotyczących ich technologii produkcji, gdyż dopiero połączenie informacji na temat procesora z danymi dotyczącymi np. pamięci SRAM daje pełen obraz rozmiarów i osiągów układów typu system-na-chipie.
Obecnie parametryzacja produktów w sektorze urządzeń półprzewodnikowych jest krytyczna. W marcu tego roku TSMC ogłosiło, że rozpoczyna produkcję układów w trzech nowych procesach: 22 nm, 12 nm i 7+ nm, a jednocześnie kontynuuje produkcję układów w technologii 16 nm i 10 nm; w tej drugiej kategorii ilość produkowanych układów wzrasta cały czas. Zatem największy producent układów scalonych na świecie produkować będzie elementy elektroniczne wykorzystując do tego co najmniej pięć różnych procesów - czy są one w jakikolwiek sposób porównywalne? Jeśli tak, to jaka metryka powinna zostać zastosowana? Projektanci układów scalonych z wielu firm chcieliby dysponować możliwością prostej oceny oferowanych technologii, aby możliwe było ich porównanie i wybranie odpowiedniej.
Jednocześnie Globalfoundries rozpoczęło produkcję układów w technologii 22 nm, w pełni zubożonego krzemu w układzie krzem-na-izolatorze. Zaowocowało to ogromnym zainteresowaniem i nawet Intel zdecydował się na krok w tą stronę prezentując proces 22 nm FinFET, oferujący redukcję poboru prądu z zasilania.
Jak oceniają analitycy do 2020 roku wszyscy najwięksi producenci rozpoczną wykorzystywanie systemów do litografii w ekstremalnym ultrafiolecie (EUV). Początkowo, jak oceniają specjaliści, wykorzystanie EUV i jego rezultaty u poszczególnych producentów mogą od siebie odbiegać z uwagi na wstępny etap stosowania nowej technologii.
Firmy zlecające producentom wytwarzanie zaprojektowanych przez siebie chipów potrzebują czystej i jasnej metryki, jaka umożliwi im porównanie różnych technologii różnych producentów i przedstawi czysty obraz wad i zalet każdego rozwiązania. Bez tego nie ma co spodziewać się zaufania w tej branży, które powinno być podstawą dobrych stosunków biznesowych. Ten temat jest sporym wyzwaniem dla Światowego Stowarzyszenia Półprzewodnikowego (GSA), SEMI i IEEE.
Szczególnie GSA, które reprezentuje sektor projektantów układów scalonych, powinno zainteresować się tym problemem. Niestety, stowarzyszenie to nie śpieszy się do działania w tym zakresie. Jest to poniekąd zrozumiałym, gdyż do realnej oceny procesów produkcyjnych koniecznie jest ujawnienie szeregu sekretów - tak producentów, jak i projektantów. Póki co np. Qualcomm odmówił ujawnienia informacji o tym jak testuje poszczególne procesy produkcyjne, a NVidia i Mediatek nie skomentowały zapytania. Nie ma się co dziwić - ujawniając te informacje straciłyby część strategicznej przewagi nad konkurencją.
W wielu przypadkach decyzje dotyczące wyboru producenta dla układów scalonych mają tyle wspólnego z samą technologia, co z negocjacjami biznesowymi. Gdy Apple wybrało TSMC jako dostarczyciela procesorów dla swoich aplikacji Samsung utracił kontrakt na miliony układów scalonych rocznie. Z drugiej strony, w tym samym czasie, Qualcomm rozpoczął produkcję (w technologii Samsunga - 14 nm i 10 nm) swoich SoC Snapdragon. W ten oto sposób Samsung Galaxy S8 był pierwszym smartfonem na rynku z procesorem wykonanym w technologii 10 nm.
Przemysł półprzewodnikowy pełen jest skomplikowanych technologiczno-biznesowych decyzji. Ich implikacje brzmią echem w szerokim systemie sprzętu, oprogramowania i usług na wielu rynkach na świecie. Z uwagi na to istnieje konieczność stworzenia publicznej, jawnej metryki, mającej pomóc producentom i projektantom sprzętu na dobieranie technologii do konkretnych zastosowań.
Intel rozpoczął starania o opracowanie tego rodzaju metryki wraz z publikacją danych dotyczących swojej technologii 10 nm, jaką właśnie wprowadza do swoich fabryk. Czy inni producenci pójdą w jego ślady? Z pewnością narastać będą naciski, aby tak było, jednakże dopiero działania organizacji takich jak GSA mogą realnie zmusić producentów struktur krzemowych do podjęcia wspólnych starań.
Źródło: http://www.eetimes.com/author.asp?section_id=36&doc_id=1331577
Fajne? Ranking DIY
