Elektroda.pl
Elektroda.pl
X
Elektroda.pl
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Prawo Moora nie przeżyje do 2022 roku, twierdzą eksperci

ghost666 16 Paź 2020 12:08 1818 9
  • Prawo Moora nie przeżyje do 2022 roku, twierdzą eksperci
    Robert Colwell
    Prawo Moore'a - prawo mówiące o tym, że gęstość upakowania tranzystorów w procesorach rośnie o czynnik dwa co około dwa lata - przestanie być prawdziwe najpewniej do końca 2020 roku, przy technologii 7 nm, jak mówi jeden z specjalistów, uczestniczący w konferencji Hot Chips.

    Chociaż wielu już przewidywało koniec prawa Moore'a, niewielu zrobiło to z tak przekonująco, jak Robert Colwell (na zdjęciu po lewej). Prognozy rozwoju rosną w miarę postępu w litografii, ale technologia procesowa zbliża się do granic atomowych. "Jeśli chodzi o horyzonty planowania, wybieram rok 2020 jako najwcześniejszą datę, kiedy możemy mówić, że prawo to przestało być prawdziwe" powiedział Robert Colwell, który poszukuje nowych technologii jako dyrektor grupy mikrosystemów w Agencji Zaawansowanych Projektów Badawczych Obrony (DARPA) w USA. "Mógłbym dać się przekonać do roku 2022, ale czy to nastąpi przy 7 czy 5 nm, to nie jest wielka różnica" powiedział inżynier, który kiedyś zarządzał projektem procesora klasy Pentium w firmie Intel.

    Prawo Moore'a jest (było?) wykładniczym czynnikiem wzrostu, który w ciągu 30 lat przyniósł wzrost prędkości systemów z 1 MHz do 5 GHz, czyli 3500-krotny wzrost częstotliwości taktowania. Dla porównania, najlepsze postępy w inteligentnych architekturach zapewniły około 50-krotny wzrost w tym samym okresie, powiedział. Procesy wykładnicze zawsze kończą się z powodu samej natury ich wzrostu. Niestety, takie długie przejażdżki jak ta, są rzadkie, powiedział Colwell.

    "Nie spodziewam się kolejnego 3500-krotnego wzrostu w elektronice - prędzej może 50-krotnego w ciągu najbliższych 30 lat" mówi specjalista. "Niestety, nie sądzę, żeby świat dał nam dużo dodatkowych pieniędzy na 10-procentowy roczny wzrost" powiedział publiczności konferencji, złożonej z projektantów procesorów. Colwell w ten sposób stara się ugasić entuzjazm i ślepą wiarę w to, że inżynierowie znajdą kolejną wykładniczą krzywą wzrostu, która zastąpi prawo Moore'a. "Wprowadzimy kilka stopniowych poprawek, ale nie można powrócić do krzywej wykładniczej" powiedział.

    DARPA śledzi listę aż 30 możliwych alternatyw dla technologii CMOS, która była koniem pociągowym prawa Moore'a. "Osobiście uważam, że są dwa lub trzy obiecujące, ale nie są one zbyt optymistyczne" Grupa mikrosystemów DARPA mocno inwestuje w dwa programy. Jeden z nich bada przybliżone obliczenia w programie o nazwie Upside; inny bada wpływ oscylacji spinu w materiałach magnetycznych w rozwiązaniach pracujących przy stosunkowo małej mocy.

    Colwell szybko przeszedł przez dotychczasową listę innych sposobów ulepszania chipów CMOS, w tym łączenia 3D, nowe architektury i aplikacje, nowe technologii przełączania, lepsze interfejsy dla ludzi, czy finalnie zwykły kreatywny marketingu. "Śmiejesz się, ale wiesz, że to prawda" ripostował przedstawicielom Intela.

    Colwell przywołał kilka szczegółów, takich jak praca nad budową urządzeń na poziomie od stu do tysiąca atomów. Ponadto "jest dużo pracy w łączeniu mózg-maszyna - ludzie, którzy wymyślą lepsze interfejsy, wygrają" dodał. Jak dodaje, "kiedy przestanie działać prawo Moore'a to zatrzyma je ekonomia, a nie fizyka". Swój wykład zakończył jednak optymistycznie; są nadal możliwości dalszego rozwijania chipów, więc inżynierowie dalej mają nad czym pracować.

    Źródło: https://www.eetimes.com/moores-law-dead-by-2022-expert-says/

    Fajne! Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 napisał 10013 postów o ocenie 8273, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.
  • #2
    pawelr98
    Poziom 38  
    Nie wiem tylko czemu artykuł skupia się na taktowaniu.

    Zegar jest nic nie warty bez całej reszty, czyli architektury.
    Było już tak, że Athlon 64 o taktowaniu 2GHz bił Pentiumy 4 o taktowaniu 3GHz.
    Idzie o ilość instrukcji wykonywanych w jednym cyklu zegarowym.

    Obecnie intel zderzył się ze ścianą. Nie mogą opracować nowej litografii na mniej jak 14nm (odbijają się czkawką całe lata "kosmetycznego" rozwoju), gdzie AMD już obecnie operuje na 7nm i wcale nie zwalnia.

    Ale wzrosty wydajności wcale nie są wykluczone.
    W końcu x86 jest już bardzo starą architekturą.
    Jeśli opracować nową to można sporo przestarzałych instrukcji wyrzucić i zwiększyć efektywność wykorzystania obecnych możliwości technologicznych.
  • #3
    zgierzman
    Poziom 27  
    pawelr98 napisał:
    Nie wiem tylko czemu artykuł skupia się na taktowaniu.


    Nie zauważyłem.
    Na początku, już w pierwszym zdaniu jest:

    ghost666 napisał:
    Prawo Moore'a - prawo mówiące o tym, że gęstość upakowania tranzystorów w procesorach rośnie o czynnik dwa co około dwa lata


    a cały tekst jest właśnie o tym prawie - mówi o tym nawet tytuł. Jest też wspomniane o możliwościach litografii, i o trudnej do pokonania barierze 5 - 7 nm.
    W treści przywołane jest taktowanie, ale to jest pochodna wielkości i gęstości upchnięcia tranzystorów. Ja jednak nie odbieram tego jako wskaźnika na którym skupia się artykuł...
  • #4
    pawelr98
    Poziom 38  
    zgierzman napisał:
    pawelr98 napisał:
    Nie wiem tylko czemu artykuł skupia się na taktowaniu.

    Nie zauważyłem.
    Na początku, już w pierwszym zdaniu jest:


    Chodzi o ten fragment.
    ghost666 napisał:

    Prawo Moore'a jest (było?) wykładniczym czynnikiem wzrostu, który w ciągu 30 lat przyniósł wzrost prędkości systemów z 1 MHz do 5 GHz, czyli 3500-krotny wzrost częstotliwości taktowania. Dla porównania, najlepsze postępy w inteligentnych architekturach zapewniły około 50-krotny wzrost w tym samym okresie, powiedział. Procesy wykładnicze zawsze kończą się z powodu samej natury ich wzrostu. Niestety, takie długie przejażdżki jak ta, są rzadkie, powiedział Colwell.


    Taktowanie jest nic nie wartym pustym numerkiem.
    Architektura, ilość rdzeni, reszta osprzętu.
    Te wszystkie elementy mają tak kolosalny wpływ na wydajność, a przytacza się tu taktowanie.

    Powinno się tu przytoczyć wzrost wydajności a nie taktowania.
    Bo to jest realny efekt prawa moora. Można upchać więcej rdzeni, więcej pamięci podręcznej, więcej jednostek obliczeniowych.

    Procesory mają niemal stały zegar w okolicy 3-4GHz od jakichś 15 lat.
    A wydajność mimo to wzrosła wielokrotnie.

    Albo wątpliwy ekspert albo słaby redaktor.
  • #5
    Janusz_kk
    Poziom 28  
    pawelr98 napisał:
    A wydajność mimo to wzrosła wielokrotnie.
    Albo wątpliwy ekspert albo słaby redaktor.


    Dodałbym do tego że te 5-7-10 czy 14nm to tylko nazwy nie mające nic wspólnego z fizycznymi wymiarami tranzystora które są dużo dużo większe, a TSMC już zapowiedziało że maja opracowany proces 3nm i wdrażają go do produkcji a pracują na 2. Więc spokojnie do 2025-2030 jeszcze to pociągną z dynamiką wg Moora.
  • #6
    Marek_Skalski
    Admin Sekcji Początkujący
    Janusz_kk napisał:
    Dodałbym do tego że te 5-7-10 czy 14nm to tylko nazwy nie mające nic wspólnego z fizycznymi wymiarami tranzystora

    Naprawdę? To porozmawiajmy o aktualnym stanie litografii. Chętnie się dowiem co tam w trawie piszczy.
    To jaki jest rozmiar tranzystora w procesie 7 nm w TSMC, a jaki w Intelu?
    A jaki jest rozmiar podstawowej komórki pamięci i dlaczego Intel nie może przeskoczyć na wyższą technologię?
    W których produktach TSMC wdroży node 3 nm i w którym wariancie będzie wykonany?
    Czy na pewno następny będzie node 2 nm czy może "coś pomiędzy"?
    Jakich maszyn używają w TSMC, a jakich w Intelu i Samsungu i dlaczego to ma znaczenie?
  • #7
    Janusz_kk
    Poziom 28  
    Taak? no to oświeć nas co oznacza proces np:7nm TSMC i jakie mają wymiary tranzystory.
  • #8
    Marek_Skalski
    Admin Sekcji Początkujący
    To Ty wydajesz tutaj jakieś osądy, zarzucając kłamstwa i twierdząc, że tranzystory są dużo większe, więc udowodnij swoją teorię.
    Ja, opierając się na moim doświadczeniu zawodowym, mogę tylko stwierdzić, że najbardziej krytyczny parametr, czyli szerokość tranzystora N7P, wykonanego z użyciem technologii SAQP (samo-wyrównanie w poczwórnej ekspozycji) na maszynach ArFi 1980/2000 lub w pojedynczej ekspozycji (SE) na maszynach z serii EUV 3300/3400, wynosi 6 nm. Długość tranzystora nie przekracza 24 nm, co jest konsekwencją budowy Fin-FET'a, który nie jest sześcianem. Wysokość żebra to około 50 nm. Oficjalnie 52, w praktyce mniej. Czy to jest "dużo, dużo więcej niż 7 nm"? Pytanie retoryczne.
    Chętnie porozmawiam o litografii, ale nie w stylu jaki prezentujesz.

    Z tym przewidywaniem co będzie w 2030 to bym się tak nie rozpędzał. Już za chwilę możemy się zatrzymać w rozwoju na kilka lat za względów politycznych, a nie technicznych.
  • #9
    Janusz_kk
    Poziom 28  
    Proszę bardzo
    "Jeszcze w latach 90. liczba widoczna przy skrócie nm istotnie oznaczała odległość pomiędzy źródłem i drenem tranzystora, wyrażoną oczywiście w nanometrach [nm]. Ale później ruszyło kombinowanie. Zapewne dążąc do jak najbardziej spektakularnego w odbiorze rezultatu, zaczęto beznamiętnie zmniejszać liczby."
    "Efekt jest taki, że nomenklatura kompletnie straciła sens. Przykładowo, w procesie litograficznym klasy 7 nm Samsung najmniejszy wymiar fizyczny to 27 nm, co oddaje szerokość finu. Bramka ma 54 nm, a odległość pomiędzy elektrodami siłą rzeczy jest jeszcze większa."
    www.dobreprogramy.pl/14-10-7-nm-i-litograficz...-to-zauwazyl-i-chce-sprzatac,News,107649.html

    I dalej
    "Podam przykład. Zerknijcie w kartę specyfikacji procesu litograficznego klasy 16 nm TSMC, który Nvidia wykorzystywała do produkcji kart serii GeForce GTX 10. Litografia to oczywiście 193 nm, a wśród danych nie pojawia się żaden wymiar równy akurat 16 nm. Dowiecie się za to, że faza BEOL, czyli interkonektory, są zaczerpnięte jeszcze z technologii 20 nm, a obecne 12 nm to de facto ten sam proces, tylko z nieznacznie zwężoną szerokością bramki."
    "O krok dalej poszedł Samsung i licencjonujące od niego proces litograficzny klasy 14 nm GlobalFoundries. Radeon RX 590 różni się od modelu RX 580 właśnie technologią produkcji. Korzysta z usprawnionego 14 nm Samsung, a mianowicie 12 nm. Tymczasem obydwie grafiki mają po 5,7 mld tranzystorów i rozmiar rdzenia rzędu 232 mm kw. Dlaczego? Bo, dla odmiany, zmodyfikowano wyłącznie sposób w jaki tworzone są interkonektory, zapewniając grubszą warstwę dielektryka (izolatora) przy uproszczeniu siatki połączeń.

    Trzeba przy tym pamiętać, że każdy proces litograficzny dzieli się na dwie lub trzy pododmiany: wysokowydajną, energooszczędną i czasem jeszcze wariant o podbitym zagęszczeniu. Więc to, że – na przykład – AMD Ryzen 3000, aka Zen 2, i HiSilicon/Huawei Kirin 980 powstają w procesie litograficznym 7 nm TSMC nie definiuje ostatecznie wymiarów w strukturze, a przynajmniej nie czyni ich wzajemnie zgodnymi."
    itd
    www.dobreprogramy.pl/gtxxor/Litografia-a-proc...czny-O-tym-dlaczego-to-nie-zawsze,102748.html
  • #10
    Marek_Skalski
    Admin Sekcji Początkujący
    Janusz_kk napisał:
    "Jeszcze w latach 90. liczba widoczna przy skrócie nm istotnie oznaczała odległość pomiędzy źródłem i drenem tranzystora, wyrażoną oczywiście w nanometrach [nm]. Ale później ruszyło kombinowanie...

    Ponieważ pierwsze tranzystory w technologii CMOS były szersze niż dłuższe, czyli najmniejszym wymiarem była odległość między drenem a źródłem. W bardo dużym uproszczeniu: długość kanału definiuje napięcie przełączania i napięcie przebicia kanału. Im dłuższy kanał, tym wyższe napięcie przebicia. Szerokość kanału wpływa na jego rezystancję i pojemność. Na początku problemem było uzyskania niskiej rezystancji ze względu na dużą odległość między drenem a źródłem. Przypominam, że układy pracowały wtedy z napięciami rzędu 5 V. Widać to na przykład w tym opisie 350 nm.

    W zależności od producenta tranzystory stały się kwadratowe przy wymiarze 130 nm albo 90 nm. Wtedy też wprowadzono wafle 300 mm, co było krokiem milowym w obniżaniu kosztów produkcji i zwiększaniu precyzji dzięki zupełnie nowym maszynom. Naturalne zatem, że skalowaniu poddawano wymiar najmniejszy i najtrudniejszy w wykonaniu, a nie jakiś wymiar wynikowy, typu długość kanału czy powierzchnia tranzystora. 14 nm to była przez długi czas bariera, ale dzięki rozbudowie tranzystora w pionie (FET z żebrem = Fin-FET) dokonano przełomu i zeszliśmy do 10 nm, a później do jeszcze mniejszych wymiarów.

    Artykuł, który przytoczyłeś to taki materiał z gatunku lekko, łatwo i przyjemnie. Wartości tam niewiele.
    A co do pomysłu nowych systemów oznaczania, to panowie specjaliści z IEEE chyba coś przegapili. :D Takim sprawami od wielu lat zajmuje się ITRS, szczególnie w kwestii terminologii, kalendarium i planowania takich zagadnień jak fotolitografia.

    Podaję linki do stron anglojęzycznych Wikipedii, ponieważ polskie odpowiedniki są słabo opracowane albo wcale. A linków do źródeł z ograniczonym dostępem umieszczać nie ma sensu.