Elektroda.pl
Elektroda.pl
X

Search our partners

Find the latest content on electronic components. Datasheets.com
Elektroda.pl
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

Droga do układów 2 nm może nie być warta podążania

ghost666 27 Mar 2018 18:45 5736 29
NextPCB
  • Droga do układów 2 nm może nie być warta podążania
    Obecnie inżynierowie sektora półprzewodników tworzą nowe procesy, mające umożliwić produkcję układów w technologii 5 nm, 3 nm czy nawet 2 nm. Niektórzy jednak zauważają, że być może procesy 5 nm i mniejsze nie mają już żadnego realnego zastosowania w komercyjnych układach scalonych. Coraz większy poziom skomplikowania w układach o coraz większej rozdzielczości sprawia, że zyski z ich produkcji są coraz mniej atrakcyjne dla firm. Prędkości przesyłu danych w najnowocześniejszych procesorach do zastosowań mobilnych dochodzą do 3 GHz; ich zużycie energii i wielkość na płytce drukowanej zostanie poważnie zredukowana przy przejściu do procesu 7 nm, jak tłumaczył jeden z inżynierów z Qualcomma na spotkaniu użytkowników Synopsys.

    Jak twierdzi Paul Penzes, w porównaniu z obecnie stosowanymi technologiami - przejście do procesu 10 nm daje około 16% wyższą prędkość układu. Dalsze jego zmniejszanie może jednak nie dać dalszego zauważalnego zysku w tym zakresie, jako że przy tak niewielkich tranzystorach we znaki daje się rezystancja ścieżek metalizacji w układzie. Jeśli chodzi o zużycie mocy, to układy 10 nm pozwalają zaoszczędzić aż o 30% więcej prądu. Przejście do 7 nm ma dać kolejne 10..25% zmniejszenia poboru mocy. Jeśli chodzi o rozmiar, to zmniejszenie układów do 10 nm dało 37% zmniejszenia powierzchni kości, a przejście do 7 nm powinno zmniejszyć ją o dalsze 20..30%. Penzes jest dyrektorem pionu inżynierii w biurze projektowym Qualcoma, gdzie tworzone są najnowszej generacji układy scalone tej firmy.

    Od wielu dziesięcioleci zasadą, która narzucała przemysłowi półprzewodnikowemu tempo rozwoju, było prawo Moora. Mówi ono, że co średnio dwa lata liczba tranzystorów w procesorze podwaja się. Podążanie w ślad tej zależności, odkrytej w latach '60 XX wieku, od dawna napędza chęć tworzenia coraz mniejszych, tańszych i szybszych procesorów tak dla komputerów osobistych, jak i urządzeń przenośnych: tabletów, smartfonów etc.
    "Powierzchnia zajmowana przez kości nadal dobrze się skaluje, z dwucyfrowym spadkiem, ale ukryte koszty w postaci np. coraz droższych w wykonaniu masek, jak i koszty innych udoskonaleń układu sprawiają, że postęp w tym zakresie zaczyna spowalniać. Nie jest jasne, jaki zysk dostaniemy w momencie przejścia przemysłu do układów 5 nm" - tłumaczył Penzes, sugerując, że układy 5 nm mogą być jedynie lekko przerobionymi układami 7 nm, a nie zupełnie nową technologią.

    Używane obecnie w najmniejszych układach scalonych tranzystory FinFET, mają dać się stosować do rozdzielczości 5 nm. Z szerokością kanału na poziomie mniejszej niż 3,5 nm dalsze skalowanie FinFETów może okazać się bardzo trudne, lub wręcz niemożliwie. Projektanci nowej generacji tranzystorów staną wtedy przed problemem stworzenia nowego rodzaju tranzystorów. Najpewniej oprzeć będzie można je o tzw. nanodruty półprzewodnikowe. Tranzystory takie składane mają być, jak mówił Victor Moroz z Synopsys, z trzech nanodrutów ułożonych równolegle jeden na drugim. Nad takimi rozwiązaniami pracuje szereg firm, istnieją jednak pewne alternatywy, na przykład zaproponowany przez Samsunga tranzystor z dookólną bramką. Firma chce wprowadzić takie układy do produkcji w technologi 4 nm do roku 2020.
    Jak twierdzi Munoz, przyszłość skalowania układów zwolni do około 80% obecnej prędkości w najbliższej przyszłości. Konieczność zmniejszania komórek układów cyfrowych sprawi, że z proponowanej dla procesu 7 nm komórki o wysokości 228 nm z dwoma żeberkami i sześcioma ścieżkami, w technologii 2..3 nm powstanie komórka o wysokości 100..130 nm z pięcioma ścieżkami i jednym żeberkiem. "Krzem wydaje się móc doprowadzić nas finalnie do technologii 2 nm, dalej pozostaje skorzystać z grafenu" - podsumował.
    Jak mówi Henry Sheng, dyrektor kierujący pracami badawczymi w Synopsys, poziom złożoności coraz wyżej rozdzielczych układów scalonych nakłada na projektantów coraz mocniejsze ograniczenia. Wielu z nich było zszokowanych samą ideą zmniejszonej komórki z pięcioma ścieżkami i pojedynczym żebrem. Sytuacja taka postępuje od dawna, na przykład wprowadzenie FinFETów szereg lat temu sprawiło, że inżynierowie muszę aktywnie zwracać uwagę na zupełnie nowe zjawiska związane z propagacją fal, elektromigrację czy rozrzuty produkcyjne pomiędzy poszczególnymi tranzystorami w strukturze.
    "Poziom abstrakcji, nad którym tak ciężko pracowaliśmy, staje się coraz bardziej porowaty i coraz bardziej różne, trzeciorzędowe efekty zaczynają grać istotną rolę w procesie projektowania. Przy coraz to nowszych technologiach z mniejszymi wymiarami charakterystycznymi, zjawiska te zaczynają grać coraz istotniejszą rolę" - tłumaczy Sheng. Ma on nadzieję, że mimo wszystko uda się rozwiązać te wszystkie problemy związane ze zmniejszaniem rozdzielczości układów scalonych.
    Wszyscy biorący udział w panelu, zorganizowanym przez Synopsysa, zgodni są co do tego, że konieczna jest bliska współpraca pomiędzy fabrykami układów, projektantami i twórcami oprogramowania EDA. Inżynierowie z Qualcomma odkryli, że aby otrzymać możliwie największy uzysk układów podczas produkcji, konieczne jest dostrajanie projektów tych elementów w zasadzie na chwilę przed wprowadzeniem ich do produkcji, kiedy wymagania i zasady projektowania dla danej technologii są możliwie najlepiej wyznaczone. "Z uwagi na to, że sektor procesorów mobilnych jest tak konkurencyjny, firmy produkujące układy scalone mogą chcieć proponować wykorzystanie coraz mniej dojrzałych technologii" - mówi Penzes. "Gdy nie znamy dokładnie danej technologii, margines wadliwych układów zwiększa się, a koszt pojedynczego, sprawnego układu rośnie i w ten sposób przestajemy być konkurencyjni na rynku. (...) Obecnie trzeba wiedzieć całkiem sporo o otoczeniu układu, zanim zaprojektuje się jego parametry elektryczne" - tłumaczy. "Wariacja w wysokości 10% może odebrać wszystkie zalety, jakie uzyskamy z przejścia do technologii z mniejszą rozdzielczością".

    Z drugiej strony, jak zauważa Penzes, pewne najnowsze osiągnięcia napawają nadzieją. Przykładem może być tutaj litografia w ekstremalnym ultrafiolecie (EUV), która daje nadzieję na poprawioną wydajność i niższe koszty produkcji.
    Moroz z Synopsysa powiedział, że obecnie inżynierowie badają wiele technik, które miałyby umożliwić zmniejszenie rezystancji metalowych interkonektów w strukturze układu scalonego. Zmniejszenie ich oporu powinno w prosty sposób otworzyć drzwi do zwiększenia prędkości przesyłu danych. Badane techniki to między innymi wielowarstwowe tzw. 'super-przelotki', specjalne drabinki zamiast klasycznych ścieżek oraz szereg nowych materiałów, takich jak kobalt czy ruten, mających umożliwić zmniejszenie rezystancji tak małych ścieżek.

    Droga do układów 2 nm może nie być warta podążania
    Czego obecnie brakuje do sukcesu tych technologii? wiary w to, że może on nastąpić. Nawet sami inżynierowie, pracujący nad systemami półprzewodnikowymi zauważają wiele problemów supermałych układów scalonych i w konsekwencji wyrażają się o szansach na powodzenie kolejnych kroków skalowania co najmniej bardzo ostrożnie. Takie podejście ma swoje konsekwencje. Jakkolwiek Samsung przedstawił już projekt 7 nm technologii, wykorzystującej litografię EUV i planuje - jeszcze w tym roku - rozpocząć ich produkcję, to nadal czeka na kontynuatorów.
    "Tak szybko jak firma ASML jest w stanie dostarczyć odpowiednie narzędzia, tak szybko jesteśmy w stanie rozpocząć przemysłową produkcję tych układów na dużą skalę"- powiedział Jongwook Kye, wicedyrektor ds. możliwości projektowych w Samsung Foundry (spółce zależnej Samsunga, odpowiedzialnej za produkcję urządzeń półprzewodnikowych). Równocześnie z pracami przygotowawczymi do wprowadzenia układów 7 nm do produkcji, Samsung opracowuje definicję dla nowych tranzystorów 4 nm, które na linie produkcyjne trafić mają w 2020 roku. "To ogromne wyzwanie, któremu podołać chcemy w ciągu kilku najbliższych lat i tak długo, jak długo uda nam się z powodzeniem współpracować z dostawcami stosownych narzędzi i innymi firmami, wierzę w to, że uda nam się to osiągnąć" - podsumował plany Kye.
    Źródło: https://www.eetimes.com/document.asp?doc_id=1333109

    Cool? Ranking DIY
    Can you write similar article? Send message to me and you will get SD card 64GB.
    About Author
    ghost666
    Translator, editor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 wrote 10708 posts with rating 9027, helped 157 times. Live in city Warszawa. Been with us since 2003 year.
  • NextPCB
  • #2
    kombo
    Level 12  
    Proszę poprawić "literówki"
  • #3
    Rasel
    Level 22  
    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.
  • NextPCB
  • #4
    ghost666
    Translator, editor
    Rasel wrote:
    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.


    Ale tutaj nikt nie mówi, że się nie da - tutaj stwierdza się, że może się nie opłacać.
  • #5
    User removed account
    Level 1  
  • #6
    User removed account
    User removed account  
  • #7
    Bazyl
    Level 15  
    Jak sobie przypomnę ile programiści wyciskali z ZX Spectrum i 48k pamięci to uświadamiam sobie jaki POTENCJAŁ ma sprzęt, który obecnie jest produkowany. Teraz byle Pac Man pod windowsem zajmuje 80 MB pamięci! Jak powiemy stop mocy obliczeniowej to zacznie się optymalizacja kodu. Wtedy zobaczycie co potrafią obecne komputery.
  • #8
    User removed account
    User removed account  
  • #9
    User removed account
    User removed account  
  • #10
    omin172
    Level 14  
    ghost666 wrote:
    Rasel wrote:
    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.


    Ale tutaj nikt nie mówi, że się nie da - tutaj stwierdza się, że może się nie opłacać.


    Czyli generalnie artykuł na portal finansowy, a nie techniczny (co nie znaczy, że nie ma on tutaj racji bycia).
  • #11
    Galareta
    Level 22  
    I pomyśleć, że ja dalej mam problem ze ścieżkami 4 mils - a to 10?m ponad...
  • #12
    jaszczur1111
    Level 33  
    Jeśli chodzi o tzw. marnotrawienie zasobów, to nie myślę tu w kategoriach, żeby zrobić coś z niczego, tylko dysponując dzisiejszymi możliwościami obliczeniowymi, pisać programy oszczędnie tak jak dawniej. Dałoby to efekt zmniejszenia zużycia energii i jednocześnie przyśpieszyło wielokrotnie obliczenia. Fakt, że takie pisanie jest trudniejsze oznacza, że potrzebujemy prawdziwych programistów a nie takich co większość roboty zastępują kopiuj - wklej dokładając swoje poprawki. Przynajmniej robiliby coś pożytecznego zamiast wymyślać nonsensowne upgrady.

    Apropo ZX spectrum to okazuje się, że można wgrywać programy wielokrotnie szybciej, co wydawało się zupełnie nieprawdopodobne. Ciekawe jakie możliwości drzemią w dzisiejszych maszynach?

    Osobiście uważam, że obecnie problemem miniaturyzacji jest źródło zasilania. W starych telefonach starczało na 3 tygodnie a w dzisiejszych na 1 dzień. Albo zmniejszymy pobór energii albo czeka nas rewolucja w zasilaniu. Obecna sytuacja jest chora. Jest to jeden z czynników, dla którego nie zmieniam telefonu od jakichś 6 lat.
  • #13
    szeryf3
    Level 23  
    Jak tutaj napisał jeden z kolegów, że przyjdzie kiedyś jeden z nie naukowców i powie, że da się to zrobić i zrobi. Tylko czy uda mu się zmniejszyć zapotrzebowanie na energię.
  • #14
    Galareta
    Level 22  
    szeryf3 - ale to się da zrobić, tylko się nie opłaca... a tutaj raczej to prawo nie działa...
  • #15
    User removed account
    Level 1  
  • #16
    kondzio2003
    Level 15  
    Marek_Skalski wrote:
    Dlatego optymalnym ekonomicznie wymiarem technologicznym pozostaje 20nm


    To ciekawe. Dzisiaj mówi się, że się nie da, że się nie opłaci. A jak mówili kilka lat temu o procesach, które dzisiaj uważa się za optymalne? Może by tak zrobić zestawienie artykułów o procesach produkcji układów scalonych.
  • #17
    michalko12
    MCUs specialist
    Marek_Skalski wrote:
    Telefon ma słabą baterię? Nie, to użytkownik chce mieć tysiące funkcji: duży wyświetlacz z mocno przesadzoną rozdzielczością, procesor z 8 rdzeniami taktowany w GHz, gigabajty pamięci RAM i terabajty pamięci nieulotnej, stale włączone BT i WiFi oraz szybki transfer danych do BTSa, a do tego GPS/Glonass. A do tego setki procesów systemu operacyjnego pracujące w tle, aby użytkownik miał wszystko on-line i realtime. To wszystko potrzebuje energii.

    Nie, nie, nie, to nie tak. Dopóki użytkownik nie wie o istnieniu czegoś, to tego nie chce, zadowala się tym, co jest dostępne na daną chwilę. To producenci w pogoni za zyskami dają cały czas coś nowego i to oni powodują, że użytkownik to "chce". Równie dobrze moglibyśmy się zatrzymać z rozwojem na nokii 3210 i wszyscy i tak byli by tak samo "szczęśliwi". Mnie ta dzisiejsza cywilizacja męczy, męczy mnie to całe gówno, które ma w nazwie "SMART". Powstają tysiące zbędnych rzeczy, które nie wiedzieć czemu nazywają się "inteligentne", chociaż nie mają za grosz inteligencji i nikomu do niczego nie są potrzebne. Tworzymy jakieś pseudo optymalizacje naszego życia, a potem i tak padamy na różnego rodzaju błahe i niebłahe choroby. Jak ja się cieszę, że miałem tak zajebiste dzieciństwo, bez tego syfu co jest teraz!
  • #18
    szeryf3
    Level 23  
    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.
  • #19
    User removed account
    Level 1  
  • #20
    michalko12
    MCUs specialist
    szeryf3 wrote:
    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.

    A jak to różnica na czym to oglądasz? Kiedyś oglądali na Neptunie i tak samo byli szczęśliwi. Mało tego, kiedyś w ogóle nie mieli telewizji i na czym oglądali? Co wtedy ludzie robili? Jedni oglądali na żywo, a drudzy sami grali. Ja nie mówię, że postęp jest zły, ale ten obecny postęp idzie w jakimś obłędnym kierunku.

    Dzisiaj dzień wolny od szkoły i co dzieciaki robią? Ja wiem co kiedyś w takie dni robiły... Parodia i porażka, a nie postęp!
  • #21
    jaszczur1111
    Level 33  
    szeryf3 wrote:
    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.


    Ależ możemy i zmierzamy w tym kierunku, choć wydaje się to odległą przyszłością. Jak dojdziemy do granicy rozwoju technologii ( a to już wydaje się być bliskie) to koncerny upadną a wraz z nimi technologia, o której nikt nie będzie wiedział jak działała.

    Na marginesie uważam, że oglądanie TV, to jest obciach, niezależnie na czym. Zgadzam się w 100% z michałko12. Klient obecnie został zepchnięty do roli konsumenta a koncerny mają poligon doświadczalny i tłuką kasę. Wprowadzają na siłę nowe technologie wmawiając nam, że są niezbędne, zabierając jednocześnie stare, dobre , sprawdzone i co najgorsze tanie. Wszystko w imię pseudopostępu.

    Marek Skalski broni swojego terytorium nie dostrzegając szerszego problemu, jakim jest uzależnienie i zniewolenie człowieka od technologii. Oczywiście same informacje techniczne są niezwykle zajmujące ale jednocześnie wyziera z nich smutna prawda, że dochodzimy do pewnej bariery. Jest nią długość fali jakich używamy do naświetlania naszych wafli. Promieniowanie RTG już nie wystarczy. Po co sięgniemy ? Potrzebna jest zmiana systemu myślenia, by wyjść poza schemat pogoni za nowoczesnością. Obecnie koncerny przeciągają wprowadzenie nowych technologii próbując wcisnąć nam stare, jednocześnie rozpaczliwie szukając nowego rozwiązania. Czy będzie ono na tyle tanie by je wprowadzić ?
  • #22
    User removed account
    Level 1  
  • #23
    michalko12
    MCUs specialist
    @zbyrek
    Nic nie zrozumiałeś z tego co napisałem i w którym miejscu narzucam komuś swoje poglądy?
    Gdzie pisałem o tym, że totalitaryzm mi się marzy? Chyba Ci jednak ta technologia zaszkodziła w prawidłowym rozumowaniu.

    Postęp jest dobry pod warunkiem, że ludzie potrafią z tego korzystać, a teraz jest niestety masowe otępianie ludzkości...
  • #24
    Bazyl
    Level 15  
    Marek_Skalski wrote:
    Jest rok 2018, a Kolega pisze tutaj o przyspieszaniu ZX Spectrum.

    Napisałem coś takiego? Poważnie? Proszę pokazać gdzie?

    Panowie widzę, że niektórych ponosi misja nauczania.

    Niektórzy zauważają, że współczesne komputery w 90 procentach są zawalone śmietnikiem z kompilacji, a nie użytecznym kodem, inni zwracają uwagę na lenistwo programistów, bo żeby postawić jeden znak inną czcionką najczęściej wgrywają cały zestaw znaków. Taniość pamięci i procesorów niestety na takie niechlujstwo intelektualne pozwala, a rynek wręcz do tego zmusza.

    Ja tylko zastanawiałem się, do jakich cudów można zmusić obecne komputery, gdyby ktoś nagle zatrzymał ten obłędny postęp. Przykładem jest tutaj era Spectrum, gdzie tworzono izomeryczną grafikę w grach na 48 kB. W C64 odkryto funkcję nieznaną nawet twórcom kości graficznej mianowicie animację na "borderze" a w Amidze w 512 kB potrafiono upchnąć całe galaktyki. Pamięta to ktoś? No więc tak się rozmarzyłem i tyle.

    Czasem też myślę co byłoby gdyby ludzie używali 100% możliwości mózgu zamiast jak wskazują badania 15 %. A może te 85% też mamy na zbędne biblioteki i śmieci z kompilacji...?
  • #25
    ghost666
    Translator, editor
    Bazyl wrote:
    Czasem też myślę co byłoby gdyby ludzie używali 100% możliwości mózgu zamiast jak wskazują badania 15 %. A może te 85% też mamy na zbędne biblioteki i śmieci z kompilacji...?


    W tych 85% są takie śmieci jak oddychanie, więc ja bym z optymalizacją kodu nie szalał.
  • #26
    User removed account
    Level 1  
  • #27
    michalko12
    MCUs specialist
    Marek_Skalski wrote:
    Naiwnym jest twierdzenie, że prędkość zegara procesora przekłada się liniowo na wydajność. Kiedyś obraz na ekranie miał rozdzielczość 320x200 w 16 kolorach (C64), dzisiaj standardem staje się 4096x3112 z paletą 36-bitów (4K). To jest tylko 6,5 miliona razy więcej danych do przesłania. Czy procesory mają teraz 6,4 THz? Nie, są tylko 4000 razy szybsze - zamiast 0,985 MHz, pracują z zegarem rzędu 4,0 GHz.
    Kiedyś były łącza komutowane z prędkością 1200 bit/s, dzisiaj mamy stałe łącze po kablu z prędkością rzędu 10 Gbit/s. To tylko ~8 milionów razy szybciej, aby Kowalski mógł sprawdzić prognozę pogody na jutro albo nowe posty na Elektrodzie.


    Kiedyś była tylko jedna jednostka obliczeniowa, ile dzisiaj jest w sumie dużo wydajniejszych jednostek obliczeniowych w takim PC? Kiedyś była tylko jedna 8b magistrala, teraz tych magistral jest od cholery, a niektóre mają nawet po 512b. Kiedyś wszystkim zajmowało się jedno CPU, teraz do wszystkiego są oddzielne bloki sprzętowe. Częstotliwości taktowania jednostek obliczeniowych i pojemności pamięci też bez porównania. Jakby to wszystko razem policzyć to niestety, ale wyjdzie na to, że jednak coś jest nie tak z wydajnością softu tworzonego w dzisiejszych czasach. Problemów jest wiele, ale wszystkie swój początek i tak biorą od jednego czynnika - pieniądza. Drugim czynnikiem jest czas, no ale czas to też pieniądz...
  • #28
    silvvester
    Level 24  
    szeryf3 wrote:
    Jak tutaj napisał jeden z kolegów, że przyjdzie kiedyś jeden z nie naukowców i powie, że da się to zrobić i zrobi. Tylko czy uda mu się zmniejszyć zapotrzebowanie na energię.



    Częstotliwość procesorów zatrzymała się już kilka lat temu dokładnie wg. zapowiedzi gdzieś w okolicy 3,5-4GHz, miniaturyzacja też się zatrzyma zgodnie z zapowiedziami. Już kolega wspomniał o problemie rozszerzalności cieplnej.

    Powiedzmy że struktura ma 10x10mm ot np. jakiś procesor. Tolerancja naświetlania +-2nm dla technologii 20nm.

    Skalujemy wymiary i stosunek wymiarów w górę:
    2nm - 10mm
    20nm - 100mm
    200nm - 1m
    2um -10m
    20um -100m
    200um - 1km
    2mm - 10km


    Masz więc płytkę 10x10km i wykonaj naświetlanie z tolerancją +-2 mm.



    2nm to jakieś 8 atomów krzemu jeden obok drugiego, ale nie to jest słabym ogniwem, substancje światłoczułe są wielocząsteczkowe i są większe niż jeden atom krzemu.
  • #29
    jaszczur1111
    Level 33  
    Dlatego nastąpi zatrzymanie rozwoju aż do następnego skoku technologicznego albo załamania koniunktury.
  • #30
    cefaloid
    Level 32  
    Anonymous wrote:
    Grafen jest opcją, ale to nie jest takie proste. Nie można tak sobie zamienić krzemu na grafen w tym procesie. Trzeba opracować zupełnie nowe technologie, materiały, łańcuchy dostaw i narzędzia projektowe.

    Niczego nie trzeba opracowywac a już szczególnie metodą na oślep i bez namysłu. Doskonale bowiem wiadomo, że grafen nie może zastąpić krzemu przy produkcji układów mikroprocesorowych, gdyż tranzystor grafenowy nie może przejść do trybu, w którym będzie całkowicie wyłączony. Nie da się i już, pomysł na taki procesor jest więc poroniony u podstaw.

    Procesor grafenowy to sensacja dla dziennikarzy co chcą zarobić na artykułach i naukowców pragnących dostać jakiś grant na badania byle coś badać.

    Zaś Ty...
    Anonymous wrote:
    Pracując dla ASML
    powinieneś to doskonale wiedzieć. Gdyż (że użyję Twojego cytatu):
    Anonymous wrote:
    Tak sobie czytam te złote myśli i zastanawiam się czy Wy wiecie o czym piszecie...