Elektroda.pl
Elektroda.pl
X
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Droga do układów 2 nm może nie być warta podążania

ghost666 27 Mar 2018 18:45 5055 28
  • Droga do układów 2 nm może nie być warta podążania
    Obecnie inżynierowie sektora półprzewodników tworzą nowe procesy, mające umożliwić produkcję układów w technologii 5 nm, 3 nm czy nawet 2 nm. Niektórzy jednak zauważają, że być może procesy 5 nm i mniejsze nie mają już żadnego realnego zastosowania w komercyjnych układach scalonych. Coraz większy poziom skomplikowania w układach o coraz większej rozdzielczości sprawia, że zyski z ich produkcji są coraz mniej atrakcyjne dla firm. Prędkości przesyłu danych w najnowocześniejszych procesorach do zastosowań mobilnych dochodzą do 3 GHz; ich zużycie energii i wielkość na płytce drukowanej zostanie poważnie zredukowana przy przejściu do procesu 7 nm, jak tłumaczył jeden z inżynierów z Qualcomma na spotkaniu użytkowników Synopsys.

    Jak twierdzi Paul Penzes, w porównaniu z obecnie stosowanymi technologiami - przejście do procesu 10 nm daje około 16% wyższą prędkość układu. Dalsze jego zmniejszanie może jednak nie dać dalszego zauważalnego zysku w tym zakresie, jako że przy tak niewielkich tranzystorach we znaki daje się rezystancja ścieżek metalizacji w układzie. Jeśli chodzi o zużycie mocy, to układy 10 nm pozwalają zaoszczędzić aż o 30% więcej prądu. Przejście do 7 nm ma dać kolejne 10..25% zmniejszenia poboru mocy. Jeśli chodzi o rozmiar, to zmniejszenie układów do 10 nm dało 37% zmniejszenia powierzchni kości, a przejście do 7 nm powinno zmniejszyć ją o dalsze 20..30%. Penzes jest dyrektorem pionu inżynierii w biurze projektowym Qualcoma, gdzie tworzone są najnowszej generacji układy scalone tej firmy.

    Od wielu dziesięcioleci zasadą, która narzucała przemysłowi półprzewodnikowemu tempo rozwoju, było prawo Moora. Mówi ono, że co średnio dwa lata liczba tranzystorów w procesorze podwaja się. Podążanie w ślad tej zależności, odkrytej w latach '60 XX wieku, od dawna napędza chęć tworzenia coraz mniejszych, tańszych i szybszych procesorów tak dla komputerów osobistych, jak i urządzeń przenośnych: tabletów, smartfonów etc.
    "Powierzchnia zajmowana przez kości nadal dobrze się skaluje, z dwucyfrowym spadkiem, ale ukryte koszty w postaci np. coraz droższych w wykonaniu masek, jak i koszty innych udoskonaleń układu sprawiają, że postęp w tym zakresie zaczyna spowalniać. Nie jest jasne, jaki zysk dostaniemy w momencie przejścia przemysłu do układów 5 nm" - tłumaczył Penzes, sugerując, że układy 5 nm mogą być jedynie lekko przerobionymi układami 7 nm, a nie zupełnie nową technologią.

    Używane obecnie w najmniejszych układach scalonych tranzystory FinFET, mają dać się stosować do rozdzielczości 5 nm. Z szerokością kanału na poziomie mniejszej niż 3,5 nm dalsze skalowanie FinFETów może okazać się bardzo trudne, lub wręcz niemożliwie. Projektanci nowej generacji tranzystorów staną wtedy przed problemem stworzenia nowego rodzaju tranzystorów. Najpewniej oprzeć będzie można je o tzw. nanodruty półprzewodnikowe. Tranzystory takie składane mają być, jak mówił Victor Moroz z Synopsys, z trzech nanodrutów ułożonych równolegle jeden na drugim. Nad takimi rozwiązaniami pracuje szereg firm, istnieją jednak pewne alternatywy, na przykład zaproponowany przez Samsunga tranzystor z dookólną bramką. Firma chce wprowadzić takie układy do produkcji w technologi 4 nm do roku 2020.




    Jak twierdzi Munoz, przyszłość skalowania układów zwolni do około 80% obecnej prędkości w najbliższej przyszłości. Konieczność zmniejszania komórek układów cyfrowych sprawi, że z proponowanej dla procesu 7 nm komórki o wysokości 228 nm z dwoma żeberkami i sześcioma ścieżkami, w technologii 2..3 nm powstanie komórka o wysokości 100..130 nm z pięcioma ścieżkami i jednym żeberkiem. "Krzem wydaje się móc doprowadzić nas finalnie do technologii 2 nm, dalej pozostaje skorzystać z grafenu" - podsumował.
    Jak mówi Henry Sheng, dyrektor kierujący pracami badawczymi w Synopsys, poziom złożoności coraz wyżej rozdzielczych układów scalonych nakłada na projektantów coraz mocniejsze ograniczenia. Wielu z nich było zszokowanych samą ideą zmniejszonej komórki z pięcioma ścieżkami i pojedynczym żebrem. Sytuacja taka postępuje od dawna, na przykład wprowadzenie FinFETów szereg lat temu sprawiło, że inżynierowie muszę aktywnie zwracać uwagę na zupełnie nowe zjawiska związane z propagacją fal, elektromigrację czy rozrzuty produkcyjne pomiędzy poszczególnymi tranzystorami w strukturze.
    "Poziom abstrakcji, nad którym tak ciężko pracowaliśmy, staje się coraz bardziej porowaty i coraz bardziej różne, trzeciorzędowe efekty zaczynają grać istotną rolę w procesie projektowania. Przy coraz to nowszych technologiach z mniejszymi wymiarami charakterystycznymi, zjawiska te zaczynają grać coraz istotniejszą rolę" - tłumaczy Sheng. Ma on nadzieję, że mimo wszystko uda się rozwiązać te wszystkie problemy związane ze zmniejszaniem rozdzielczości układów scalonych.
    Wszyscy biorący udział w panelu, zorganizowanym przez Synopsysa, zgodni są co do tego, że konieczna jest bliska współpraca pomiędzy fabrykami układów, projektantami i twórcami oprogramowania EDA. Inżynierowie z Qualcomma odkryli, że aby otrzymać możliwie największy uzysk układów podczas produkcji, konieczne jest dostrajanie projektów tych elementów w zasadzie na chwilę przed wprowadzeniem ich do produkcji, kiedy wymagania i zasady projektowania dla danej technologii są możliwie najlepiej wyznaczone. "Z uwagi na to, że sektor procesorów mobilnych jest tak konkurencyjny, firmy produkujące układy scalone mogą chcieć proponować wykorzystanie coraz mniej dojrzałych technologii" - mówi Penzes. "Gdy nie znamy dokładnie danej technologii, margines wadliwych układów zwiększa się, a koszt pojedynczego, sprawnego układu rośnie i w ten sposób przestajemy być konkurencyjni na rynku. (...) Obecnie trzeba wiedzieć całkiem sporo o otoczeniu układu, zanim zaprojektuje się jego parametry elektryczne" - tłumaczy. "Wariacja w wysokości 10% może odebrać wszystkie zalety, jakie uzyskamy z przejścia do technologii z mniejszą rozdzielczością".

    Z drugiej strony, jak zauważa Penzes, pewne najnowsze osiągnięcia napawają nadzieją. Przykładem może być tutaj litografia w ekstremalnym ultrafiolecie (EUV), która daje nadzieję na poprawioną wydajność i niższe koszty produkcji.
    Moroz z Synopsysa powiedział, że obecnie inżynierowie badają wiele technik, które miałyby umożliwić zmniejszenie rezystancji metalowych interkonektów w strukturze układu scalonego. Zmniejszenie ich oporu powinno w prosty sposób otworzyć drzwi do zwiększenia prędkości przesyłu danych. Badane techniki to między innymi wielowarstwowe tzw. 'super-przelotki', specjalne drabinki zamiast klasycznych ścieżek oraz szereg nowych materiałów, takich jak kobalt czy ruten, mających umożliwić zmniejszenie rezystancji tak małych ścieżek.

    Droga do układów 2 nm może nie być warta podążania
    Czego obecnie brakuje do sukcesu tych technologii? wiary w to, że może on nastąpić. Nawet sami inżynierowie, pracujący nad systemami półprzewodnikowymi zauważają wiele problemów supermałych układów scalonych i w konsekwencji wyrażają się o szansach na powodzenie kolejnych kroków skalowania co najmniej bardzo ostrożnie. Takie podejście ma swoje konsekwencje. Jakkolwiek Samsung przedstawił już projekt 7 nm technologii, wykorzystującej litografię EUV i planuje - jeszcze w tym roku - rozpocząć ich produkcję, to nadal czeka na kontynuatorów.
    "Tak szybko jak firma ASML jest w stanie dostarczyć odpowiednie narzędzia, tak szybko jesteśmy w stanie rozpocząć przemysłową produkcję tych układów na dużą skalę"- powiedział Jongwook Kye, wicedyrektor ds. możliwości projektowych w Samsung Foundry (spółce zależnej Samsunga, odpowiedzialnej za produkcję urządzeń półprzewodnikowych). Równocześnie z pracami przygotowawczymi do wprowadzenia układów 7 nm do produkcji, Samsung opracowuje definicję dla nowych tranzystorów 4 nm, które na linie produkcyjne trafić mają w 2020 roku. "To ogromne wyzwanie, któremu podołać chcemy w ciągu kilku najbliższych lat i tak długo, jak długo uda nam się z powodzeniem współpracować z dostawcami stosownych narzędzi i innymi firmami, wierzę w to, że uda nam się to osiągnąć" - podsumował plany Kye.
    Źródło: https://www.eetimes.com/document.asp?doc_id=1333109


    Fajne!
  • #2 27 Mar 2018 21:09
    kombo
    Poziom 12  

    Proszę poprawić "literówki"

  • #3 27 Mar 2018 21:53
    Rasel
    Poziom 21  

    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.

  • #4 27 Mar 2018 22:23
    ghost666
    Tłumacz Redaktor

    Rasel napisał:
    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.


    Ale tutaj nikt nie mówi, że się nie da - tutaj stwierdza się, że może się nie opłacać.

  • #5 28 Mar 2018 01:43
    grawastar1986
    Poziom 11  

    Gdyby odpowiednio zoptymalizować oprogramowanie, to wydaje mi się, że obecny sprzęt działałby super wydajnie. Jeśli chodzi o zużycie energii: mój ThinkPad i3 15,6" pobiera max 2A, a żony Toshiba i5 15,6" bierze podczas oglądania filmu 0,5A (pół ampera). To ma być dużo? Co tu jeszcze oszczędzać :)

  • #6 28 Mar 2018 11:38
    3029369
    Użytkownik usunął konto  
  • #7 28 Mar 2018 12:06
    Bazyl
    Poziom 14  

    Jak sobie przypomnę ile programiści wyciskali z ZX Spectrum i 48k pamięci to uświadamiam sobie jaki POTENCJAŁ ma sprzęt, który obecnie jest produkowany. Teraz byle Pac Man pod windowsem zajmuje 80 MB pamięci! Jak powiemy stop mocy obliczeniowej to zacznie się optymalizacja kodu. Wtedy zobaczycie co potrafią obecne komputery.

  • #8 28 Mar 2018 12:34
    3029369
    Użytkownik usunął konto  
  • #9 28 Mar 2018 12:48
    3145382
    Użytkownik usunął konto  
  • #10 28 Mar 2018 13:31
    omin172
    Poziom 12  

    ghost666 napisał:
    Rasel napisał:
    Po przeczytaniu artykułu przypomniało mi się stare powiedzenie, mówiące o tym w jaki sposób powstają wynalazki. Otóż wszyscy mądrzy i wykształceni wiedzą, że danej rzeczy nie da się zrobić. Ale znajduje się jeden niedouczony, który tego nie wie. I właśnie on tę rzecz robi.


    Ale tutaj nikt nie mówi, że się nie da - tutaj stwierdza się, że może się nie opłacać.


    Czyli generalnie artykuł na portal finansowy, a nie techniczny (co nie znaczy, że nie ma on tutaj racji bycia).

  • #11 28 Mar 2018 23:10
    Galareta
    Poziom 21  

    I pomyśleć, że ja dalej mam problem ze ścieżkami 4 mils - a to 10?m ponad...

  • #12 29 Mar 2018 01:33
    jaszczur1111
    Poziom 32  

    Jeśli chodzi o tzw. marnotrawienie zasobów, to nie myślę tu w kategoriach, żeby zrobić coś z niczego, tylko dysponując dzisiejszymi możliwościami obliczeniowymi, pisać programy oszczędnie tak jak dawniej. Dałoby to efekt zmniejszenia zużycia energii i jednocześnie przyśpieszyło wielokrotnie obliczenia. Fakt, że takie pisanie jest trudniejsze oznacza, że potrzebujemy prawdziwych programistów a nie takich co większość roboty zastępują kopiuj - wklej dokładając swoje poprawki. Przynajmniej robiliby coś pożytecznego zamiast wymyślać nonsensowne upgrady.

    Apropo ZX spectrum to okazuje się, że można wgrywać programy wielokrotnie szybciej, co wydawało się zupełnie nieprawdopodobne. Ciekawe jakie możliwości drzemią w dzisiejszych maszynach?

    Osobiście uważam, że obecnie problemem miniaturyzacji jest źródło zasilania. W starych telefonach starczało na 3 tygodnie a w dzisiejszych na 1 dzień. Albo zmniejszymy pobór energii albo czeka nas rewolucja w zasilaniu. Obecna sytuacja jest chora. Jest to jeden z czynników, dla którego nie zmieniam telefonu od jakichś 6 lat.

  • #13 29 Mar 2018 08:01
    szeryf3
    Poziom 15  

    Jak tutaj napisał jeden z kolegów, że przyjdzie kiedyś jeden z nie naukowców i powie, że da się to zrobić i zrobi. Tylko czy uda mu się zmniejszyć zapotrzebowanie na energię.

  • #14 29 Mar 2018 09:06
    Galareta
    Poziom 21  

    szeryf3 - ale to się da zrobić, tylko się nie opłaca... a tutaj raczej to prawo nie działa...

  • #15 29 Mar 2018 09:54
    Marek_Skalski
    Moderator Projektowanie

    Tak sobie czytam te złote myśli i zastanawiam się czy Wy wiecie o czym piszecie...
    Pracując dla ASML, mam do czynienia z jednymi z najbardziej skomplikowanych systemów mechatronicznych na świecie. Od ponad 30 lat, codziennie, tysiące ludzi ciężko pracuje nad tym, aby maszyny były szybsze, dokładniejsze, bardziej niezawodne i tańsze. To głównie dzięki tej firmie obserwujemy kolejne skoki w technologii produkcji półprzewodników: procesorów, pamięci, logiki, itp. Zapraszam do Veldhoven. Każdy inżynier jest tutaj mile widziany i może się bardzo dużo dowiedzieć o projektowaniu, wytwarzaniu oraz produkcji półprzewodników.
    Jest rok 2018, a Kolega pisze tutaj o przyspieszaniu ZX Spectrum. Od tamtej pory minęło blisko 40 lat. Jeżeli Kolega jest taki mądry i/lub utalentowany, to proszę napisać swój system operacyjny na współczesną platformę. Przestańmy narzekać na to co jest - zróbmy coś lepszego. Pokażmy światu, że potrafimy!
    Telefon ma słabą baterię? Nie, to użytkownik chce mieć tysiące funkcji: duży wyświetlacz z mocno przesadzoną rozdzielczością, procesor z 8 rdzeniami taktowany w GHz, gigabajty pamięci RAM i terabajty pamięci nieulotnej, stale włączone BT i WiFi oraz szybki transfer danych do BTSa, a do tego GPS/Glonass. A do tego setki procesów systemu operacyjnego pracujące w tle, aby użytkownik miał wszystko on-line i realtime. To wszystko potrzebuje energii.
    Wracając do samego procesu, to EUV jest postrzegane jako szansa na znaczną obniżkę kosztów produkcji, ponieważ przynajmniej do wymiaru 5nm jest szansa na pojedynczą ekspozycję zamiast poczwórnego naświetlania, które dzisiaj jest konieczne przy użyciu DUV. To przekłada się na znaczące ograniczenie ilości masek, które są bardzo drogie oraz czasu jaki wafle spędzają w pętli procesu produkcyjnego.
    Ograniczenia to nie tylko krzem, ale również materiały "światłoczułe" używane podczas naświetlania, ich ziarnistość, stabilność oraz efekty cząsteczkowe związane z aktywacją. Podczas ekspozycji, warstwa fotorezystywna przyjmuje energię, a na skutek rozszerzalności objętościowej materiału powoduje to deformację lokalnej struktury. Tak zdeformowana struktura na skutek trawienia, a później implantacji jonów ulega ponownej deformacji. W efekcie, otrzymana struktura jest znacząco różna od tej z maski. Dlatego bardzo dużo wysiłku i czasu kosztuje przygotowanie masek, które będą skompensowane.
    Aby uzyskać większą dokładność należy dysponować silniejszym źródłem "światła", albo zmniejszyć prędkość procesu. Mocniejsze źródła dostępne w laboratorium nie nadają się dzisiaj do zastosowania w fabryce. Zmniejszenie prędkości produkcji, oznacza podwyższenie kosztów układów. Dlatego optymalnym ekonomicznie wymiarem technologicznym pozostaje 20nm. Wszystko poniżej tego wymiaru, jest droższe. 10nm to lepsze upakowanie i oszczędność prądu, ale znacząco większy koszt produkcji układu oraz więcej wadliwych układów.
    Grafen jest opcją, ale to nie jest takie proste. Nie można tak sobie zamienić krzemu na grafen w tym procesie. Trzeba opracować zupełnie nowe technologie, materiały, łańcuchy dostaw i narzędzia projektowe. Prawo Moore'a już nie działa. Od lat trwają intensywne poszukiwania lepszych technologii, ale nadal nie mamy czym zastąpić krzemu na skalę masową i bez podnoszenia ceny produktów 10x.

  • #16 29 Mar 2018 11:38
    kondzio2003
    Poziom 14  

    Marek_Skalski napisał:
    Dlatego optymalnym ekonomicznie wymiarem technologicznym pozostaje 20nm


    To ciekawe. Dzisiaj mówi się, że się nie da, że się nie opłaci. A jak mówili kilka lat temu o procesach, które dzisiaj uważa się za optymalne? Może by tak zrobić zestawienie artykułów o procesach produkcji układów scalonych.

  • #17 29 Mar 2018 11:54
    michalko12
    Specjalista - Mikrokontrolery

    Marek_Skalski napisał:
    Telefon ma słabą baterię? Nie, to użytkownik chce mieć tysiące funkcji: duży wyświetlacz z mocno przesadzoną rozdzielczością, procesor z 8 rdzeniami taktowany w GHz, gigabajty pamięci RAM i terabajty pamięci nieulotnej, stale włączone BT i WiFi oraz szybki transfer danych do BTSa, a do tego GPS/Glonass. A do tego setki procesów systemu operacyjnego pracujące w tle, aby użytkownik miał wszystko on-line i realtime. To wszystko potrzebuje energii.

    Nie, nie, nie, to nie tak. Dopóki użytkownik nie wie o istnieniu czegoś, to tego nie chce, zadowala się tym, co jest dostępne na daną chwilę. To producenci w pogoni za zyskami dają cały czas coś nowego i to oni powodują, że użytkownik to "chce". Równie dobrze moglibyśmy się zatrzymać z rozwojem na nokii 3210 i wszyscy i tak byli by tak samo "szczęśliwi". Mnie ta dzisiejsza cywilizacja męczy, męczy mnie to całe gówno, które ma w nazwie "SMART". Powstają tysiące zbędnych rzeczy, które nie wiedzieć czemu nazywają się "inteligentne", chociaż nie mają za grosz inteligencji i nikomu do niczego nie są potrzebne. Tworzymy jakieś pseudo optymalizacje naszego życia, a potem i tak padamy na różnego rodzaju błahe i niebłahe choroby. Jak ja się cieszę, że miałem tak zajebiste dzieciństwo, bez tego syfu co jest teraz!

  • #18 29 Mar 2018 12:05
    szeryf3
    Poziom 15  

    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.

  • #19 29 Mar 2018 12:11
    Marek_Skalski
    Moderator Projektowanie

    Kilka lat temu (2011-2013) uważano, że większe wafle, to większa wydajność. Tak było kiedy ze 100 mm przeszliśmy na 125 mm i 150 mm. Tak było też po wprowadzeniu wafli o średnicy 200 mm i tak było po wprowadzeniu wafli 300 mm. Ale przy 450 mm wszystko się zawaliło: proces produkcji ingotów, dynamika wafla, dynamika modułów transportujących i pozycjonujących, dynamika i koszt maszyn fotolitograficznych, koszt przygotowania linii produkcyjnych (w tym przypadku nowych fabryk). Jeszcze w 2014 roku Nikon oraz GlobalFoundries, jako członkowie Konsorcjum 450 testowali działające prototypy, ale bez pozytywnych rezultatów. Wydajność była niższa, a koszt produkcji układu był wyższy. Przemysł nie był i nie jest gotowy na tę technologię.
    Co do wymiaru optymalnego, to na etapie 90 nm oraz 47 nm wydawało się, że optimum będzie gdzieś w okolicach 16..20 nm. Gdyby technologie z 28..22 nm dało się przeskalować do 16 nm, to byłoby super. Ale tak nie można. Przy 16 nm, wcześniej stosowane tranzystory planarne miały zbyt duże przecieki, były niestabilne termicznie, co opóźniło migrację na nowy node. Rozwiązaniem było dopracowanie i wprowadzenie do produkcji tranzystorów typu Fin-FET, które są dobre dla wymiarów 16..14..10..(7) nm. Intel wprowadził je już przy 22 nm.
    Koszt wynika również z technologii produkcji, a głównie naświetlania. Przy pojedynczej ekspozycji DUV (45 nm i powyżej), przygotowanie warstwy to (w uproszczeniu) naświetlanie 1x. Przy podwójnej ekspozycji DUV (między 22 nm a 32 nm), przygotowanie warstwy to (w uproszczeniu) naświetlanie 3x-4x. Przy poczwórnej ekspozycji DUV (<20 nm), przygotowanie warstwy to (w uproszczeniu) naświetlanie 16x-24x. Każde naświetlanie to maska, która kosztuje przynajmniej kilka setek tysięcy dolarów. To czas, jaki wafel spędza w procesie. Koszt rośnie wykładniczo, a ilość tranzystorów na mm2 tylko w kwadracie.
    Co dalej? Nie wiem. Nad tym pracują w Imec, Leti, Intel...
    Tak dla porównania: Link

  • #20 29 Mar 2018 12:15
    michalko12
    Specjalista - Mikrokontrolery

    szeryf3 napisał:
    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.

    A jak to różnica na czym to oglądasz? Kiedyś oglądali na Neptunie i tak samo byli szczęśliwi. Mało tego, kiedyś w ogóle nie mieli telewizji i na czym oglądali? Co wtedy ludzie robili? Jedni oglądali na żywo, a drudzy sami grali. Ja nie mówię, że postęp jest zły, ale ten obecny postęp idzie w jakimś obłędnym kierunku.

    Dzisiaj dzień wolny od szkoły i co dzieciaki robią? Ja wiem co kiedyś w takie dni robiły... Parodia i porażka, a nie postęp!

  • #21 29 Mar 2018 13:17
    jaszczur1111
    Poziom 32  

    szeryf3 napisał:
    Nie możemy być w epoce kamienia łupanego i żyć na drzewie. Świat idzie do przodu. Głupio by było oglądać w tych czasach piłkę nożną w telewizorze typu Rubin.


    Ależ możemy i zmierzamy w tym kierunku, choć wydaje się to odległą przyszłością. Jak dojdziemy do granicy rozwoju technologii ( a to już wydaje się być bliskie) to koncerny upadną a wraz z nimi technologia, o której nikt nie będzie wiedział jak działała.

    Na marginesie uważam, że oglądanie TV, to jest obciach, niezależnie na czym. Zgadzam się w 100% z michałko12. Klient obecnie został zepchnięty do roli konsumenta a koncerny mają poligon doświadczalny i tłuką kasę. Wprowadzają na siłę nowe technologie wmawiając nam, że są niezbędne, zabierając jednocześnie stare, dobre , sprawdzone i co najgorsze tanie. Wszystko w imię pseudopostępu.

    Marek Skalski broni swojego terytorium nie dostrzegając szerszego problemu, jakim jest uzależnienie i zniewolenie człowieka od technologii. Oczywiście same informacje techniczne są niezwykle zajmujące ale jednocześnie wyziera z nich smutna prawda, że dochodzimy do pewnej bariery. Jest nią długość fali jakich używamy do naświetlania naszych wafli. Promieniowanie RTG już nie wystarczy. Po co sięgniemy ? Potrzebna jest zmiana systemu myślenia, by wyjść poza schemat pogoni za nowoczesnością. Obecnie koncerny przeciągają wprowadzenie nowych technologii próbując wcisnąć nam stare, jednocześnie rozpaczliwie szukając nowego rozwiązania. Czy będzie ono na tyle tanie by je wprowadzić ?

  • #22 29 Mar 2018 15:56
    zbyrek
    Poziom 23  

    @michalko12 @jaszczur1111
    Jasne, po co komu technologia, zwłaszcza te śmieszne urządzenia w szpitalach, kiedyś było dużo lepiej, wypiło się napar z ziółek i wszystko było dobrze, bo na przeziębienia pomagały, a na cięższe choroby się po prostu umierało, a nie męczyło w tych dziwnych budynkach zwanych szpitalami (koniec sarkazmu). Ludzie narzekający na postęp technologiczny, są strasznie egoistyczni, ponieważ nikt ich nie zmusza do wykorzystywania technologii, którą tak gardzą, mogą jej nie używać, a nie narzucać całemu światu swój pogląd, każdy ma wybór, tak działa wolny świat, natomiast Wam się marzy totalitaryzm, nie potrzebujecie postępu więc według was nikt go nie potrzebuje.

  • #23 29 Mar 2018 16:48
    michalko12
    Specjalista - Mikrokontrolery

    @zbyrek
    Nic nie zrozumiałeś z tego co napisałem i w którym miejscu narzucam komuś swoje poglądy?
    Gdzie pisałem o tym, że totalitaryzm mi się marzy? Chyba Ci jednak ta technologia zaszkodziła w prawidłowym rozumowaniu.

    Postęp jest dobry pod warunkiem, że ludzie potrafią z tego korzystać, a teraz jest niestety masowe otępianie ludzkości...

  • #24 29 Mar 2018 21:28
    Bazyl
    Poziom 14  

    Marek_Skalski napisał:
    Jest rok 2018, a Kolega pisze tutaj o przyspieszaniu ZX Spectrum.

    Napisałem coś takiego? Poważnie? Proszę pokazać gdzie?

    Panowie widzę, że niektórych ponosi misja nauczania.

    Niektórzy zauważają, że współczesne komputery w 90 procentach są zawalone śmietnikiem z kompilacji, a nie użytecznym kodem, inni zwracają uwagę na lenistwo programistów, bo żeby postawić jeden znak inną czcionką najczęściej wgrywają cały zestaw znaków. Taniość pamięci i procesorów niestety na takie niechlujstwo intelektualne pozwala, a rynek wręcz do tego zmusza.

    Ja tylko zastanawiałem się, do jakich cudów można zmusić obecne komputery, gdyby ktoś nagle zatrzymał ten obłędny postęp. Przykładem jest tutaj era Spectrum, gdzie tworzono izomeryczną grafikę w grach na 48 kB. W C64 odkryto funkcję nieznaną nawet twórcom kości graficznej mianowicie animację na "borderze" a w Amidze w 512 kB potrafiono upchnąć całe galaktyki. Pamięta to ktoś? No więc tak się rozmarzyłem i tyle.

    Czasem też myślę co byłoby gdyby ludzie używali 100% możliwości mózgu zamiast jak wskazują badania 15 %. A może te 85% też mamy na zbędne biblioteki i śmieci z kompilacji...?

  • #25 29 Mar 2018 21:54
    ghost666
    Tłumacz Redaktor

    Bazyl napisał:
    Czasem też myślę co byłoby gdyby ludzie używali 100% możliwości mózgu zamiast jak wskazują badania 15 %. A może te 85% też mamy na zbędne biblioteki i śmieci z kompilacji...?


    W tych 85% są takie śmieci jak oddychanie, więc ja bym z optymalizacją kodu nie szalał.

  • #26 30 Mar 2018 13:49
    Marek_Skalski
    Moderator Projektowanie

    @Bazyl Lubię interesujące dyskusje, ale nie lubię mitów, zabobonów i przesądów. Na temat wykorzystania mózgu przez homo sapiens prowadzono wiele badań, a tutaj jest konkluzja: Link
    Projektuję systemy, czasami piszę oprogramowanie i to co Ty nazywasz śmieciami kompilacji, ja nazywam treścią programu, bibliotekami, procedurami diagnostycznymi i testowymi. Tak samo jest w komputerze przemysłowym, samochodowym i biurowym. To, że nie widzisz efektów działania procesu pracującego w tle, nie znaczy wcale, że ten proces jest zbędny. Przykładem może być działanie w samochodzie ESP lub poduszek powietrznych, albo zabezpieczenie przed przeciążeniem w falowniku. Wiele lat temu Pareto opisał to całkiem zgrabnie regułą 20-80, która działa w bardzo wielu dziedzinach; również w technice.
    Naiwnym jest twierdzenie, że prędkość zegara procesora przekłada się liniowo na wydajność. Kiedyś obraz na ekranie miał rozdzielczość 320x200 w 16 kolorach (C64), dzisiaj standardem staje się 4096x3112 z paletą 36-bitów (4K). To jest tylko 6,5 miliona razy więcej danych do przesłania. Czy procesory mają teraz 6,4 THz? Nie, są tylko 4000 razy szybsze - zamiast 0,985 MHz, pracują z zegarem rzędu 4,0 GHz.
    Kiedyś były łącza komutowane z prędkością 1200 bit/s, dzisiaj mamy stałe łącze po kablu z prędkością rzędu 10 Gbit/s. To tylko ~8 milionów razy szybciej, aby Kowalski mógł sprawdzić prognozę pogody na jutro albo nowe posty na Elektrodzie.

    Bardzo łatwo przyzwyczajamy się do lepszego i zapominamy o tym co mieliśmy wcześniej. Myślę, że gdyby nagle wyłączyć usługi sieciowe (internet), bankowe, w TV zostawić 2 programy, samochody i szpitale pozbawić elektroniki, telefony przypiąć do gniazdek, to społeczeństwo nie wytrzymałoby takiej próby. Cywilizacja, z której jesteśmy dumni, w takiej sytuacji upadnie. Mimo tego, że 85% programów, to "śmieci z kompilacji". Żyjemy dzięki nim.

    Pozdrawiam i zachęcam do refleksji,
    Marek

  • #27 30 Mar 2018 16:58
    michalko12
    Specjalista - Mikrokontrolery

    Marek_Skalski napisał:
    Naiwnym jest twierdzenie, że prędkość zegara procesora przekłada się liniowo na wydajność. Kiedyś obraz na ekranie miał rozdzielczość 320x200 w 16 kolorach (C64), dzisiaj standardem staje się 4096x3112 z paletą 36-bitów (4K). To jest tylko 6,5 miliona razy więcej danych do przesłania. Czy procesory mają teraz 6,4 THz? Nie, są tylko 4000 razy szybsze - zamiast 0,985 MHz, pracują z zegarem rzędu 4,0 GHz.
    Kiedyś były łącza komutowane z prędkością 1200 bit/s, dzisiaj mamy stałe łącze po kablu z prędkością rzędu 10 Gbit/s. To tylko ~8 milionów razy szybciej, aby Kowalski mógł sprawdzić prognozę pogody na jutro albo nowe posty na Elektrodzie.


    Kiedyś była tylko jedna jednostka obliczeniowa, ile dzisiaj jest w sumie dużo wydajniejszych jednostek obliczeniowych w takim PC? Kiedyś była tylko jedna 8b magistrala, teraz tych magistral jest od cholery, a niektóre mają nawet po 512b. Kiedyś wszystkim zajmowało się jedno CPU, teraz do wszystkiego są oddzielne bloki sprzętowe. Częstotliwości taktowania jednostek obliczeniowych i pojemności pamięci też bez porównania. Jakby to wszystko razem policzyć to niestety, ale wyjdzie na to, że jednak coś jest nie tak z wydajnością softu tworzonego w dzisiejszych czasach. Problemów jest wiele, ale wszystkie swój początek i tak biorą od jednego czynnika - pieniądza. Drugim czynnikiem jest czas, no ale czas to też pieniądz...

  • #28 31 Mar 2018 13:35
    silvvester
    Poziom 24  

    szeryf3 napisał:
    Jak tutaj napisał jeden z kolegów, że przyjdzie kiedyś jeden z nie naukowców i powie, że da się to zrobić i zrobi. Tylko czy uda mu się zmniejszyć zapotrzebowanie na energię.



    Częstotliwość procesorów zatrzymała się już kilka lat temu dokładnie wg. zapowiedzi gdzieś w okolicy 3,5-4GHz, miniaturyzacja też się zatrzyma zgodnie z zapowiedziami. Już kolega wspomniał o problemie rozszerzalności cieplnej.

    Powiedzmy że struktura ma 10x10mm ot np. jakiś procesor. Tolerancja naświetlania +-2nm dla technologii 20nm.

    Skalujemy wymiary i stosunek wymiarów w górę:
    2nm - 10mm
    20nm - 100mm
    200nm - 1m
    2um -10m
    20um -100m
    200um - 1km
    2mm - 10km


    Masz więc płytkę 10x10km i wykonaj naświetlanie z tolerancją +-2 mm.



    2nm to jakieś 8 atomów krzemu jeden obok drugiego, ale nie to jest słabym ogniwem, substancje światłoczułe są wielocząsteczkowe i są większe niż jeden atom krzemu.