Elektroda.pl
Elektroda.pl
X
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

1000 razy potężniejsze komputery za 8 lat?

Alvaro30 25 Wrz 2011 20:00 3729 11
  • 1000 razy potężniejsze komputery za 8 lat?

    Naukowcy z Chin rozpoczęli intensywne prace nad projektowaniem nowej generacji superkomputerów.

    Przygotowują się oni do zbudowania superkomputera o mocy 100 petaflopów, który miałby być gotowy w już w 2015 roku, ich celem jest również stworzenie 10 razy potężniejszej maszyny, której moc przekroczy magiczną barierę 1 exaflopa - do 2020 roku. Niektóre firmy oraz instytucje rządowe, takie jak IBM czy DARPA (Defense Advanced Research Projects Agency) twierdzą, że uda im się osiągnąć ten cel już w 2018 roku. Jeżeli faktycznie udałoby im się zrealizować tak ambitne plany, oznaczałoby to, iż w przeciągu zaledwie 8 lat moc superkomputerów wzrosłaby aż 1000-krotnie!

    Maszyny takie otworzyłyby przed naukowcami całkowicie nowe możliwości związane np. z: symulowaniem procesów biologicznych na poziomie molekularnym, projektowaniem nowych leków, odkrywaniem tajemnic największych nękających ludzkość chorób, odkrywaniem tajemnic kosmosu, projektowaniem nowych super materiałów, nanomaszyn, 1000 razy bardziej szczegółową symulacją czekającej nas pogody oraz wieloma innymi ważnymi aspektami codziennego życia.
    czytaj dalej


    Komputer o mocy 1 exaflopa będzie 1000 razy potężniejszy od maszyny prowadzącej obliczenia z prędkością 1 petaflopa, czyli od komputerów dzisiejszej generacji. Zaledwie kilka miesięcy temu Japonia zaprezentowała swoje najnowsze dzieło - K Computer - superkomputer o wydajności 8162 PFLOPS. Rok wcześniej pierwsze miejsce na liście najszybszych komputerów na świecie zajmował "Tianhe-1A" - chiński superkomputer o mocy wynoszącej 2,5 petaflopa.

    Naukowcy mają przed sobą wiele różnego rodzaju problemów do pokonania, m.in. kwestii związanych z działaniem CPU, łączeniem wielu komputerów, ich programowaniem, zarządzaniem konsumpcją energii w taki sposób, aby mimo ciągłego wzrostu mocy komputerów pozostawała ona na tym samym poziomie co obecnie bądź rosła tylko w niewielkim stopniu, oraz z radzeniem sobie z tematem tolerancji tych przeogromnych systemów na błędy.

    Osiągniecie wyznaczonych sobie przez wiele krajów celu (gdyż nie tylko Chiny dążą do możliwości wykorzystania ogromnego potencjału, jaki przyniosą w momencie swojego pojawienia się komputery nowej generacji) będzie wymagało nie tylko wielu technologicznych przełomów, ale także całkowicie nowego podejścia ich projektantów do rozwiązania problemu, a także ich promocję wśród obecnych oraz przyszłych użytkowników takich maszyn, preferujących zazwyczaj starsze systemy, do których przyzwyczaili się na przestrzeni lat.

    Źródło: http://nt.interia.pl/news/nadszedl-czas-nowej-generacji-superkomputerow,1686529

    Fajne! Ranking DIY
    O autorze
    Alvaro30
    Poziom 8  
    Offline 
    Alvaro30 napisał 6 postów o ocenie 0, pomógł 0 razy. Jest z nami od 2011 roku.
  • #2
    players
    Poziom 10  
    Procesy produkcyjne prockow osiagaja granice, ktora wyznacza ilosc atomow, z ktorych mozna zbudowac tranzystoy. A mnozenie ilosci prockow to tez probem, o czym mowa w artykule. Juz teraz mozna by osiagnac exafopy-tylko ile by to kosztowało?
  • #3
    skaktus
    Poziom 37  
    Dlatego nie widzę tutaj rewolucji. Każdy dzisiejszy super komputer to praktycznie to samo - wkładają więcej procesorów i od razu ogłoszenie, że mają najlepszy komputer. Dziś można by już osiągnąć takie możliwości ale to kosztuje. Jesteśmy już na granicy możliwości krzemu, teraz może grafen. Ale póki co, jedynie możemy zwiększać ilość rdzeni. Nic więcej.
  • #4
    tacman
    Poziom 16  
    Mamy pęd na ochronę środowiska. Jak ta ochrona ma się do ilości rdzeni i pożerania energii?
    Ale nie o tym chciałem pisać a o tym, że należałoby zacząć znowu optymalizować kod anie pisać na odwal się.
  • #5
    sssso
    Poziom 11  
    skaktus napisał:
    Dlatego nie widzę tutaj rewolucji. Każdy dzisiejszy super komputer to praktycznie to samo - wkładają więcej procesorów i odrazu ogłoszenie że mają najlepszy komputer. Dziś można by już osiągnąć takie możliwości ale to kosztuje. Jesteśmy już na granicy możliwości krzemu, teraz moze grafen. Ale puki co, jedynie możemy zwiększać ilość rdzeni. Nic więcej.


    Poczytaj o memrystorach. Na youtube dostępny jest także ok. godzinny wykład prowadzącego zespół HP, w którym opisuje on wynalezienie, sposób działania i zastosowania tych elementów.
    Z ciekawszych rzeczy: procesor o mocy obliczeniowej mózgu kota, który zmieści się w dłoni; 100TB na chipie o wymiarach 1x1cm. Dodatkowo możliwa będzie integracja pamięci operacyjnej z dyskiem twardym (dzisiejszy start systemu: 30s - 1min, w przyszłości: <5s?).
  • #6
    players
    Poziom 10  
    sssso napisał:
    (dzisiejszy start systemu: 30s - 1min, w przyszłości: <5s?).
    linpus startowal mi ponizej 10sek, wiec wielkiej rewolucji nie widze, jak bedzie ponizej 1sek to bedzie juz cos.
  • #7
    Użytkownik usunął konto
    Użytkownik usunął konto  
  • #8
    rake
    Poziom 11  
    8.162 PFLOPS zamiast 8162 PFLOPS
  • #9
    players
    Poziom 10  
    suse1 napisał:
    Za osiem lat nie będzie to już żadna rewelacja.
    Przypomnijmy sobie rewelacje z przed ośmiu lat , które teraz nas śmieszą.


    Kazdy nowy windows startuje coraz dluzej i wcale mi sie nie chce z tego powodu smiac.
  • #10
    ADI-mistrzu
    Poziom 30  
    Jak nie będą optymalizować kody tylko ciągle dopisywać to się zdziwią w przyszłości (a może już to robią?) jaki burdel się robi i ile mocy pobiera niepotrzebnie coś, co może być dużo wydajniejsze. :D
  • #11
    mosfet
    Poziom 25  
    1000 razy w 8 lat? W roku 1990 uznano by to za kpinę.
  • #12
    jarek4700
    Poziom 9  
    W sumie to się nawet nie zgadza z prawem Moore'a. Teoretycznie powinno być tylko 32 razy.