Elektroda.pl
Elektroda.pl
X

Search our partners

Find the latest content on electronic components. Datasheets.com
Elektroda.pl
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

nVidia dostaje 12 milionów $ na badania dotyczące eksaflopowego superkomputera

lukasker 14 Jul 2012 14:03 3651 11
Computer Controls
  • nVidia dostaje 12 milionów $ na badania dotyczące eksaflopowego superkomputeraMinisterstwo energetyki USA dało firmie nVidia 12 milionów dolarów na badania dotyczące eksaflopowego komputera. Obecnie jednostką mocy obliczeniowej superkomputerów jest petaflop, czyli 10^15 operacji zmiennoprzecinkowych na sekundę. Eksaflop to 10^18 operacji na sekundę. Dla przypomnienia - najszybszy obecnie komputer to amerykański IBM Sequoia, a jego moc obliczeniowa wynosi wynosi 16,32 PFLOPS. Ciekawe jest to, że sumaryczna moc obliczeniowa 500 największych superkomputerów z listy TOP500 w czerwcu 2012 wynosiła 123,4 PFLOPS. Czy w takim razie nVidia stoi przed zadaniem niemożliwym? Na razie tak, bo przy obecnej infrastrukturze Intel X86, taki superkomputer potrzebowałby mocy 2 gigawatów, czyli tyle, co obecnie produkuje tama Hoovera. nVidia uważa, że przy użyciu architektury Kepler GPU potrzeba by było tylko 150 megawatów, a przy obecnym rozwoju technologii w 2020 byłoby to już tylko 20 megawatów. Jak szybko możliwe stanie się zbudowanie takiego superkomputera? Więcej w źródle.

    Źródło

    Cool? Ranking DIY
    About Author
    lukasker
    Translator, editor
    Offline 
    Has specialization in: programowanie, strony www, sprzęt komputerowy
    lukasker wrote 2900 posts with rating 159, helped 0 times. Live in city Kielce. Been with us since 2010 year.
  • Computer Controls
  • #2
    d-t-x
    Level 21  
    12 mln $? Może wystarczy na "obudowę" do tego komputera :p
  • Computer Controls
  • #3
    Quazzami
    Level 17  
    d-t-x wrote:
    12 mln $? Może wystarczy na "obudowę" do tego komputera :p


    Czytaj ze zrozumieniem - nie są to pieniądze na budowę tego komputera, tylko pieniądze na badanie technologii, która w przyszłości pozwoli zbudować superkomputer o zakładanej wydajności.
  • #5
    d-t-x
    Level 21  
    Bardzo możliwe, że do symulacji procesów jądrowych.
  • #6
    RitterX
    Level 39  
    d-t-x wrote:
    Bardzo możliwe, że do symulacji procesów jądrowych.


    Procesy w tym wybuchy jądrowe już są symulowane za pomocą superkomputerów, które obecnie istnieją np. w Lawrence Livermore.

    Tak czy owak NVida powinna się spieszyć by zdążyć z finalizacją produkcyjną projektu przed premierą Win10 :-D .
  • #8
    cefaloid
    Level 32  
    lukasker wrote:
    Czy w takim razie Nvidia stoi przed zadaniem niemożliwym? Na razie tak, bo przy obecnej infrastrukturze Intel X86, taki superkomputer potrzebował by mocy 2 gigawatów


    Na x86 świat się nie kończy.

    Porównywanie takiego projektu do x86 to jak porównywanie elektrowni jądrowej do dynama od roweru mówiac że "niedasię produkować 440MW" bo to wymagałoby dziesięć milionów rowerzystów i dziesięc milionów dynam. W samym artykule zostało nawet napisane że taki sam system oparty o procesory NVIDIA Kepler K20 powierał by 150 megawatów mocy a oni chcą obnizyć to poniżej 30MW.
  • #9
    User removed account
    User removed account  
  • #10
    tronics
    Level 38  
    Quote:
    Dokładnie, x86 jest przestarzałą architekturą już od dekady

    To dobrze, że architektura x86 zasadniczo kończy się na dekoderach w nowoczesnych procesorach. Choć w zasadzie zawsze tak było.
    Quote:
    bo nikt nie chce poświęcić kasy na całkowite przebudowanie softu i hardware

    Nie. Bo są dość tanie i masowo dostępne. Jeśli chodzi o soft patrz na maka. 68k, potem PowerPC, teraz x86 właśnie. Obie zmiany przeszły gładko. ARM w telefonie ma mniejszą wydajność niż ATOM, nie ma żadnego ARMa o wydajności 1.8GHz Core 2 Duo, a co dopiero ivy bridge 4GHz
    Quote:
    Moja GTX460 po podkręceniu ma w okolicach 1,2Tflopa

    Szczytowo w 32 bitach. Niestety nie wszystkie algorytmy chcą się dobrze wykonywać równolegle na kilkuset ALU. Dla sporej rzeszy jednak potokowa arch. wysokotaktowanych x86 jest nadal lepsza i z tego powodu są one bardziej "uniwersalne". Jeśli zaś chodzi o wydajność to 48 rdzeni x86 rodem z Pentium MMX dopalonych o 512bit AVX osiąga dość podobną wydajność (Intel MIC - rozwinięcie projektu Larrabee).
  • #11
    cefaloid
    Level 32  
    tronics wrote:
    Niestety nie wszystkie algorytmy chcą się dobrze wykonywać równolegle na kilkuset ALU. Dla sporej rzeszy jednak potokowa arch. wysokotaktowanych x86 jest nadal lepsza i z tego powodu są one bardziej "uniwersalne".


    Trudno nie przyznać racji. Wiele superkomputerów swoją moc osiąga poprzez zamontowanie kilku tysięcy rdzeni. Da to wzrost wydajnosci pod warunkiem, że akurat mamy tysiące procesów do realizacji równoległej. Kiedy trzeba wykonać jeden, bardzo zawily proces (wcale nie rzadki przypadek), to sie okazuje że domowy PC wypada niewiele gorzej i tak naprawdę liczy sie, ile GHz ma zegar procesora a nie że jest ich sto tysiecy..

    Zdarzyło mi się to już tłumaczyć kilku rozczarowanym uzytkownikom komputerów klasy mainframe.
  • #12
    adam1987
    Level 18  
    Jednak przytłaczająca większość obliczeń dla których konstruuje się takie komputery, to są obliczenia na ogromnych zbiorach danych, najczęściej w postaci macierzy o rozmiarach liczonych w milionach lub miliardach, a głównym działaniem które musi podlegać zrównolegleniu jest mnożenie takich macierzy, którego złożoność w klasycznym algorytmie wynosi aż O(n^3).

    Przykładowo dla macierzy kwadratowej o rozmiarze n=10^6 mamy 10^12 elementów, a przemnożenie jej przez inną podobną macierz wymaga w uproszczeniu 10^18 zwykłych mnożeń i dodawań. Jeśli mamy jeden procesor a sekwencję operacji odczytu, mnożenia, dodawania i zapisu robimy w jednej instrukcji, to nawet jeśli procesor może wykonać 10^9 takich instrukcji na sekundę, potrzebujemy 10^9 sekund na wykonanie całej operacji - czyli ponad 30 lat :D

    A dysponując komputerem który składa się z miliona procesorów o takiej samej mocy (1 PFLOPS), możemy wykonać całą operację w 1000 sekund, czyli 17 minut. Oczywiście to jest w uproszczeniu, bo trzeba doliczyć opóźnienia związane z wczytaniem macierzy do pamięci, dostępem do pamięci podczas obliczeń, i zapisaniem wyniku na dysk. Ten problem jednak traci na znaczeniu, jeśli obliczenia są wykonywane wielokrotnie na danej macierzy.

    Analogicznie, podobny komputer o mocy 1 EFLOPS same obliczenia przeprowadzi w ciągu 1 sekundy ;-)

    Dodano po 22 [minuty]:

    tronics wrote:
    nie ma żadnego ARMa o wydajności 1.8GHz Core 2 Duo, a co dopiero ivy bridge 4GHz
    Zależy jak tą wydajność liczyć. Jeśli policzysz wydajność względem pobieranej energii, to na pewno ARM wypadnie dużo lepiej. Najlepiej pod tym względem wypadają GPU.