Elektroda.pl
Elektroda.pl
X
CControls
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Intel Westmere-EX - 12 rdzeni po raz pierwszy

Belialek 07 Maj 2010 22:02 2707 13
  • Intel Westmere-EX - 12 rdzeni po raz pierwszy

    Intel planuje produkcję specjalnej edycji swoich 32nm Xeonów dedykowanych do pracy na serwerach - jednocześnie ma to być pierwszy układ Intela wyposażony w więcej niż 8 rdzeni. Układ o nazwie roboczej Westmere-EX ma być następcą 8 rdzeniowego, 45nm Xeona 7500 oraz będzie wyposażony w 12 rdzeni - nie zwiększając tym samym poboru mocy w stosunku do Xeona 7500.

    Nowy produkt powinien być kompatybilny z gniazdami używanymi przez obecną generację Xeonów, tak więc nie będzie problemu z dokonaniem modernizacji serwera. W chwili obecnej nie ma żadnych informacji na temat częstotliwości taktowania zegara ani nawet przewidywalnego terminu wypuszczenia procesora na rynek.

    Źródło: Link

  • CControls
  • #2 07 Maj 2010 22:40
    lukasker
    Tłumacz Redaktor

    12 rdzeni to jeszcze nic, każdy z nich chyba będzie miał po dwa wątki, co w sumie daje 24:)

  • #3 08 Maj 2010 01:12
    VIGOR_PICTURES
    Poziom 20  

    A pomyśleć że ja się dopiero z jedno-rdzeniowego procesora przesiadłem na dwa rdzenie... Jeśli dodać HT to wychodzą 24 rdzenie. Ciekaw jestem ceny tego potwora....

  • #4 08 Maj 2010 01:27
    tazman17
    Poziom 15  

    Potwór? A ja ciąglę będę przypominał i 80-cio rdzeniowym intelku:)
    Ale dobrze że wypuszczają to na rynek, pierwsze co za tym dzie to opadną ceny a drugie, walka AMD i wypuszczenie czegoś podobnego przez AMD:)

  • CControls
  • #5 08 Maj 2010 06:14
    mitusm
    Poziom 20  

    A co zwykłemu człowiekowi z tylu rdzeniach. Większość nie wykorzystuje nawet 2 które ma w komputerze. Jak dla mnie mnie jest to pójście na łatwiznę producentów CPU, zamiast walczyć o więcej mhz dokładają kolejne rdzenie i pamięć podręczną do starych jednostek.

  • #6 08 Maj 2010 08:44
    sebxxx
    Poziom 13  

    Niezłe ;)

    Ciekawe jak wygląda chłodzenie takiego CPU (pewnie jakiś radiator 2kg + potężny wiatrak)

  • #7 08 Maj 2010 09:30
    VIGOR_PICTURES
    Poziom 20  

    mitusm napisał:
    A co zwykłemu człowiekowi z tylu rdzeniach. Większość nie wykorzystuje nawet 2 które ma w komputerze.


    Zgoda, w zasadzie nie wiem po co zwykłemu uży(sz/t)kodnikowi w ogóle Xenon :D
    Przy przeliczaniu grafiki 3D przydałby się taki procesor, oj przydał.

    mitusm napisał:

    Jak dla mnie mnie jest to pójście na łatwiznę producentów CPU, zamiast walczyć o więcej mhz dokładają kolejne rdzenie i pamięć podręczną do starych jednostek.


    A tutaj się już nie zgodzę. Lepszym rozwiązaniem jest więcej rdzeni o niższym takcie procesora, niż mniej rdzeni ale o wyższej częstotliwości (pewnie, że najlepiej mieć dużo rdzeniu o 4 Ghz:D)
    Jakoś wolałem kiedy Intel i AMD miały jedną, dwie podstawki i można było spokojnie kupić lepszy procesor. A teraz co? W zeszłym roku wprowadzono i7 i podstawkę 1156. Niedawno 1356, a w planach za 1-1.5 roku kolejne podstawki.

  • #8 08 Maj 2010 09:39
    arturavs
    Poziom 39  

    Przecież to żenada. Zamiast wykorzystać optymalnie moc obliczeniową istniejącego procesora , programiści szafują pamięcią i zero optymalizacji.
    Jeżeli kod programu/ systemu byłby odpowiednio napisany , to na tych 24 ( teoretycznie) rdzeniach miałby moc obliczeniową porównywalną z jakimś superkomputerem. Ale tak nie jest. I programiści napędzają producentów sprzętu. Prosty przykład im nowsza gra , to więcej zasobów chce. Wszystko pod publikę. A dlaczego wojska NATO Win 3.1 używają?

    Wymagania minimalne, awaryjność systemu ( w porównaniu do Nowszych ) żadna. I pewność działania.

  • #9 08 Maj 2010 10:45
    Vein
    Poziom 22  

    arturavs i inni - serwery do obsługi dużej liczby zgłoszeń potrzebują możliwości przetwarzania większej ilości wątków jednocześnie, dlatego stosuje się kilka procesorów wielordzeniowych, oczekiwanie na odpowiedź jest o wiele krótsze.

  • #10 08 Maj 2010 10:46
    And!
    Admin grupy Projektowanie

    Dwa rdzenie wykorzystuje już praktycznie każdy domowy użytkownik,
    gdyż w tle działają antywirusy, firewale, i inne bardziej lub mniej potrzebne programy,
    komunikatory z tekstowych wyrosły do audio lub video komunikatorów,
    kompresujących dane dość wymagającymi algorytmami,
    w przeglądarkach działają flashe, javy, gry i reklamy, media strumieniowe,
    często na wielu zakładkach.

    Dlatego do domowego zastosowania nawet cztery rdzenie nie będą przesadą,
    szczególnie w dobie wn vista i win7.

    Dla serwera, liczby rdzeni nigdy za mało,
    będzie mniej procesorów fizycznie włożonych w podstawki,
    można nawet coś zostawić wolne na rozbudowę w okresie roku,
    a i dla wirtualizacji ma to znaczenie, nie wspominając o zwiększonej
    gęstości upakowania mocy w serwerowniach.

    Także jak najbardziej słuszne rozwiązanie.

    A dlaczego programiści piszą zasobożernie ?
    bo tak jest szybciej i programy są bardziej kolorowe.

    Pozatym, kto by kupował nowe płyty i procesory,
    gdyby stare były wystarczające i jeszcze pasowały
    do wcześniejszej podstawki.

    Co do niezawodności ?
    Powolny zdublowany procek, na grubych strukturach,
    sprawdzony i niezawodny, obsługujący przetestowane programy
    napisane prawie w asemblerze z watchdogami i innymi zabezpieczeniami,
    ma sens w drogiej sondzie kosmicznej która jest droga,
    nie potrzebuje bardzo dużej mocy obliczeniowej (kompresję, i nawigację,
    można zawsze zrobić na osobnym DSP) a utrata kontaktu z taką sondą
    przez zawieszenie programu kosztowało by bardzo dużo i ciężko byłoby naprawić.

  • #11 08 Maj 2010 10:55
    2P
    Poziom 19  

    arturavs napisał:
    Przecież to żenada. Zamiast wykorzystać optymalnie moc obliczeniową istniejącego procesora , programiści szafują pamięcią i zero optymalizacji.
    Jeżeli kod programu/ systemu byłby odpowiednio napisany , to na tych 24 ( teoretycznie) rdzeniach miałby moc obliczeniową porównywalną z jakimś superkomputerem. Ale tak nie jest. I programiści napędzają producentów sprzętu. Prosty przykład im nowsza gra , to więcej zasobów chce. Wszystko pod publikę. A dlaczego wojska NATO Win 3.1 używają?

    Wymagania minimalne, awaryjność systemu ( w porównaniu do Nowszych ) żadna. I pewność działania.

    W pełni się zgadzam z przedmówcą. Kiedyś dzieci jak znalazły patyk to mogły się nim bawić godzinami. Teraz chcą tylko coraz więcej RAMu i szybsze procesory. Jestem za obligatoryjnym przywróceniem Comodore 64 - przecież przeciętnemu graczowi PONGa wystarczy.

    A poważnie: wystarczy usiąść chociażby do kompilacji dużego kodu na ARM, albo do pisania większych aplikacji na FPGA, aby przestać wypisywać takie bzdury, że ta moc nie jest potrzebna.

    Z innych dziedzin, z jakimi miałem styczność: grafika 3D w blenderze - znakomicie rozkłada pracę na kilka rdzeni, przyspieszenie renderowania sceny potężne.

    Od drugiej strony - miałem okazję pisać oprogramowanie obsługujące kamerkę internetową i renderujące na otrzymanym obrazie różne dodatki w czasie rzeczywistym. Aplikacja napisana na jednym wątku: 12...15 fps (Duron 1200, 512MB RAM - to dawno było). Aplikacja napisana na 3 wątkach, każdy zajmował się inną częścią zadania + synchronizacja między nimi, zajmująca więcej RAMu i bardziej obciążająca procesor: Praktycznie non stop: 30 fps. Zgadnijcie teraz która bardziej spodobała się klientowi.

    I tak - programy nie są optymalizowane tak jak kiedyś. Tylko, że coraz bardziej liczy się czas i funkcjonalność a coraz mniej liczy się zajętość zasobów. Ja też wolę w aplikacji użyć ATmega64, nawet jeśli wiem, że ATmega32 wystarczy. Różnica w cenie 2-3 PLN a klienta interesuje to, że program napisałem w 2 tygodnie a nie to, że napisałbym go w 2 gdybym nie musiał go optymalizować, bo brak mi pamięci.

  • #12 08 Maj 2010 23:18
    buzerek
    Poziom 13  

    He he a ja mam komputer z przed ośmiu lat procesor AMD Barton twardy 60GB i wszystko hula bez problemów, no oczywiście w najnowsze gry nie gram, ale poczekam jeszcze z rok na stu rdzeniowca :)

  • #13 09 Maj 2010 12:02
    Trebuh
    Poziom 18  

    Zgadzam się z kolegą buzerek. Powstaną 100 rdzeniowce na których ledwo co skype będzie działał :)
    Wyjdzie od razu DX20 który będzie wykorzystywany przez najnowszy system a gry będą wykorzystywały nie wszystkie funkcje DX10.
    Dawniej 128mb było wystarczającą wartością gg, skype, strony...
    Obecnie zainstalowanie najnowszych wersji ww aplikacji na tym sprzęcie jest nieporozumieniem, wszystkich czy samego gg.

    Dawniej laptop był przykładem, komputera którego rozbudowa graniczyła z cudem, obecnie zabrali się za komputery stacjonarne. Nowe podstawki, niekompatybilność ... Modernizacja komputera obecnie: kup nowy procesor > nowa płyta > nowe pamięci dobrze że jeszcze pci-e nie zmienili na coś nowszego.

  • #14 09 Maj 2010 14:40
    Kosiarz44
    Poziom 17  

    arturavs napisał:
    Przecież to żenada. Zamiast wykorzystać optymalnie moc obliczeniową istniejącego procesora , programiści szafują pamięcią i zero optymalizacji.
    Jeżeli kod programu/ systemu byłby odpowiednio napisany , to na tych 24 ( teoretycznie) rdzeniach miałby moc obliczeniową porównywalną z jakimś superkomputerem. Ale tak nie jest. I programiści napędzają producentów sprzętu. Prosty przykład im nowsza gra , to więcej zasobów chce. Wszystko pod publikę. A dlaczego wojska NATO Win 3.1 używają?

    Wymagania minimalne, awaryjność systemu ( w porównaniu do Nowszych ) żadna. I pewność działania.


    To może niech programiści piszą programy w asemblerze, tylko wtedy ceny oprogramowania będą kosmiczne. A co do gier, to są coraz bardziej skomplikowane graficznie, znaczy mają więcej danych do obróbki, więc logiczne jest że potrzeba więcej mocy obliczeniowej.