logo elektroda
logo elektroda
X
logo elektroda
Adblock/uBlockOrigin/AdGuard mogą powodować znikanie niektórych postów z powodu nowej reguły.

Nowa era przetwarzania danych.

TechEkspert 28 Paź 2015 19:17 5943 19
  • Nowa era przetwarzania danych.
    Ilość danych, przetwarzanych każdego roku podwaja się. Wzrasta także ilość energii elektrycznej zużywanej przez centra danych. Czy zatem tradycyjna architektura serwerowa może zaspokoić potrzeby współczesnego biznesu?
    Strategia HPE Compute to zupełnie nowe podejście. Zapomnijmy o serwerach! Pomyślmy o mocy obliczeniowej, składającej się z komponowalnych zasobów budowanych w odpowiedzi na wymagania konkretnych obciążeń w połączeniu z istniejącymi uwarunkowaniami finansowymi.




    Nowa era przetwarzania danych.


    Do niedawna wszyscy producenci serwerów korzystali z takiej samej architektury. Maszyny posiadały procesor, pamięć, płytę główną, urządzenia wejścia/wyjścia, interfejsy sieciowe. Rozwój polegał na dodawaniu wydajniejszych procesorów, szybszych i pojemniejszych pamięci RAM oraz pamięci dyskowych, czy układów o większej przepustowości. Takie linearne podejście sprawdzało się, ale właśnie dotarliśmy do miejsca, w którym zaczęliśmy mocno odczuwać potrzebę zmiany.
    Nie można bowiem już podnosić wydajności bez jednoczesnego zwiększania złożoności i większej konsumpcji zasobów.

    Dlatego od kilku lat HPE proponuje wyspecjalizowane platformy obliczeniowe. Zostały one zaprojektowane z myślą o konkretnych zastosowaniach i mają w pełni zaspokajać potrzeby docelowej grupy użytkowników. Infrastruktura do wirtualizacji desktopów ma inną specyfikę od serwerów obsługujących systemy mission critical czy Big Data.

    Właśnie dlatego trzeba zapomnieć o serwerze w dotychczasowym rozumieniu tego słowa. Lepszym podejściem jest takie projektowanie mocy czy infrastruktury obliczeniowej, żeby spełniała wymagania konkretnych typów obciążeń. Oznacza to projektowanie infrastruktury konwergentnej, zdefiniowanej przez oprogramowanie, gotowej do pracy w chmurze oraz zoptymalizowanej pod kątem konkretnego obciążenia. Co ciekawe, serwer nie zawsze musi być głównym ośrodkiem przetwarzania. Część zadań mogą wykonywać inne urządzenia np. kontrolery macierzy dyskowej czy karty graficzne. To charakterystyka zadań determinuje sposób przetwarzania, a to dopiero określa jak ma być skonstruowana maszyna, która je realizuje. Takie podejście pozwala na znaczące uproszczenie centrów danych, ograniczenie zużycia energii, przestrzeni, a w konsekwencji - na optymalizację kosztów.

    Przyszłość to specjalizacja.

    Właśnie dlatego HPE poza standardowymi serwerami ProLiant wprowadza na rynek nowe, wyspecjalizowane produkty – bazujące na standardowych komponentach - takie jak Moonshot, Apollo, Superdome X oraz konwergentne systemy, które stanowią zintegrowaną platformę np. SAP HANA. Przyglądając się ofercie serwerowej HP od razu widać, że jest ona wyjątkowo szeroka.

    Nowa era przetwarzania danych.

    Dalszy rozwój portfolio serwerowego HPE wspieranego przez technologię Intel® będzie prowadzony dwutorowo: z jednej strony wykorzystane będzie tradycyjne linearne podejście infrastrukturalne - szybsze procesory i szybsze pamięci, ale z drugiej, ze względu na współczesne uwarunkowania zewnętrzne firma będzie konsekwentnie proponować specjalizowane rozwiązania zdolne zaspokoić specyficzne potrzeby klientów.

    Jak to określiła CEO HPE, Meg Whitman, firma będzie dostarczać właściwą moc obliczeniową dla właściwych obciążeń za właściwą cenę. Oznacza to, że za każdym razem HPE chce zapewnić klientowi moc obliczeniową dopasowaną do danego obciążenia oraz do jego budżetu. Koszt przetwarzania dla użytkownika jest przecież równie ważny co wydajność i efektywność. Wszystkie te aspekty muszą być dopasowane do konkretnego przypadku.

    Przy tym strategia HPE Compute nie ogranicza się wyłącznie do sprzętu. Integralną jej częścią są systemy operacyjne, systemy do przetwarzania w chmurze oparte o OpenStack oraz systemy zarządzania. Wszystkie te wyspecjalizowane rozwiązania będą zarządzane przy wykorzystaniu tych samych narzędzi. Bez względu na to jak specyficzne jest obciążenie, platforma Compute z punktu widzenia zarządzania jest jednolita.

    The Machine - koniec świata klasycznych serwerów?

    Ukoronowaniem podejścia Compute będzie prowadzony od pewnego czasu w HPE projekt The Machine, w którym odchodzi się od tradycyjnej architektury serwerowej, zmieniając świat przetwarzania danych, jaki znamy obecnie. To maszyna przyszłości, zbiór elementów przetwarzających, przesyłających i elementów przechowujących informacje - nie ma podziału na zasoby dyskowe i pamięć operacyjną.

    The Machine jest budowana w oparciu o Memrystory - bierne układy elektroniczne posiadające pamięć. Dzięki nim można zbudować nowy paradygmat architektury komputera składającego się z puli specjalizowanych procesorów, puli pamięci uniwersalnej oraz elementów komunikacyjnych zapewniających łączność. The Machine otworzy nowe możliwości w zakresie przetwarzania, zwłaszcza w obszarze Big Data. Zapewni bardzo duże oszczędności energii i przestrzeni w porównaniu do tradycyjnych komputerów o podobnej mocy obliczeniowej.

    Nowa era przetwarzania danych.

    Maszyny tego typu mają pojawić się na przełomie 2018 i 2019 roku. Wcześniej jednak pojawi się wirtualna The Machine pracująca pod kontrolą nowego systemu operacyjnego, który pozwoli wykorzystać innowacyjną architekturę. W ten sposób będzie można opracować nowe aplikacje dla The Machine, zanim trafi ona na rynek.





    http://www.hpl.hp.com/research/systems-research/themachine/

    Co myślicie o specjalizacji komponentów systemu IT celem jej dopasowania do potrzeb biznesu oraz przy zachowaniu jednolitego zarządzania?

    Wirtualna wersja The Machine pozwoli na tworzenie oprogramowania na system, dla którego docelowy sprzęt jeszcze nie istnieje.

    Czy uważacie, że obecny przyrost przetwarzanych danych oraz m.in Big Data, IoT wpłyną na ponowne zdefiniowanie architektury systemu komputerowego?





    Artykuł sponsorowany.
    O autorze
    TechEkspert
    Redaktor
    Offline 
    W moich materiałach znajdziecie testy i prezentacje sprzętu elektronicznego, modułów, sprzętu pomiarowego, eksperymenty. Interesuje mnie elektronika cyfrowa, cyfrowe przetwarzanie sygnałów, transmisje cyfrowe przewodowe i bezprzewodowe, kryptografia, IT a szczególnie LAN/WAN i systemy przechowywania i przetwarzania danych.
    Specjalizuje się w: mikrokontrolery, rozwiązania it
    TechEkspert napisał 5819 postów o ocenie 4623, pomógł 15 razy. Jest z nami od 2014 roku.
  • #2 15104385
    tzok
    Moderator Samochody
    Jak widzę albo słyszę określenie "chmura" to już wiem, że pisał to marketingowiec... co to jest "chmura". To ogólne pojęcie określające system rozproszonego (wcale zresztą nie koniecznie) przetwarzania lub przechowywania danych. W zasadzie każdy serwer można nazwać chmurą...

    Wąska specjalizacja to droga do... wyginięcia.

    Memrystory czy też pamięci RRAM swoją koncepcją przypominają... pamięci rdzeniowe stosowane w latach '50 i '60 ubiegłego stulecia. Komputer posiadający ogromną ilość nieulotnej pamięci operacyjnej - pomysł może i ciekawy ale nie nazwałbym go rewolucyjnym. Przecież to rozwiązanie stosuje się w niektórych urządzeniach mobilnych które mają podtrzymywaną bateryjnie pamięć RAM i korzystają z RAM dysków, tyle że mogą zapisać kopię pamięci RAM w pamięci Flash, by ją wczytać po całkowitej utracie zasilania (tak to działa w większości routerów opartych o uC Linux). Nie bardzo też dostrzegam rewolucyjność tego rozwiązania.
  • #3 15104517
    Konto nie istnieje
    Konto nie istnieje  
  • #4 15104585
    Matheu
    Poziom 24  
    TechEkspert napisał:
    Nowa era przetwarzania danych.

    Pierwsze wrażenie - dla mnie ten artykuł to marketingowy bełkot... Jakaś reklama HP, a nie źródło informacji...

    Dopiero na samym końcu zauważyłem napis:
    "Artykuł sponsorowany"


    EDIT: (31 paźdz.)
    Fajnie, że tekst TechExperta, redaktora Elektroda.pl - gdy przez kogoś został przeniesiony na stronę główną - ma już teraz wyraźne widoczne oznaczenie.
  • #5 15104705
    TechEkspert
    Redaktor
    @tzok określenie chmura jest faktycznie dość ogólne, jednak dość dobrze określa architekturę systemu, który obecnie sprawdza się w wielu współczesnych zastosowaniach. Oczywiście istnieje wiele rozwiązań chmurowych i chmura chmurze nierówna...
    Co do opłacalności specjalizacji to jak zwykle kwestia skali. Dobrze jest posiadać w portfolio rozwiązania uniwersalne, jednak posiadanie kilku linii rozwiązań specjalizowanych pozwala na lepsze konkurowanie przy dużych wdrożeniach (np. super komputery, platformy pod określone środowiska). Skrojone na miarę rozwiązanie będzie efektywne przy większej skali w porównaniu z rozwiązaniem uniwersalnym efektywnym kosztowo przy małej skali.

    @kikiz dokładnie tak, nowe potrzeby (np. Big Data, IoT ) oczekują nieco innej charakterystyki przetwarzania danych w porównaniu do tego co oferują tradycyjne rozwiązania skupione na instancji serwera. The Mashine to podejście koncepcyjne, nastawione właśnie na zmianę technologii.

    Co do zaufania do chmury, zawsze można ją zbudować w wersji prywatnej lub hybrydowej.
  • #6 15104988
    speedy9
    Pomocny dla użytkowników
    Ciekawy temat o "The Machine". Informacje są dość ogólne, ale wygląda to trochę jak rozproszony klaster Hadoop. Nowością jest zunifikowany rodzaj pamięci, ale to wydaje się realizacją niedawnych testów przeprowadzonych przez jeden z uniwersytetów razem z Samsungiem. Wykazano, że wykorzystanie rozproszonego systemu plików obejmującego nośniki Flash w kilku(nastu, dziesięciu itd.) systemach i wykorzystanie takiej pamięci do przetwarzania danych wcale niekoniecznie jest wolniejsze od przetwarzania tych danych w systemach robiących to tylko w RAMie. Chodzi o opóźnienia wprowadzane przez różne interfejsy przez które dane są "pchane" do RAMu itd.

    Jednak wciąż nie do końca rozumiem jak to ma wyglądać. Z jednej strony jest mowa o "bring compute to data" a z drugiej o światłowodowych połączeniach pomiędzy modułami/rackami. Oba podejścia są niejako rozłączne. Jednak jeśli pomyślimy o przesyłaniu rezultatów obliczeń "lokalnych" do centralnego systemu, który te cząstkowe wyniki będzie scalał analizując je w kontekście innych wtedy ma to sens.
  • #7 15107155
    TechEkspert
    Redaktor
    @speedy9 odszukałem temat o którym wspominasz Nowatorska sieć serwerów do obliczeń rozproszonych z pamięciami Flash, faktycznie zbliżona i ciekawa koncepcja.

    Dla mnie ciekawe w "The Machine" jest to, że ta koncepcja (dla której nie istnieje gotowy sprzęt), będzie początkowo dostępna jako maszyna emulowana na dostępnym sprzęcie, co pozwoli na testowanie i tworzenie rozwiązań.

    Wiele osób reaguje alergicznie na teoretyczne modele nowych rozwiązań,
    jednak od czegoś trzeba zacząć, np. Maszyna Turinga w czasach jej opracowania prawdopodobnie także budziła wiele wątpliwości.
  • #8 15107199
    tzok
    Moderator Samochody
    TechEkspert napisał:
    Dla mnie ciekawe w "The Machine" jest to, że ta koncepcja (dla której nie istnieje gotowy sprzęt), będzie początkowo dostępna jako maszyna emulowana na dostępnym sprzęcie, co pozwoli na testowanie i tworzenie rozwiązań.
    Tak samo powstało jądro Windows NT dla procesorów DEC Alpha...
  • #9 15107746
    TechEkspert
    Redaktor
    @tzok ciekawe, zupełnie nieznany mi temat dot. Windows NT i DEC Alpha.
    Czy możesz napisać coś więcej?

    @speedy9 mam podobne odczucie co do koncepcji "The Machine", z jednej strony rozumiem (przynajmniej tak mi się wydaje) ogólne założenia, z drugiej strony pozostaje wiele pytań.
    Jeżeli chcesz możemy spróbować przygotować pytania do HP, być może wywiąże się dyskusja i uda się uzyskać ciekawe odpowiedzi.
  • #10 15108744
    tzok
    Moderator Samochody
    :arrow: TechEkspert: Z Alphą to coś pokręciłem (choć była wersja jądra NT dla tego procesora), chodziło o i860 (N10). System NT powstał z myślą o tym procesorze, zanim jeszcze powstały maszyny oparte o ten procesor (które nigdy nie wyszły poza etap testów).
    http://winsupersite.com/windows/supersite-flashback-nt-s-first-decade
  • #11 15108843
    TechEkspert
    Redaktor
    Ciekawie wyglądał przyrost ilości osób w zespole developerów i testerów WNT patrząc na wersje 3.1, 3.5, 3.51, 4.0, Win2k, od jednostek przeszli z setek do tysięcy osób, ostatecznie zespół testerów stał się liczniejszy niż programistów.

    W przyszłym tygodniu HP organizuje webinar na temat rozwiązań HPE ProLiant Gen9:
    Webinar HP Compute.
  • #12 15125895
    TechEkspert
    Redaktor
    Po udziale w webinarze zacząłem postrzegać specjalizację produktów jako silny atut, jestem ciekawy co o tym myślicie.

    Przykładowo zasilanie awaryjne wbudowane w zasilacz, w niektórych zastosowaniach może wyeliminować konieczność instalacji centralnego (lub lokalnego) UPS.

    Różnice po między serwerami kasetowymi a rack zna praktycznie każdy, w zależności od warunków jedne lub drugie mogą być optymalnym rozwiązaniem.

    Ciekawsze były mniej typowe propozycje np. małe serwery dedykowane do oddziałów firmy i małych biur (HP ProLiant MicroServer Gen8), HP Apollo 4200 pozwalające w serwerze 2U na zainstalowanie pamięci dyskowej o pojemności 224TB,
    HP Moonshot z kardridżami HP ProLiantm710p czyli bardzo gęste upakowanie mocy obliczeniowej, dedykowane np. do przetwarzania video.

    Przykłady skrajnie różnych rozwiązań, pozwalających na dopasowanie się do wymagań stawianych przed systemem.
  • #13 15126158
    tzok
    Moderator Samochody
    TechEkspert napisał:
    np. małe serwery dedykowane do oddziałów firmy i małych biur (HP ProLiant MicroServer Gen8)
    Co takiego szczególnego jest w tym "serwerze" poza ceną z kosmosu (i wymiennymi kolorowymi panelami obudowy - doprawdy niezwykle przydatny w serwerze "ficzer")? Do tego jakiś cudaczny kontroler RAID, który zasadniczo jest soft-RAIDem (używa CPU) wspierającym jedynie dyski SATA (zapewne jak to u HP bywa współpracuje tylko z "brandowanymi" przez HP dyskami) w liczbie 6, który w dodatku nie obsługuje Hot Swap i w podstawowej wersji obsługuje jedynie tryby RAID-0, RAID-1 i RAID-1+0, a do obsługi RAID-5 konieczne jest dokupienie rozszerzenia pamięci. No sorry ale to potrafi każda płyta na chipsecie Intela z ICH w wersji R... nawet taka 8 letnia, bez żadnych "inteligentnych" kontrolerów RAID od HP.

    Cytat:
    B120i:
    • RAID 0,1,10 standard. Upgradeable to RAID 5 via 512MB cache.
    • Supports up to 4 or 6 (depending on server) SATA drives only.
    • This uses the host processors cycles to run.
    • Used as the base controller on almost all the e series Gen8 servers
  • #14 15126528
    TechEkspert
    Redaktor
    Co do kolorowych obudów, od pewnego czasu sprzęt w serwerowniach staje się coraz bardziej efektowny pod względem wyglądu (szczególnie macierze i upsy). Ten trend również mnie bawił, ale skoro jest zapotrzebowanie to trzeba je zaspokoić.

    Co do raid, niestety coraz częściej kupujemy sprzęt wyposażony w płatne zablokowane opcje (poziomy raid, zdalne zarządzanie, ilość obsługiwanych elementów itp.). Z drugiej strony cena sprzętu bez uruchomionych opcji dodatkowych jest niższa, można zakończyć etap inwestycji natomiast resztę możliwości odblokować w miarę potrzeb i posiadanego budżetu.

    Programowy raid przy wydajnym cpu nie jest problemem, pozwala na zabezpieczenie danych. Oczywiście w większych platformach i macierzach w niektórych zastosowaniach sprawdzą się jedynie kontrolery sprzętowe.

    Przy pewnej skali wdrożenia, poza ceną liczy się także wsparcie, opcje serwisowe oraz jednolitość sprzętu. Jeżeli ktoś posiada jeden oddział to może zastosować dowolne rozwiązanie lub jakiś składak. Gdy skala wdrożenia rośnie a czas nagli zaczynają się liczyć dodatkowe cechy.
    Właśnie w takim przypadku może się sprawdzić dedykowane rozwiązanie, np. serwer który zmieści się w każdym oddziale i będzie pasował do kolorystyki wnętrz :)
  • #15 15126743
    speedy9
    Pomocny dla użytkowników
    TechEkspert napisał:
    Programowy raid przy wydajnym cpu nie jest problemem, pozwala na zabezpieczenie danych

    Tak, ale problem w tym, że MicroServer takowych procesorów nie ma nawet w opcji :) Najszybszy dostępny to Core i3-3240.
    tzok napisał:
    do obsługi RAID-5 konieczne jest dokupienie rozszerzenia pamięci

    To nie jest prawda. W MicroServer nie ma opcji dokupienia pamięci:
    Cytat:

    HP Dynamic Smart Array B120i Controller

    NOTE: HDD bays 1 and 2 support 6.0Gb/s SATA. HDD bays 3 and 4 support 3.0Gb/s SATA.
    NOTE: Supports RAID 0/1/10 only. No FBWC support. For FBWC, a standup Smart Array Controller card must be configured.

    Poza tym nie wyobrażam sobie przebudowy softowego RAID5 w konfiguracji 4 dyskowej (maksimum w tym serwerze) zbudowanego z dysków np. 2TB. Będzie to trwało wieki, a może nawet się nie skończy z powodzeniem. Jest to problem nawet przy sprzętowych kontrolerach RAID korzystających z dużych dysków.

    Z drugiej strony cena takiego MicroServera nie jest strasznie wygórowana. Cena startowa około 500$ nie jest zła, zwłaszcza biorąc pod uwagę standardowy 30% rabat. Niestety nie jestem w stanie tak naprawdę wymyślić mu sensownej grupy docelowej, gdyż sprzęt ten niespecjalnie góruje nad przeciętnym desktopem zbudowanym z markowych podzespołów. Jedyną zaletą jest wbudowane ILO, ale przy tego typu maszynach ma ono dość ograniczone zastosowanie jednak, bo niskopoziomowej konfiguracji raczej nie dokonuje się w nich często.

    A jeśli chodzi o webinar, to uważam, że był... strasznie nudny. Widząc temat "HPE Compute" spodziewałem się raczej informacji o platformach HPC itp. "The Machine" nawet nie wspomniano, a reklamowano jakieś MicroServery, które mogą służyć za NASa i centrum multimedialne w domu.
  • #16 15128560
    TechEkspert
    Redaktor
    @speedy9 przebudowa RAID "na żywo" to temat rzeka występujący głównie w materiałach marketingowych wielu producentów... W rzeczywistości to proces długi, czasem ryzykowny, oraz zależny od obciążenia operacjami I/O i ilości składowanych danych.
    Nawet operacja polegająca na dodaniu dysku i rozszerzeniu grupy np. RAID5/RAID/6 bez zmiany typu RAID, powinna być zakończona przez "wyrównanie" danych na fizycznych nośnikach. U niektórych producentów proces startuje automatycznie u innych można go uruchomić ręcznie. Jeszcze inni odchodzą od tradycyjnych RAID na rzecz wirtualizacji bloku (w zależności od producenta różnie się to nazywa, jednak w większości polega na dzieleniu danych na fragmenty zapisane w odpowiedni sposób na dyskach. HP 3PAR ma to w standardzie, np. w Huawei jest to RAID 2.0+).

    W rzadkich przypadkach zmiana poziomu RAID może być stosunkowo prosta i znacznie mniej problematyczna niż opisane powyżej. Przykładem może być np. RAID4 i własnościowy (NetApp) RAID DP. W przykładowej konwersji RAID4->RAIDDP występują dedykowane dyski na sumy kontrolne, co zmniejsza ryzyko procesu...

    Co do webinaru brak "The Machine" również wzbudził mój niedosyt, jednak wygląda na to że HP oddziela kampanię HPE Compute od "The Machine". Zobaczymy może pojawi się webinar dedykowany "The Machine".
  • #18 15129187
    TechEkspert
    Redaktor
    To ciekawe, zobaczymy czy plotka się potwierdzi. Mógłby to być jeden z powodów braku informacji o "The Machine" podczas webinaru. Oczywiście innym powodem może być oddzielenie kampanii compute i proliant czyli sprzętu "z półki" od koncepcyjnej wizji "The Machine".

    Przykładowo na kanale HP filmy związane z "The Machine" pojawiały się w sierpniu:
    The Machine: the Future of Computing
    czerwcu:
    HP Labs presents a peek under the hood of The Machine, the future of computing
    marcu:
    HP Labs Presents: The Machine
    oraz w grudniu i lipcu zeszłego roku:
    Meg Whitman & Martin Fink discuss The Machine at HP Discover Barcelona 2014 General Session Day 2

    Memristor research at HP Labs

    Zobaczymy czy będą pojawiały się nowe informacje dot. "The Machine".
  • #19 15147527
    Gruby__
    Poziom 16  
    No ale przyznać muszę, że design tego sprzętu jest bardzo ładny. ;)
  • #20 15185780
    TechEkspert
    Redaktor
    02.12.2015 o godzinie 11:00 kolejny webinar HPE, zobaczymy czy pojawią się nowe tematy, czy też będzie to webinar powtórkowy:
    http://hpeproliant.pl/#webinar
REKLAMA