Ilość danych, przetwarzanych każdego roku podwaja się. Wzrasta także ilość energii elektrycznej zużywanej przez centra danych. Czy zatem tradycyjna architektura serwerowa może zaspokoić potrzeby współczesnego biznesu?
Strategia HPE Compute to zupełnie nowe podejście. Zapomnijmy o serwerach! Pomyślmy o mocy obliczeniowej, składającej się z komponowalnych zasobów budowanych w odpowiedzi na wymagania konkretnych obciążeń w połączeniu z istniejącymi uwarunkowaniami finansowymi.
Do niedawna wszyscy producenci serwerów korzystali z takiej samej architektury. Maszyny posiadały procesor, pamięć, płytę główną, urządzenia wejścia/wyjścia, interfejsy sieciowe. Rozwój polegał na dodawaniu wydajniejszych procesorów, szybszych i pojemniejszych pamięci RAM oraz pamięci dyskowych, czy układów o większej przepustowości. Takie linearne podejście sprawdzało się, ale właśnie dotarliśmy do miejsca, w którym zaczęliśmy mocno odczuwać potrzebę zmiany.
Nie można bowiem już podnosić wydajności bez jednoczesnego zwiększania złożoności i większej konsumpcji zasobów.
Dlatego od kilku lat HPE proponuje wyspecjalizowane platformy obliczeniowe. Zostały one zaprojektowane z myślą o konkretnych zastosowaniach i mają w pełni zaspokajać potrzeby docelowej grupy użytkowników. Infrastruktura do wirtualizacji desktopów ma inną specyfikę od serwerów obsługujących systemy mission critical czy Big Data.
Właśnie dlatego trzeba zapomnieć o serwerze w dotychczasowym rozumieniu tego słowa. Lepszym podejściem jest takie projektowanie mocy czy infrastruktury obliczeniowej, żeby spełniała wymagania konkretnych typów obciążeń. Oznacza to projektowanie infrastruktury konwergentnej, zdefiniowanej przez oprogramowanie, gotowej do pracy w chmurze oraz zoptymalizowanej pod kątem konkretnego obciążenia. Co ciekawe, serwer nie zawsze musi być głównym ośrodkiem przetwarzania. Część zadań mogą wykonywać inne urządzenia np. kontrolery macierzy dyskowej czy karty graficzne. To charakterystyka zadań determinuje sposób przetwarzania, a to dopiero określa jak ma być skonstruowana maszyna, która je realizuje. Takie podejście pozwala na znaczące uproszczenie centrów danych, ograniczenie zużycia energii, przestrzeni, a w konsekwencji - na optymalizację kosztów.
Przyszłość to specjalizacja.
Właśnie dlatego HPE poza standardowymi serwerami ProLiant wprowadza na rynek nowe, wyspecjalizowane produkty – bazujące na standardowych komponentach - takie jak Moonshot, Apollo, Superdome X oraz konwergentne systemy, które stanowią zintegrowaną platformę np. SAP HANA. Przyglądając się ofercie serwerowej HP od razu widać, że jest ona wyjątkowo szeroka.
Dalszy rozwój portfolio serwerowego HPE wspieranego przez technologię Intel® będzie prowadzony dwutorowo: z jednej strony wykorzystane będzie tradycyjne linearne podejście infrastrukturalne - szybsze procesory i szybsze pamięci, ale z drugiej, ze względu na współczesne uwarunkowania zewnętrzne firma będzie konsekwentnie proponować specjalizowane rozwiązania zdolne zaspokoić specyficzne potrzeby klientów.
Jak to określiła CEO HPE, Meg Whitman, firma będzie dostarczać właściwą moc obliczeniową dla właściwych obciążeń za właściwą cenę. Oznacza to, że za każdym razem HPE chce zapewnić klientowi moc obliczeniową dopasowaną do danego obciążenia oraz do jego budżetu. Koszt przetwarzania dla użytkownika jest przecież równie ważny co wydajność i efektywność. Wszystkie te aspekty muszą być dopasowane do konkretnego przypadku.
Przy tym strategia HPE Compute nie ogranicza się wyłącznie do sprzętu. Integralną jej częścią są systemy operacyjne, systemy do przetwarzania w chmurze oparte o OpenStack oraz systemy zarządzania. Wszystkie te wyspecjalizowane rozwiązania będą zarządzane przy wykorzystaniu tych samych narzędzi. Bez względu na to jak specyficzne jest obciążenie, platforma Compute z punktu widzenia zarządzania jest jednolita.
The Machine - koniec świata klasycznych serwerów?
Ukoronowaniem podejścia Compute będzie prowadzony od pewnego czasu w HPE projekt The Machine, w którym odchodzi się od tradycyjnej architektury serwerowej, zmieniając świat przetwarzania danych, jaki znamy obecnie. To maszyna przyszłości, zbiór elementów przetwarzających, przesyłających i elementów przechowujących informacje - nie ma podziału na zasoby dyskowe i pamięć operacyjną.
The Machine jest budowana w oparciu o Memrystory - bierne układy elektroniczne posiadające pamięć. Dzięki nim można zbudować nowy paradygmat architektury komputera składającego się z puli specjalizowanych procesorów, puli pamięci uniwersalnej oraz elementów komunikacyjnych zapewniających łączność. The Machine otworzy nowe możliwości w zakresie przetwarzania, zwłaszcza w obszarze Big Data. Zapewni bardzo duże oszczędności energii i przestrzeni w porównaniu do tradycyjnych komputerów o podobnej mocy obliczeniowej.
Maszyny tego typu mają pojawić się na przełomie 2018 i 2019 roku. Wcześniej jednak pojawi się wirtualna The Machine pracująca pod kontrolą nowego systemu operacyjnego, który pozwoli wykorzystać innowacyjną architekturę. W ten sposób będzie można opracować nowe aplikacje dla The Machine, zanim trafi ona na rynek.
http://www.hpl.hp.com/research/systems-research/themachine/
Co myślicie o specjalizacji komponentów systemu IT celem jej dopasowania do potrzeb biznesu oraz przy zachowaniu jednolitego zarządzania?
Wirtualna wersja The Machine pozwoli na tworzenie oprogramowania na system, dla którego docelowy sprzęt jeszcze nie istnieje.
Czy uważacie, że obecny przyrost przetwarzanych danych oraz m.in Big Data, IoT wpłyną na ponowne zdefiniowanie architektury systemu komputerowego?
Artykuł sponsorowany.
Strategia HPE Compute to zupełnie nowe podejście. Zapomnijmy o serwerach! Pomyślmy o mocy obliczeniowej, składającej się z komponowalnych zasobów budowanych w odpowiedzi na wymagania konkretnych obciążeń w połączeniu z istniejącymi uwarunkowaniami finansowymi.
Do niedawna wszyscy producenci serwerów korzystali z takiej samej architektury. Maszyny posiadały procesor, pamięć, płytę główną, urządzenia wejścia/wyjścia, interfejsy sieciowe. Rozwój polegał na dodawaniu wydajniejszych procesorów, szybszych i pojemniejszych pamięci RAM oraz pamięci dyskowych, czy układów o większej przepustowości. Takie linearne podejście sprawdzało się, ale właśnie dotarliśmy do miejsca, w którym zaczęliśmy mocno odczuwać potrzebę zmiany.
Nie można bowiem już podnosić wydajności bez jednoczesnego zwiększania złożoności i większej konsumpcji zasobów.
Dlatego od kilku lat HPE proponuje wyspecjalizowane platformy obliczeniowe. Zostały one zaprojektowane z myślą o konkretnych zastosowaniach i mają w pełni zaspokajać potrzeby docelowej grupy użytkowników. Infrastruktura do wirtualizacji desktopów ma inną specyfikę od serwerów obsługujących systemy mission critical czy Big Data.
Właśnie dlatego trzeba zapomnieć o serwerze w dotychczasowym rozumieniu tego słowa. Lepszym podejściem jest takie projektowanie mocy czy infrastruktury obliczeniowej, żeby spełniała wymagania konkretnych typów obciążeń. Oznacza to projektowanie infrastruktury konwergentnej, zdefiniowanej przez oprogramowanie, gotowej do pracy w chmurze oraz zoptymalizowanej pod kątem konkretnego obciążenia. Co ciekawe, serwer nie zawsze musi być głównym ośrodkiem przetwarzania. Część zadań mogą wykonywać inne urządzenia np. kontrolery macierzy dyskowej czy karty graficzne. To charakterystyka zadań determinuje sposób przetwarzania, a to dopiero określa jak ma być skonstruowana maszyna, która je realizuje. Takie podejście pozwala na znaczące uproszczenie centrów danych, ograniczenie zużycia energii, przestrzeni, a w konsekwencji - na optymalizację kosztów.
Przyszłość to specjalizacja.
Właśnie dlatego HPE poza standardowymi serwerami ProLiant wprowadza na rynek nowe, wyspecjalizowane produkty – bazujące na standardowych komponentach - takie jak Moonshot, Apollo, Superdome X oraz konwergentne systemy, które stanowią zintegrowaną platformę np. SAP HANA. Przyglądając się ofercie serwerowej HP od razu widać, że jest ona wyjątkowo szeroka.
Dalszy rozwój portfolio serwerowego HPE wspieranego przez technologię Intel® będzie prowadzony dwutorowo: z jednej strony wykorzystane będzie tradycyjne linearne podejście infrastrukturalne - szybsze procesory i szybsze pamięci, ale z drugiej, ze względu na współczesne uwarunkowania zewnętrzne firma będzie konsekwentnie proponować specjalizowane rozwiązania zdolne zaspokoić specyficzne potrzeby klientów.
Jak to określiła CEO HPE, Meg Whitman, firma będzie dostarczać właściwą moc obliczeniową dla właściwych obciążeń za właściwą cenę. Oznacza to, że za każdym razem HPE chce zapewnić klientowi moc obliczeniową dopasowaną do danego obciążenia oraz do jego budżetu. Koszt przetwarzania dla użytkownika jest przecież równie ważny co wydajność i efektywność. Wszystkie te aspekty muszą być dopasowane do konkretnego przypadku.
Przy tym strategia HPE Compute nie ogranicza się wyłącznie do sprzętu. Integralną jej częścią są systemy operacyjne, systemy do przetwarzania w chmurze oparte o OpenStack oraz systemy zarządzania. Wszystkie te wyspecjalizowane rozwiązania będą zarządzane przy wykorzystaniu tych samych narzędzi. Bez względu na to jak specyficzne jest obciążenie, platforma Compute z punktu widzenia zarządzania jest jednolita.
The Machine - koniec świata klasycznych serwerów?
Ukoronowaniem podejścia Compute będzie prowadzony od pewnego czasu w HPE projekt The Machine, w którym odchodzi się od tradycyjnej architektury serwerowej, zmieniając świat przetwarzania danych, jaki znamy obecnie. To maszyna przyszłości, zbiór elementów przetwarzających, przesyłających i elementów przechowujących informacje - nie ma podziału na zasoby dyskowe i pamięć operacyjną.
The Machine jest budowana w oparciu o Memrystory - bierne układy elektroniczne posiadające pamięć. Dzięki nim można zbudować nowy paradygmat architektury komputera składającego się z puli specjalizowanych procesorów, puli pamięci uniwersalnej oraz elementów komunikacyjnych zapewniających łączność. The Machine otworzy nowe możliwości w zakresie przetwarzania, zwłaszcza w obszarze Big Data. Zapewni bardzo duże oszczędności energii i przestrzeni w porównaniu do tradycyjnych komputerów o podobnej mocy obliczeniowej.
Maszyny tego typu mają pojawić się na przełomie 2018 i 2019 roku. Wcześniej jednak pojawi się wirtualna The Machine pracująca pod kontrolą nowego systemu operacyjnego, który pozwoli wykorzystać innowacyjną architekturę. W ten sposób będzie można opracować nowe aplikacje dla The Machine, zanim trafi ona na rynek.
http://www.hpl.hp.com/research/systems-research/themachine/
Co myślicie o specjalizacji komponentów systemu IT celem jej dopasowania do potrzeb biznesu oraz przy zachowaniu jednolitego zarządzania?
Wirtualna wersja The Machine pozwoli na tworzenie oprogramowania na system, dla którego docelowy sprzęt jeszcze nie istnieje.
Czy uważacie, że obecny przyrost przetwarzanych danych oraz m.in Big Data, IoT wpłyną na ponowne zdefiniowanie architektury systemu komputerowego?
Artykuł sponsorowany.
