Elektroda.pl
Elektroda.pl
X
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

NXP poszukuje przewag nad Intelem i Cavium

ghost666 05 Paź 2017 22:09 1209 0
  • NXP poszukuje przewag nad Intelem i Cavium
    Zaczyna zacierać się linia pomiędzy przetwarzaniem w chmurze, a przetwarzaniem brzegowym. NXP właśnie staje do wyścigu o zaszczytne pierwsze miejsce w tej kategorii, dlatego wystawia swoje superszybkie układy SoC z rodziny Layerscape.

    Nowy chip - LX2160A - jest w stanie odciążyć chmurowe serwery, przejmując na siebie pewną część przetwarzania danych. Dzięki zastosowaniu tego rodzaju układów "środek sieci" - typowo, operator zarządzający usługą - będzie mógł wirtualizować serwery na swoim sprzęcie i uruchamiać na nich wymagające sporej mocy obliczeniowej zadania, wykorzystując do tego jedynie wyposażenie sieciowe takie jak spotykane w typowej stacji bazowej.

    Toby Foster z NSP opowiadał, że jego zespół opracował nowy, wydajny układ z konkretnymi zadaniami dla niego w zamyśle. Po pierwsze, mają one umożliwiać nowe rodzaje wirtualizacji w sieci, po drugie poprawić poziom integracji i wydajność systemów, zwłaszcza w układach zużywających najmniej mocy. Trzecim celem opracowania nowych układów jest poprawienie funkcjonowania m.in. funkcji kryptograficznych przy pozostawieniu zużycia energii na tym samym poziomie.

    Układ LX2160A zawiera w sobie 16 wydajnych rdzeni ARM Cortex-A72, taktowanych częstotliwością ponad 2 GHz. Układ ten ma pobierać poniżej 20..30 watów. Układ ten wspiera połączenia Ethernet w standardzie 100 Gbit/s oraz posiada wbudowane interkonekty PCIe czwartej generacji.

    Czemu przetwarzanie brzegowe?

    Cały przemysł, nie wykluczając NXP, uważa, że przetwarzanie w systemach brzegowych jest tym trendem, który przejmie na siebie napędzanie rozwoju sprzętu sieciowego w najbliższym czasie. Urządzenia te mają niebawem zacząć przetwarzanie ogromnych ilości danych generowanych przez rosnące systemy Internetu Rzeczy, odciążając serwery pracujące w chmurze.

    "Jak zauważa Foster, przesuwając obliczenia z chmury na jej - w zasadzie - brzegi możliwe jest zmniejszenie opóźnień w transmisjach, poprawa przepustowości systemów sieciowych jak i poprawa ich niezawodności.

    Bob Wheeler, analityk z Linley Group, komentował: "W wielu wypadkach, takich jak np systemy dostarczania zawartości do sieci, przejście z rozwiązań w chmurze do rozwiązań brzegowych, już jak najbardziej się dzieje". Jak przewiduje analityk "Brzegowe przetwarzanie w systemach mobilnych rozpocznie się na dobre wraz z wprowadzeniem systemów 5G, co zaplanowane jest na rok 2019".

    Wyścigi o wirtualizację sieci przesuwa się do wspólnego środka, ale w dwóch kierunkach. Systemy o architekturze x86 wyszły z serwerowni i "zstępują" coraz niżej, z kolei układy z obozu ARM wspinają się od dołu.





    Wheeler, zapytany o pozycję NXP w tym wyścigu odparł, że "kluczowymi zawodnikami w tym biegu są Octeon TX produkowany przez Caviuma i Intel Xeon D". Ale zauważa on także, że układy LX2 od NXP oferować mogą "dużo lepszą wydajność energetyczną i nowocześniejsze interfejsy sieciowe - 25/50/100G Ethernet". Niestety, dopóki NXP nie rozpocznie wysyłania realnych próbek developerem, co zaplanowane jest na pierwszy kwartał przyszłego roku, dopóty nie będzie wiadomo, czy układy NXP zmienią równowagę sił na rynku.

    Zastanówmy się jeszcze o jaki rodzaj danych chodzi w systemach przetwarzania brzegowego, które miałoby być tam przesunięte ze scentralizowanych sieci. Foster podaje przykład - kamery łączące się stacjami bazowymi, które przekazują strumieniem nagrywane obrazy dalej, do chmury, gdzie działają algorytmy wykrywania i rozpoznawania twarzy, na przykład na potrzeby poszukiwania zaginionych dzieci. Stacja bazowa mogłaby wykonywać część z tych obliczeń i przesyłać do chmury jedynie wyniki swoich analiz. Jak łatwo sobie wyobrazić istotnie zmniejsza to obciążenie samej maszyny w chmurze, jak i połączenia łączącego stację bazową z chmurą.

    Dodatkowo, jak zauważa Joe Byrne, menedżer marketingu strategicznego z NXP, świat przetwarzania w chmurze i brzegowego zaczynają się rozmywać, a ich granice zaczynają się zacierać. Oznacza to, że układ SoC, nawet instalowany w środku połączenia, a nie na jego końcu, wyposażony musi być w odpowiednie narzędzia do bezpiecznej wirtualizacji usług.

    Przedstawiciele NXP dodają, że oprócz 16 rdzeni A72 i bogatego zestawu I/O w ich nowym układzie zintegrowano aż 8 MB pamięci cache, która wykorzystana może być do przechowywania wewnętrznych pakietów. To znacznie tańsze rozwiązanie niż implementacja dwóch kontrolerów DDR w układzie.

    NXP poszukuje przewag nad Intelem i Cavium


    Konkurencja

    Największa różnica pomiędzy rozwiązaniami jakie oferuje NXP i Intel to poziom integracji. Dwa osobne układy - jeden do Ethernetu, a drugi jako akcelerator systemów bezpieczeństwa - muszą zostać dodane do produkowanego przez Intela SoC - Xeona D-1548. NXP z kolei integruje te wszystkie funkcje w projektowanych przez siebie układach SoC.

    NXP poszukuje przewag nad Intelem i Cavium


    Z kolei jeśli porównamy to rozwiązanie z tym co proponuje Cavium, to od razu zobaczymy, że obie te firmy są z tego samego obozu pod flagą ARM. Jak mówi Foster, układy SoC produkowane przez NXP wyróżniają się niższym poborem mocy, dzięki produkcji ich z wykorzystaniem technologii FinFET.

    Źródło: https://www.eetimes.com/document.asp?doc_id=1332402&