Elektroda.pl
Elektroda.pl
X
Elektroda.pl
W2 Usługi badań i pomiarów
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

AMD zdradza detale odnośnie 7 nm, Intel odpowiada akceleratorami AI w CPU

ghost666 04 Cze 2019 23:05 579 0
  • AMD zdradza detale odnośnie 7 nm, Intel odpowiada akceleratorami AI w CPU
    Na targach Computex 2019, jakie niedawno odbyły się na Tajwanie, AMD z pewnością przodowało w najnowszych i najciekawszych prezentacjach, zdobywając istotną przewagę nad tym, co pokazywał Intel. Firma zaprezentowała m.in. plany dostępności i ceny nowego CPU - trzeciej generacji procesorów z linii Ryzen. Mają one być produkowane w oparciu o 7 nm rdzeń Zen 2. W międzyczasie Intel zaczął już wysyłkę swoich nowych, 10-nm układów z rodziny Intel Core - Ice Lake. W ten sposób, do komputerów osobistych weszły pierwsze rdzenie z wbudowanymi akceleratorami uczenia maszynowego / sztucznej inteligencji. Podobny produkt zaprezentowała Nvidia - nową platformę EGX, dedykowaną do aplikacji AI do obliczeń na krawędzi chmury.

    Lisa Su, CEO firmy AMD (na zdjęciu po lewej), miała okazję po raz pierwszy w historii przemówić podczas otwarcia targów Computex. "Dokonaliśmy znaczących, strategicznych inwestycji w rdzenie nowej generacji, przełomowe podejście do projektowania chipletów i zaawansowane technologie procesowe, aby dostarczyć wiodące produkty 7-nm do naszego wysokowydajnego ekosystemu obliczeniowego. Jesteśmy niezwykle podekscytowani, aby otwierać Computex 2019 - wraz z naszymi partnerami z branży - przygotowując się do wprowadzenia na rynek nowej generacji komputerów stacjonarnych z procesorami Ryzen, procesorów serwerowych EPYC i kart graficznych Radeon RX" mówiła Su.

    AMD twierdzi, że ich nowy rdzeń Zen 2 oferuje do 15% szacunkowych instrukcji na takt zegara (IPC) więcej w porównaniu z poprzednią architekturą Zen. Architektura ta wykorzystana została zarówno w procesorach Ryzen, jak i EPYC. Oferuje ona również znaczne ulepszenia konstrukcyjne, w tym większe rozmiary pamięci podręcznej i przeprojektowany silnik zmiennoprzecinkowy. Dzięki nowej rodzinie procesorów AMD Ryzen, AMD wprowadziło nową kategorię procesora - Ryzen 9 - z flagowym 12-rdzeniowym/24-wątkowym Ryzen 9 3900X. Rodzinę uzupełnia osiem podstawowych modeli Ryzen 7 i sześciordzeniowy układów Ryzen 5. Nowa rodzina procesorów Ryzen będzie dostępna w handlu od 7 lipca 2019 tego roku. Ceny układów wahać się będą od 199 dolarów do 499 dolarów.

    AMD wprowadziło także nowy chipset X570 dla gniazda AM4, twierdząc, że jest to pierwszy chipset obsługujący PCIe 4.0, charakteryzującym się o 42% wyższą wydajnością obsługi pamięci masowej niż PCIe 3.09, umożliwiając wykorzystanie wydajnych karty graficzne, urządzeń sieciowych i podłączanie szybszych dysków NVMe. Partnerzy firmy: ASRock, Asus, Colorful, Gigabyte, MSI wprowadzić chcą ponad 50 nowych modeli płyt głównych. Główni producenci OEM i integratorzy systemów, tacy jak Acer, Asus, CyberPowerPC, HP, Lenovo i Maingear, powiedzieli, że będą wspierać nowe platformy w komputerach do gier, opartych na procesorach Ryzen w ciągu najbliższych kilku miesięcy.

    W zakresie produktów dla systemów serwerowych, Su prowadziła demonstrację platformy serwerowej EPYC drugiej generacji. Zaprezentowano układy 2-giej generacji z rodziny AMD EPYC, porównywanym z Intel Xeon 8280 testem porównawczym NAMD Apo1 v2.12. Przedprodukcyjny modle serwera z procesorem AMD przewyższył serwery z procesorem Intel Xeon o ponad dwa razy w testach NAMD. Oczekuje się, że rodzina procesorów serwerowych EPYC drugiej generacji zostanie wprowadzona na rynek w trzecim kwartale 2019 roku.

    Microsoft Azure poinformowało, że osiągnęło wcześniej nieosiągalny poziom wydajności obliczeniowej dynamiki płynów (CFD) przy użyciu chmurowej instancji Azure HB działającej na systemie pierwszej generacji opartym na procesorze AMD EPYC. Przepustowość pamięci EPYC umożliwiła Azure HB skalowanie aplikacji na ponad 11 500 rdzeniach, co ​​znacznie wykracza poza cel skalowania na 10 000 rdzeni, który nigdy wcześniej nie został osiągnięty.

    Intel wchodzi z AI do PC i prezentuje program innowacji Athena

    We kolejny dzień targów, wiceprezes i dyrektor generalny ds. Komputerów klienckich firmy Intel , Gregory Bryant, użył swojego przemówienia branżowego, aby ogłosić, że dziesiąta generacja procesorów Intel Core - Ice Lake są już wysyłane do klientów. Bryant mówił, że układy te wprowadza sztuczną inteligencję do PC po raz pierwszy i ujawnił pierwsze specyfikacje Project Athena.

    AMD zdradza detale odnośnie 7 nm, Intel odpowiada akceleratorami AI w CPU
    Bryant mówił: "Nikt nie chce iść na kompromis; ludzie chcą wszystkiego: żywotności baterii, wydajności, szybkości reakcji, łączności i zręczności. Naszym zadaniem jest połączenie tego wszystkiego i dostarczanie niesamowitych i zróżnicowanych komputerów, stworzonych specjalnie do tego, czego chcą ludzie. Procesory Intel Core 10-tej generacji - nasz najbardziej zintegrowany procesor - oraz Project Athena to wspaniałe przykłady tego, jak nasze inwestycje na poziomie platformy przyczynią się do zwiększenia innowacyjności w całej branży".

    Intel poinformował, że jego procesory Intel Core 10-tej generacji, oparte na technologii 10 nm, nowej architekturze rdzenia Sunny Cove i nowym silniku graficznym 1-tej generacji Iris Plus, zapewniają wysoką wydajność aplikacji AI na komputerze, dzięki technologii Intel Deep Learning Boost (Intel DL Boost ). Procesory te obejmują układy od Intel Core i3 do Intel Core i7, z maksymalnie czterema rdzeniami i ośmioma wątkami, do maksymalnej częstotliwości taktowania równej 4,1 GHz.

    Procesory te umożliwiają uzyskanie wysokiej wydajności sztucznej inteligencji na laptopach, zapewniając około 2,5-krotnie większą wydajność interfejsu AI w porównaniu z poprzedniej generacji układami, dzięki technologii Intel DL Boost. Nowa architektura graficzna zapewnia do 1 teraflopa obliczeń wektorowych dla wymagających obciążeń inferencji na bardzo mobilnych, cienkich i lekkich laptopach. Dla zastosowań AI o niskim poborze mocy na PC, wbudowany w ten SoC jest akcelerator sieci gaussowskich (GNA). Nowe procesory dostarczają także zintegrowane interfejs Thunderbolt 3 i wsparcie dla Wi-Fi, aby zapewnić prawie 3-krotnie większą szybkość transmisji bezprzewodowej. Implementacja Intela zapewnia prędkość ponad niż 1 Gbps.

    Intel udostępnił również więcej szczegółów na temat swojego programu o nazwie Project Athena, w tym specyfikacji docelowej wersji 1.0, która powinna doprowadzić do powstania pierwszej fali laptopów w drugiej połowie tego roku; zaprezentowano niektóre z pierwszych projektów do użytku konsumenckiego i komercyjnego pochodzących od partnerów, w tym m.in. od Acer, Dell, HP i Lenovo.

    Program Athena traktuje priorytetowo doświadczenia, które odzwierciedlają rzeczywiste warunki mierzone „kluczowymi wskaźnikami doświadczenia” (KEI) dla laptopów. Celem Intela w zakresie nowych wskaźników KEI jest współpraca z realnymi ekosystemem w celu napędzania innowacji, która znacząco wpływa na pracę ludzi na laptopach i rozwija te możliwości z roku na rok. Pierwsza fala wyznaczników KEI obejmuje stałą czas pracy na baterii - 16 lub więcej godzin pracy w trybie lokalnego odtwarzania wideo i 9 lub więcej godzin pracy na baterii w rzeczywistych warunkach pracy. Projekt zakłada, że a system wybudza się w mniej niż 1 sekundę. Specyfikacja obejmuje wymagania na poziomie platformy w sześciu obszarach: natychmiastowe działanie, wydajność i szybkość reakcji, inteligencja, żywotność baterii, łączność i współczynnik kształtu urządzenia.

    W ramach Projektu Athena Intel zapewnia wsparcie inżynieryjne w całym ekosystemie - z ponad 100 firmami - a także nowe narzędzia i otwarte laboratoria w celu weryfikacji i testowania laptopów.

    Nvidia na celownik bierze niską latencję i AI na krawędzi chmury

    Kontynuując tematykę AI, firma Nvidia wykorzystała również targi Computex do prezentacji swojej akcelerowanej sprzętowo platformy obliczeniowej EGX, która umożliwia realizacjię algorytmów AI o niskiej latencji na krawędzi chmury. Systemy mają być stosowane do postrzegania, rozumienia i działania w czasie rzeczywistym z danymi przesyłanymi w strumieniach, między stacjami bazowymi 5G, magazynami, sklepami detalicznymi, i fabryki. Firma stwierdziła, że ​​Nvidia EGX zostało stworzone, aby sprostać rosnącemu zapotrzebowaniu na natychmiastową, wysoką przepustowość systemów AI na krawędzi z gwarantowanym, krótkimi czasem reakcji, przy jednoczesnym zmniejszeniu ilości danych, które muszą być wysyłane do samych serwerów, znajdujących się w chmurze.

    do 2025 roku na świecie ma być do 150 miliardów czujników, maszyn i urządzeń w Internecie Rzeczy (IoT). Będą one przesyłać ciągłe dane wymagające przetworzenia, serwery brzegowe korzystające z nowej platformy będą prawdopodobnie rozpowszechniane na całym świecie w celu przetwarzania danych w czasie rzeczywistym z tych źrodeł. "Firmy wymagają większej mocy obliczeniowej na brzegu, aby przetwarzać oceany surowych danych - strumieniowanie z niezliczonych interakcji z klientami i obiektami - aby podejmować szybkie decyzje z wykorzystaniem ulepszonej sztucznej inteligencji, która może napędzać ich działalność" powiedział Bob Pette, wiceprezes i dyrektor generalny ds. obliczeń brzegowych w Nvidii. "Skalowalna platforma, taka jak Nvidia EGX, pozwala łatwo wdrażać nowe systemy, aby zaspokoić potrzeby w pomieszczeniach, w chmurze lub w obu tych sektorach".

    Platforma EGX obejmuje układy od małego modułu Nvidia Jetson Nano, który przy kilku watach mocy może zapewnić do pół biliona operacji na sekundę (TOPS) w zadaniach, takich jak rozpoznawanie obrazów, aż do pełnych serwerów Nvidia T4, dostarczając więcej niż 10 000 TOPS do rozpoznawania mowy w czasie rzeczywistym i innych zadań AI.

    Firma współpracuje z Red Hat, aby zintegrować i zoptymalizować Nvidia Edge Stack z OpenShift, korporacyjną platformą do zarządzania kontenerami z wykorzystaniem Kubernetes. Nvidia Edge Stack to zoptymalizowane oprogramowanie, które zawiera sterowniki Nvidii, wtyczkę CUDA Kubernetes, środowisko wykonawcze kontenerów CUDA, biblioteki CUDA-X oraz zindywidualizowane frameworki i aplikacje AI, w tym TensorRT, TensorRT Inference Server (TRTIS) i DeepStream. Nvidia Edge Stack jest zoptymalizowany pod kątem certyfikowanych serwerów i można go pobrać z serwerów Nvidia GPU Cloud (NGC).

    Wsparcie programistów dla Nvidia EGX obejmuje aplikacje do analizy wideo, które są idealne dla dużych sieci i inteligentnych miast, od dostawców oprogramowania, takich jak AnyVision, DeepVision, IronYun i Malong Technologies, a także szeroką ofertę oprogramowania dla służby zdrowia firm takich jak 12 Sigma, Infervision, Quantib i Subtle Medical.

    Serwery EGX są dostępne od firmowych dostawców komputerów takich jak ATOS, Cisco, Dell EMC, Fujitsu, Hewlett-Packard Enterprise, Inspur i Lenovo. Są również dostępne u głównych producentów systemów serwerowych i IoT, w tym Abaco, Acer, ADLINK, Advantech, ASUS, Curtiss-Wright, GIGABYTE i Wiwynn.

    Wśród pierwszych użytkowników tych systemów znajduje się ponad 40 firm i organizacji (w tym logistyka BMW Group); czerpiąc z Nvidia EGX Edge Computing i platform robotycznych Isaac, są oni w stanie przenieść AI bezpośrednio na krawędź swoich procesów logistycznych i obsłużyć coraz bardziej złożoną logistykę z wysoką wydajnością w czasie rzeczywistym.

    Źródło: https://www.eetimes.com/document.asp?doc_id=1334764

    Fajne! Ranking DIY
  • W2 Usługi badań i pomiarów