Elektroda.pl
Elektroda.pl
X
Elektroda.pl
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości

ghost666 20 Paź 2020 11:25 675 0
  • DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości
    Karta Nvidia Bluefield-2X
    Nvidia poinformowała o wprowadzeniu nowej klasy procesorów - DPU, czyli, jednostkę przetwarzania danych. Zasadniczo jest to karta interfejsu sieciowego z wbudowanymi rdzeniami ARM CPU, dedykowana do odciążenia i przyspieszenia zadań sieciowych, pamięci masowej i bezpieczeństwa, które wcześniej byłyby wykonywane na innym procesorze . DPU ostatecznie zastąpić ma kartę sieciową w systemach centrów danych.

    Konferencja GTC Nvidii zawsze przynosi lawinę futurystycznych zapowiedzi w zakresie systemów AI. Tegoroczna jesienna impreza, w której wirtualnie weźmie udział 30 000 uczestników, nie jest wyjątkiem, ponieważ dyrektor generalny firmy, Jensen Huang, ma zaprezentować wiele ciekawych rozwiązań, od nowego typu procesora do centrów danych po najtańszy na rynku zestaw programistyczny AI, a także od sztucznej inteligencji do wideokonferencji po zupełnie nowy superkomputer dla branży medycznej.

    DPU dla centrów danych

    We wstępnym briefingu prasowym, poprzedzającym prezentację Jensena Huanga, Manuvir Das, szef działu informatyki dla przedsiębiorstw w firmie Nvidia, poinformował, że centra danych przeszły przez ostatnią dekadę ogromną zmianę, w wyniku której wiele funkcji wykonywanych sprzętowo, takich jak bezpieczeństwo sieci itp. zostało obecnie przerzucone na software i przeniesione w obręb samego serwera aplikacji, zazwyczaj wewnątrz hiperwizora.

    „Wraz z rozwojem kart sieciowych również silniki przyspieszające dla różnych rodzajów działań wejścia i wyjścia, takich jak RDMA, również wbudowane w te układy” powiedział. „Spowodowało to zwiększenie obciążenie procesora x86 danego serwera, pozostawiając mniej miejsca na uruchamianie na nim aplikacji”.

    DPU Bluefield-2 jest dostarczane w postaci karty PCIe i łączy w sobie Mellanox ConnectX-6 Dx SmartNIC z 8-bitowymi 64-bitowymi rdzeniami ARM Cortex-A72 i akceleratorami 2xVLIW na tym samym krzemie. Pojedynczy DPU Bluefield-2 może dostarczać te same usługi dla centrum danych, które mogą zużywać do 125 rdzeni procesora. To uwalnia cenne rdzenie procesora do obsługi szerszej gamy innych aplikacji, wskazał Das.

    Nvidia poinformowała również, że Bluefield-2X, który posiada dodatkowo akcelerator graficzny AI z rodziny Ampere, pozwala dodać 60 TOPS dla akceleracji AI, które można wykorzystać do inteligentnej analizy tego, co dzieje się w sieci. Na przykład system taki może być używany do wykrywania włamań, gdzie sztuczna inteligencja może odróżnić zachowania normalne od nienormalnych w ruchu sieciowym, tak aby wszystko, co nienormalne, mogło być proaktywnie identyfikowane i blokowane.

    Prezentacja Huanga przedstawia również mapę drogową dla rodziny Bluefield. Bluefield 3 będzie miał mocniejszy procesor ARM i mocniejsze akceleratory. Modele 2X i 3X posiadają układy GPU z rodziny Ampere na tej samej karcie, dzięki czemu oferują odpowiednio 60 i 75 TOPS przyspieszenia dla obciążeń AI. Bluefield 4, spodziewany około 2023 roku, będzie oferował aż do 400 TOPS akceleracji GPU zintegrowanej z tym samym krzemem, co DPU.

    Chociaż procesory ARM są w dużej mierze obecne w DPU, rozwój tego produktu rozpoczął się kilka lat temu w Mellanox, a wszelkie powiązania z ostatnimi wiadomościami, że Nvidia ma nabyć ARM, są całkowicie przypadkowe, powiedział Das.„Nie chodzi tylko o przeniesienie obciążenia, chodzi o akcelerację” tłumaczy Das. „To podstawowa zasada naszej DPU. Używamy rdzeni ARM, ponieważ uważamy, że w tym kontekście są to najlepsze procesory, jakie można mieć w urządzeniu ”.

    DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości
    Zestaw deweloperski Nvidia Jetson Nano
    Edge AI coraz potężniejsze

    Nvidia przedstawiła nowy zestaw deweloperski, Jetson Nano z 2 GB pamięci RAM. To nowy podstawowy moduł, jeśli chodzi o świat AI na krawędzi. Zestaw ten będzie dostępny w cenie 59 dolarów i jest przeznaczony do uczenia sztucznej inteligencji. Będzie dostępny pod koniec tego miesiąca.

    Podczas gdy pierwsze cztery z pięciu lat programu Jetson skupiały się na profesjonalistach i entuzjastach, wprowadzenie Jetson Nano 18 miesięcy temu zdemokratyzowało sztuczną inteligencję, udostępniając ją znacznie szerszej publiczności, powiedział Deepu Talla, wiceprezes i dyrektor generalny ds. Przetwarzania brzegowego w Nvidia.„W ciągu pierwszych pięciu lat obecności na rynku mdułów Jetson zaczynaliśmy od zera i doszliśmy do 200 000 deweloperów” powiedział. „W ciągu ostatnich 18 miesięcy dodaliśmy kolejnych 500 000 programistów, a także zaobserwowaliśmy, że aktywność tych programistów wzrosła 10-krotnie… Myślę, że jesteśmy teraz w przełomowym momencie, w którym każdy inżynier oprogramowania na świecie chce przekwalifikować się i stać się inżynierem AI. Każdy student uniwersytetu na wydziale inżynieryjnym, czy to elektrotechniki, czy informatyki, chce posiąść nowe umiejętności z zakresu systemów AI. Zaczynamy też widzieć, że licealiści, zwłaszcza w obszarze STEM, chcą się uczyć sztucznej inteligencji” opowiada Talla.

    Dla studentów i początkujących użytkowników sztucznej inteligencji Nvidia zapewni bezpłatny program szkoleniowy i certyfikacyjny wraz ze społecznością Jetson zajmującą się projektami, poradnikami i filmami przesłanymi przez programistów. Pod koniec kursu kandydaci muszą przedłożyć projekt AI, który jest oceniany. Pozytywna ocena oznacza uzyskanie certyfikatu Nvidia Deep Learning Institute.

    Futurystyczna komunikacja

    Nvidia wykorzystała konferencję również do zaprezentowania otwartej bety dla zapowiedzianej wcześniej platformy Omniverse, którą Huang nazwał „początkiem holodecka Star Trek, który wreszcie został zrealizowany”. Omniverse to platforma do symulacji i współpracy w 3D, która umożliwia zdalnym zespołom współpracę przy projektach opartych na grafice 3D. System ten wykorzystany ma być w sektorach takich jak architektura, inżynieria, animacja i nie tylko. Otwarta Beta jest następstwem całorocznego programu wczesnego dostępu, w ramach którego 40 firm przekazało Nvidii swoje opinie na temat nowego oprogramowania.

    Omniverse wykorzystuje szeroko stosowany przez Pixar format Universal Scene Description (USD) do wymiany między aplikacjami 3D, a także fotorealistyczne renderowanie w czasie rzeczywistym, modele fizyczne, materiałowe i interaktywne przepływy między wiodącymi w branży programami 3D.

    Nvidia ogłosiła również wprowadzenie do swojej oferty nowego zestawu, opartych na chmurze, technologii sztucznej inteligencji dla dostawców połączeń wideo. Pakiet o nazwie Nvidia Maxine wykorzystuje sztuczną inteligencję do korygowania obrazu uczestników, dzięki czemu wyglądają, jakby zawsze patrzyli w kamerę. System tworzy wideo w super rozdzielczości ze strumieni o niższej jakości, sztucznie dostosowuje oświetlenie i nie tylko.

    „Wielu z nas, gdy prowadzimy rozmowy przez cały dzień, ma wiele otwartych okien” powiedział Richard Kerris, dyrektor generalny ds. Mediów i rozrywki w firmie Nvidia. „Patrzymy na różne rzeczy i tak naprawdę nie nawiązujemy kontaktu wzrokowego, który powinniśmy nawiązać z osobą, z którą rozmawiamy. Korzystając ze sztucznej inteligencji, możemy zrekonstruować twarz i zapewnić kontakt wzrokowy, dzięki czemu mamy lepsze wrażenie z rozmowy”.

    Maxine może również zmniejszyć przepustowość potrzebną do połączeń wideo. Zamiast po prostu przesyłać strumieniowo cały film, sztuczna inteligencja Maxine może analizować ruchy twarzy mówiącej osoby i przesłać tylko te dane przez Internet. Następnie twarz osoby jest rekonstruowana na podstawie przesłanych danych na drugim końcu łącza. Technologia ta może zmniejszyć wymaganą przepustowość dla sygnałów wideo do jednej dziesiątej tego, co jest obecnie wymagane do przesyłania strumieniowego H.264.

    DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości
    Platforma Nvidia Maxine dla dostawców połączeń wideo ma szereg funkcji, od „udawania” pozycji osoby, aby wyglądała, jakby patrzyła na wprost, po dziesięciokrotne zmniejszenie wymaganej przepustowości o współczynnik 10.


    Inne funkcje dla dostawców połączeń wideo obejmują wykorzystanie Jarvis, konwersacyjnej sztucznej inteligencji Nvidii, do tłumaczenia między językami w czasie rzeczywistym, dzięki czemu można prowadzić wideokonferencje z osobą mówiącą innym językiem.

    Wczesny dostęp do Maxine już się rozpoczął. Jak mówi Kerris Nvidia ma już zakontraktowanych dostawców połączeń wideo, którzy są bardzo podekscytowani wprowadzeniem tej technologii w ciągu najbliższych kilku miesięcy do swoich usług.

    Innowacje w opiece zdrowotnej

    Nvidia ma również kilka ważnych ogłoszeń w dziedzinie opieki zdrowotnej. Firma uruchomiła Clara Discovery - zestaw narzędzi obejmujący wstępnie wyszkolone modele sztucznej inteligencji i frameworki dedykowane do aplikacji do obliczeniowego w sektorze modelowania nowych leków. „Odkrywanie nowych leków jest wielkim wyzwaniem naszych czasów i nie ma lepszego czasu, abyśmy mogli ulepszyć ten proces; to wciąż jest bardzo złożone” powiedziała Kimberly Powell, wiceprezes i dyrektor generalny ds. opieki zdrowotnej w firmie Nvidia.

    Analiza danych z sekwencjonowania genomu, zrozumienie struktury białek, wybór związków chemicznych w celu ich zbadania i symulacji ich zachowania to wymagające dużej mocy obliczeniowej części procesu odkrywania leku. Clara Discovery wykorzystuje dane obrazowe, radiologiczne i genetyczne do tworzenia aplikacji AI, pozwalającej na przyspieszenie tego procesu. Clara zawiera również Bio-Megatron, nowo opracowany model językowy opracowany specjalnie dla tekstów i artykułów biomedycznych. Bio-Megatron zostanie wdrożony do celów badawczych, takich jak wyszukiwanie literatury i interpretowanie nieustrukturyzowanych notatek klinicznych od lekarzy.

    DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości
    Uczenie federacyjne, zastosowane w nowym projekcie firmy Nvidia i Massachusetts General Brigham Hospital, umożliwia szkolenie medycznego modelu AI do leczenia Covid-19, zapewniając jednocześnie, że dane pacjenta nie opuszczają szpitala.


    Nvidia nawiązała współpracę ze szpitalem Massachusetts General Brigham Hospital w celu opracowania nowego modelu dla sztucznej inteligencji, który określa, czy osoba pojawiająca się na izbie przyjęć z objawami Covid-19 będzie potrzebowała dodatkowego tlenu po godzinach, czy nawet dniach od wstępnego badania. Model Corisk łączy obrazowanie medyczne z innymi danymi dotyczącymi zdrowia pacjenta, aby przewidzieć, jakiego poziomu tlenu pacjent będzie potrzebował podczas hospitalizacji.

    Wykorzystując technikę uczenia federacyjnego, opracowaną 18 miesięcy temu we współpracy z King’s College London, do szkolenia modelu Corisk wykorzystano dane z 20 różnych szpitali na całym świecie. Zastosowana technika uczenia federacyjnego dzieli się globalnym modelem ze szpitalami, które szkolą model lokalnie z wykorzystaniem swoich lokalnych danych. Następnie udostępniają częściowe wagi modelu, które aktualizują model globalny. Dzięki temu dane pacjentów nie opuszczają szpitala. Co ważne, technika ta oznacza, że model można trenować z wykorzystaniem danych pochodzących od różnych grup pacjentów, przy użyciu różnych typów sprzętu do obrazowania, bez narażania ich prywatności. Powstały model osiągnął 0,94 AUC w zaledwie 2 tygodnie i zostanie wdrożony jako część zestawu narzędzi Clara w nadchodzących tygodniach.

    Cambridge-1

    Nvidia nawiązała współpracę z gigantem farmaceutycznym GSK w Wielkiej Brytanii, gdzie GSK zbudowało pierwsze w branży laboratorium AI, poświęcone odkrywaniu nowych leków i szczepionek. Zarówno naukowcy zajmujący się danymi z GSK, jak i Nvidia będą pracować w londyńskim laboratorium, które zainwestowało już w kilka systemów Nvidia DGX-A100.

    Nvidia poinformowała, że zainwestuje 40 milionów funtów (około 51 milionów dolarów) w nowy superkomputer do celów AI w Wielkiej Brytanii. Cambridge-1 będzie najpotężniejszym superkomputerem w Wielkiej Brytanii, pracującym z wydajnością do 400 PFLOPów. Oparty na osiemdziesięciu modułach DGX-A100, znajdzie się w pierwszej trzydziestce rankingu superkomputerów TOP500 oraz w pierwszej trójce na liście Green 500. Planowane jest uruchomienie go do końca 2020 roku.

    DPU - nowa klasa układów do przetwarzania danych od Nvidii i inne nowości
    Cambridge-1 używać będzie osiemdziesięciu systemów Nvidia DGX-A100 do uzyskania łącznie 400 PFLOPów dla obliczeń AI.


    Jest to oddzielny superkomputer od tego, który Nvidia będzie budować w siedzibie ARM w Cambridge, w ramach ogłoszenia przejęcia Arm (Cambridge-1 będzie oparty na architekturze DGX SuperPOD, którego procesory są z kolei oparte na architekturze x86). Cambridge-1 będzie używany przez przemysł do rozwiązywania problemów związanych z opieką zdrowotną i data science, a także przez uniwersytety i startupy. Nvidia planuje, że Cambridge-1 będzie częścią centrum doskonałości AI, które powstaje właśnie w Cambridge, a które ostatecznie rozszerzyć się ma o więcej superkomputerów i dotrzeć do większej liczby branż w całej Wielkiej Brytanii.

    Źródło: https://www.eetimes.com/nvidia-presents-the-dpu-a-new-type-of-data-center-processor/

    Fajne! Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 napisał 10084 postów o ocenie 8352, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.
  • CSICSI