Elektroda.pl
Elektroda.pl
X
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI

ghost666 10 Paź 2019 19:12 231 0
  • Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Firma iWave zaprezentowała zestaw deweloperski dla opartego na Linuksie modułu iW-Rainbow G30M wykorzystującego układ Zynq Ultrascale+ z obsługą nowej platformy AI Xilinx. Xilinx tworzy obecnie liczne powiązaną technologię sztucznej inteligencji dla swoich nowych układów – produkowanych w technologii 7 nm systemów Versal, które pracować będą pod Linuxem.

    iWave Systems wprowadziło zestaw deweloperski iW-Rainbow G30D Zynq Ultrascale + MPSoC dla swojego modułu obliczeniowego iW-Rainbow G30M, który działa pod Linuksem na ARM Cortex-A53 w FPGA Xilinx Zynq UltraScale + MPSoC. Prezentujac nowy zestaw, iWave skupiło się głównie na zdolności platformy do testowania w systemie algorytmów AI od Xilinxa, którą nazywa Xilinx/Deephi Core. Platforma AI Xilinx, która rozciąga się od krawędzi do centrum systemów analizy danych, opiera się w dużej mierze na niedawnym przejęciu wiodącej firmy AI DeePhi przez Xilinxa.

    iW-Rainbow G30M

    W dalszej części przyjrzymy się bliżej platformie AI Xilinx i temu, jak Xilinx wykorzystuje niektóre z tych technologii w swoich nowych 7-nm, podwójnych układach AAP/FPGA takich jak Versal ACAP. Xilinx zaprezentował niedawno nowe układy Versal na Xilinx Developer Forum.

    Również w tym samym momencie Xilinx zaprezentował nową platformę programistyczną Vitis, dedykowaną dla jego układów programowalnych, która wykracza poza zakres tego artykułu i nie będzie tutaj szczegółowo opisywana. Oparte na bibliotekach open source, IDE Vitis ma być prostszą alternatywą dla Vivado Design Suite. Platforma zawiera komponent Vitis AI, które wydaje się być ukierunkowany na wykorzystanie na platformie Versal.

    iW-Rainbow G30D

    Nowy zestaw deweloperski Zynq Ultrascale+ z płytą bazową iW-Rainbow G30D stanowi rozszerzenie modułu iW-Rainbow G30M pracującego pod system operacyjnym Linux 4.14. Moduł G30M działa na czterordzeniowym Zynq UltraScale+ (z czetrema rdzeniami ARM Core-A53) od 192k do 504k komórkami logicznymi układu programowalnego (FPGA). Moduł jest dostarczany z 4 GB pamięci DDR4, 1 GB pamięci dedykowanej dla FPGA oraz 8 GB pamięci eMMC. Oprócz innych funkcji wyszczególnionych poniżej iW-Rainbow G30M iWave podaje, że układy te działają w zakresie temperatur od -40°C do 85°C.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI


    Płyta bazowa iW-Rainbow G30D ma wymiary 140 mm x 130 mm. Moduł zawiera dwa porty GbE i złącze SFP+. Znajduje się tam również pojedyncze porty DisplayPort, host USB 2.0, USB typu C i porty konsoli do debugowania. Wewnętrzne interfejsy IO obejmują SD, CAN, JTAG oraz 20-pinowe złącza rozszerzeń.

    Podwójne złącza FMC HPC zapewniają wyprowadzenie linii z układu FPGA, w tym linie LVDS, 14 szybkich nadajników-odbiorników, podwójne 12-pinowe złącze PMOD oraz zlącza SATA, PCIe x4 i inne. Płytka posiada zegar czasu rzeczywistego z podtrzymaniem bateryjnym oraz złącze zasilania 12 V.

    Platforma AI Xilinx

    Informacja o serii iW-Rainbow G30D prowadzi do strony internetowej dla platformy Xilinx AI, którą nazywa „Xilinx / Deephi Core”. Platforma ta została w dużej mierze opracowana w oparciu o własność intelektualną firmy Deepilhi Technology Co. Po jej przejęciu przez Xilinxa w lipcu 2018 roku. DeePhi był start-upem z Pekinu z doświadczeniem w systemach uczenia maszynowego, głębokiej kompresji danych, oraz optymalizacji na poziomie systemów dla sieci neuronowych.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Schematy architektury Xilinx AI Platform (po lewej) i Xilinx Edge AI Platform (po prawej).


    Według iWave algorytmy Deephi mogą wykonywać krytyczne zadania w czasie rzeczywistym bezpośrednio na FPGA w Zynq UltraScale+. iW-Rainbow G30M obsługuje „ogromną gamę rdzeni Deephi” do zastosowań Edge AI (systemy AI na krawędzi chmury) i klasycznych systemów AI, a nowy zestaw modułów deweloperskich umożliwia teraz łatwiejsze prototypowanie technologii przy użyciu tych układów, jak mówi firma.

    Baidu EdgeBoard

    Zynq Ultrascale+ wcześniej znalazł zastosowanie jako procesor AI w module EdgeBoard Baidu, który został zaprezentowany w styczniu. Jednak niedawno wydany EdgeBoard korzysta z własnych algorytmów Baidu Brain AI.

    Technologia „rzadkiej sieci neuronowej” Deephi wykorzystuje technologię przycinania sieci konwergentnej (CNN) i algorytm głębokiej kompresji w celu zmniejszenia rozmiarów algorytmów AI dla aplikacji brzegowych (Edge AI). Firma iWave twierdzi, że „algorytmy Deephi oparte na wnioskowaniu w czasie rzeczywistym o bardzo niskim opóźnieniu oferują akcelerację AI/ML i wykrywanie obrazu/pozycji. Inne zastosowania obejmują intuicyjny system ADAS do pomocy motoryzacyjnej, konserwację predykcyjną w automatyce przemysłowej oraz inteligentną opiekę zdrowotną do monitorowania i diagnozowania pacjentów w czasie rzeczywistym”.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Planowana przez Xilinxa integracja technologii Deephi.


    Jak wyjaśniono w analizach dotyczących zakupu DeePhi, zabieg ten pozwolił zoptymalizować algorytmy AI dla Zynq 7000 przed przejściem do Zynq UltraScale+. Jak zasugerowano na powyższym wykresie, technologia Deephi, w tym przycinanie, kwantyzator, kompilator, środowisko uruchomieniowe, modele oraz IP dla FPGA, stała się częścią tego, co później będzie sprzedawane jako Xilinx AI Platform. System tworzy prawie całą krawędź i stronę embedded systemu, która nazywa się z kolei platformą Xilinx Edge AI.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Architektura DPU platformy Xilinx Edge AI (po lewej) i dostępne modele platformy AI Xilinx(po prawej).


    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Jeden z nowych komponentów IP dla FPGA na platformie Xilinx Edge AI nazywa się Deep-learning Processing Unit (DPU). Blok sprzętowy jest zoptymalizowany do pracy z układami FPGA Xilinx w celu przyspieszenia algorytmów AI przy niskich opóźnieniach.

    Platforma Xilinx Edge AI obsługuje platformy sztucznej inteligencji, takie jak m. in. TensorFlow, Caffe czy Darknet. Xilinx wymienia ponadto 18 dostępnych modeli rozpoznawania obiektów, twarzy, pieszych, ADAS (motoryzacyjnych), klasyfikacji, wykrywania, szacowania i lokalizacji (patrz tabela po lewej stronie).

    Platforma Xilinx Edge AI zawiera gotowy do uruchomienia na systemie Linux DNNDK (Deep Neural Network Development Kit – zestaw deweloperski dla sieci neuronowej do głębokiego uczenia) do wdrażania wnioskowania z wykorzystaniem AI na platformach Xilinx Edge. Platforma ta wyposażona jest w lekkie API C/C++. DNNDK wyposażone jest w narzędzie DEEP ComprEssioN (DECENT). „Może on zmniejszyć złożoność modelu od 5x do 50x przy minimalnym wpływie na dokładność”, mówi Xilinx. Dostępny jest także kompilator dla sieci neuronowej (DNNC), środowisko wykonawcze sieci (N2Cube) i profiler.

    Wersja Xilinx AI Platforma dla centrów danych nie jest wyposażona w DPU, ale zamiast tego dodaje architekturę xDNN (Xilinx Deep Neural Network Inference – interfejs Xilinxa dla Głębokich Sieci Neuronowych) pracującą na najniższym poziomie IP FPGA. Obsługiwany przez powiązany kompilator xfDNN i środowisko wykonawcze, xDNN mapuje szereg struktur sieci neuronowych na wysokiej klasy układzie VU9P - Virtex UltraScale+, który dedykowany jest dla centrów danych.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Versal ACAP

    W październiku ubiegłego roku firma Xilinx ogłosiła wprowadzenie na rynek nowej rodziny procesorów Versal ACAP (platforma adaptacyjnego przyspieszania obliczeń). Heterogeniczny, Versal jest „pierwszą platformą, która łączy programowalność oprogramowania z akceleracją sprzętową specyficzną dla domeny i wbudowaną adaptowalność poprzez architekturę ACAP”, tłumaczy Xilinx.

    Xilinx Versal

    Zbudowany w 7-nanometrowym procesie FinFET (w porównaniu z 16 nm dla Zynq UltraScale+), Versal będzie składał się z sześciu osobnych procesorów. Dwa z nich zostaną wprowadzone do handlu jeszcze przed końcem tego roku. Początkowe modele – Versal Prime i Versal AI Core, które są skierowane głównie do centrum danych i wysokiej klasy urządzeń AI – trafiły już do programu sampli.

    Układy z serii Versal Prime, Premium i HBM są przeznaczone do wysokiej klasy centrów danych i aplikacji sieciowych. Serie AI Core, AI Edge i AI RF są ukierunkowane na urządzenia sieciowe i brzegowe z obsługą AI i dodają blok AI Engine zaprojektowany do wnioskowania AI w systemach o małych opóźnieniach.

    Wszystko wskazuje, że silnik AI jest częściowo oparty na technologii platformy AI Deephi i Xilinx Edge. Zawiera on procesory wektorowe VLIW/SIMD taktowane zegarem 1,3 GHz, które można rozmieścić w strukturze macierzowej. Rdzenie komunikują się ze sobą i innymi modułami z przepustowością kilku terabajtów na sekundę.

    Jak szczegółowo opisano w materiałach Xilinxa. Dowiadujemy się stamtąd, że wszystkie procesory Versal wyposażone są w dwa rdzenie ARM Cortex-A72 taktowane zegarem 1,7 GHz, które obsługują uruchamianie systemu operacyjnego Linux. Dwa dodatkowe rdzenie ARM Cortex-R5 taktowane zegarem 750 MHz obsługiwane są z kolei przez FreeRTOS.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Schemat blokowy układu Versal.


    Programowalne komponenty logiczne w tym układzie jest określany nie jako FPGA, ale jako Versal Adaptable Engines (adaptowalne silniki Versal). Logika obejmuje tutaj „drobnoziarniste przetwarzanie równoległe, agregację danych i łączenie czujników”. Oferuje się także programowalną hierarchię pamięci z „wysoką przepustowością i małym opóźnieniem w przesyłaniu danych między silnikami a I/O”, podaje Xilinx.

    Adaptowalne silniki zapewniają do czterech razy większą gęstość na blok logiczny, prawdopodobnie w porównaniu z UltraScale+. Od logiki programowalnej oddzielny jest blok rdzeni DSP o maksymalnym taktowaniu do 1 GHz. Został on zaprojektowany do przyspieszania łączności bezprzewodowej czy uczenia maszynowego. Jak wspomniano, wybrane modele zapewniają również silnik AI.

    Łączenie tych wszystkich elementów w sieć to na mikroukładzie wymaga przepustowości wielu terabitów na sekundę. System sieci w układzie (Network-on-Chip, NOC) mapuje dostęp do wszystkich zasobów w celu łatwiejszego programowania. Umożliwia także łatwą zamianę jąder i łączność między różnymi modułami w układzie.

    NOC współpracuje z komponentem „Shell”, który zawiera kontroler zarządzania platformą, co oferuje funkcje bezpieczeństwa i rozruchu. Obejmuje to również skalowalny podsystem pamięci oraz interfejsy hosta i I/O. Versal współpracuje z nową zunifikowaną platformą oprogramowania Vitis i jest wstecznie kompatybilny z Zynq UltraScale+.

    Pierwsze dwie wersje Versal to obecnie udokumentowane już wersje Versal Prime i Versal AI Core. Model AI Core z obsługą AI Engine; jest wyposażony w 256 KB wbudowanej pamięci RAM z algoirytmami ECC i ponad 1,9 miliona komórek logicznych dla systemu. W systemie znajduje się również ponad 1900 zintegrowanych rdzeni DSP zoptymalizowanych pod kątem precyzji w obliczeniach na wartościach zmiennoprzecinkowych, o niskim opóźnienia.

    Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI Moduł z Zynq Ultrascale+ z wsparciem dla Xilinx AI
    Architektura Xilinx Versal (po lewej) i zestaw ewaluacyjny Versal AI Core VCK190 (po prawej).


    Istnieje już zestaw ewaluacyjny Versal AI Core VCK190 z systemem Linux. AI Core jest przeznaczony dla bardzo zaawansowanych systemów, takich jak infrastruktura 5G, motoryzacja i centra danych. Istnieją jednakże mniejsze platformy, dedykowane do pracy jako systemy wbudowane i na krawędzi.

    Źródło: http://linuxgizmos.com/zynq-ultrascale-board-supports-new-xilinx-ai-platform/

    Fajne! Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 napisał 9414 postów o ocenie 7047, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.