Elektroda.pl
Elektroda.pl
X
IGE-XAO
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Nowe układy ASIC do uczenia maszynowego

ghost666 19 Lis 2019 19:11 438 0
  • Nowe układy ASIC do uczenia maszynowego
    Firma Eta Compute opracowała właśnie wysokowydajny układ ASIC oraz nowe oprogramowanie dla sztucznej inteligencji (AI) oparte na sieciach neuronowych, które ma pozwolić rozwiązać problemy urządzeń brzegowych i mobilnych bez użycia zasobów dostępnych w chmurze.

    Przyszłe urządzenia mobilne, które są stale aktywne w ekosystemie urządzeń Internetu Rzeczy, wymagają przełomowych rozwiązań, które oferują wysoką moc przetwarzania, aby umożliwić wykorzystanie systemów AI z niskim zużyciem energii w aplikacjach, takich jak rozpoznawanie mowy i czy widzenie maszynowe.

    Są to właśnie typy aplikacji, dla których właśnie firma Eta Compute zaprojektowała nowy ECM3531.

    Układ ten jest oparty na procesorach DSP z rdzeniem ARM Cortex-M3 oraz układ NXP Coolflux. Wykorzystuje ściśle zintegrowany procesor DSP i architekturę mikrokontrolera w celu znacznego zmniejszenia mocy wymaganej dla systemu uczenia maszynowego w aplikacji wbudowanej. Ten SoC zawiera także interfejs dla przetwornika analogowo-cyfrowego (ADC) i wysokowydajne obwody PMIC. Układ zawiera także interfejsy komunikacyjne takie jak I²C, I²S, a także komponenty takie jak GPIO, RTC, PWM, POR, BOD oraz pamięci SRAM i Flash. To moduły typowe dla mikrokontrolerów.

    Układ ten wykorzystuje opatentowaną architekturę sprzętowa (DIAL), która jest połączona z w pełni konfigurowalnymi algorytmami opartymi na splotowych sieciach neuronowych (CNN), aby wykorzystywać algorytmy wnioskowania, nie zużywając więcej niż kilkaset mikrowatów.

    Nowy procesor o nazwie Tensai może być używany z popularnym oprogramowaniem, takim jak TensorFlow czy Caffe. Rozwiązanie to może obsługiwać szeroką gamę aplikacji w aplikacjach takich jak przetwarzanie audio, wideo i innych sygnałów. Kluczowym aspektem nowego układu jest to, że idealnie nadaje się do systemów w których pobierana moc jest ściśle ograniczona, takich jak rynki bezzałogowych pojazdów latających, urządzenia Internetu Rzeczy czy elektronika noszona.

    Układ ECM3531SP zawiera wstępnie zaprogramowane bloki do maszynowego rozpoznawania mowy wraz z możliwością uczenia algorytmu oraz aplikacje dedykowane do rozpoznawania słów kluczowych. ECM3531PG jest również wstępnie przygotowany do współpracy z fotopletyzmogramem (PPG). Moduł ECM3531SF obejmują z kolei algorytmy uczenia maszynowego do syntezy danych z czujników żyroskopowych, magnometru i akcelerometra (moduł pokazano na zdjęciu po lewej stronie).

    Opatentowana architektura sprzętowa jest połączona w układzie z w pełni konfigurowalnymi algorytmami stworzonymi przez Eta Compute i opartymi na różnych implementacjach sieci neuronowych, w celu realizacji operacji inferencji (wnioskowania), zużywając bardzo niewiele energii. Firma Eta dostarcza oprogramowanie jądra m.in. dla splotowych sieci neuronowych na DSP Coolflux, które są dużo lepiej skalowalne w porównaniu z innymi sieciami neuronowymi i które zmniejszą o dodatkowe 30% pobór mocy dzięki wykorzystaniu technologii asynchronicznej.

    Nowe układy ASIC do uczenia maszynowego
    Właściwości obliczeniowe Tensai oferują 30-krotną redukcję poboru mocy w specyficznym benchmarku klasyfikacji opartym na sieci CNN wykorzystanej do klasyfikacji obrazów - w przeciwieństwie do innych mikrokontrolerów klasy Cortex-M7. Moduł Eta Compute osiągnął pobór zaledwie 0,04 mJ na obraz z 8 milionów operacji (porównanie pokazano na wykresie po prawej stronie).

    Wysoka sprawność energetyczna nowego ASIC i oprogramowanie CNN opracowane przez Eta Compute pozwalają uniknąć potrzeby wielu próbek szkoleniowych dla szeregu aplikacji, w których ilość zasobów (zarówno pamięci, jak i obliczeń) jest ograniczona. Niedawnym punktem odniesienia osiągniętym przez Eta Compute była poprawa o 2..3 rzędy wielkości wydajności modelu w porównaniu z różnymi wariantami sieci neuronowych do rozpoznawania słów kluczowych, zużywając tylko 2 mW mocy do działania układu.

    W przypadku aplikacji wykrywających, w szczególności czujników ruchu i czujników środowiskowych, metodologia obliczeń Eta umożliwia koncentratorom czujników wykonywanie bardziej rozbudowanych algorytmów czujników, dostarczając dane i aktualizacje w czasie rzeczywistym z urządzeń poprzez sieci mobilne i Internetu Rzeczy (IoT). Współpraca z Rohm Semiconductor umożliwiła również opracowanie bezprzewodowej sieci wszechobecnej (Wi-SUN), która jest kompatybilna z węzłami czujników. Węzły będą wykorzystywać technologię czujników firmy Rohm i mikrokontrolery Eta Compute o niskim poborze mocy, aby zaoferować kompletne rozwiązania dla inteligentnych sieci i sieci Internetu Rzeczy dla inteligentnych miast. Zostaną one zoptymalizowane do częstej komunikacji o niskim opóźnieniu, która pochłania mniej niż 1 μA podczas spoczynku i, co ważniejsze, tylko 1 mA podczas działania algorytmu wykrywania.

    Eta Compute uważa, że ​​technologia sieci neuronowych będzie odgrywać kluczową rolę w umożliwianiu stosowania inteligentnych urządzeń peryferyjnych. Dzięki możliwości uczenia się i przetwarzania danych sensorycznych bezpośrednio na marginesach sieci, w dodatku w sposób energooszczędny. Nowe układy ASIC zapewnić mają nowe możliwości poprzez ograniczenie potrzeb w zakresie przepustowości potrzebnej do wysyłania nieprzetworzonych danych. Przejście do opartej na chmurze usługi uczenia się powinno odciążyć sieć. Efektywność energetyczna procesorów neuromorficznych pozwoli także na rozwiązania „zawsze włączone”, bez problemów wynikających z utrudnień związanych z zapotrzebowaniem na moc zasilania systemu.

    Uczenie maszynowe i sieci neuronowe

    Obecnie wiele mówi się o różnych sieciach neuronowych, zwłaszcza że są one wykorzystywane w dziedzinie sztucznej inteligencji (AI) i uczenia maszynowego (ML).

    Sztuczne sieci neuronowe (ANN) to algorytm stosowany do rozwiązywania złożonych problemów, których nie można łatwo skodyfikować; są podstawą systemów uczenia maszynowego (ML). Nazywa się je „sieciami neuronowymi”, ponieważ zachowanie tworzących je węzłów przypomina nieco neurony znane z biologii. Neuron odbiera sygnały z różnych innych neuronów poprzez połączenia synaptyczne i integruje je. Jeśli wynikowa aktywacja przekroczy pewien próg, generuje potencjał działania, który rozprzestrzenia się przez jego akson do jednego lub więcej kolejnych neuronów.

    Sieć neuronowa może być wyobrażona jako złożona z różnych „warstw” węzłów, z których każdy jest połączony z węzłami następnej warstwy. W neuronach biologicznych potencjał działania jest transmitowany w całości, gdy różnica potencjałów w błonach przekracza pewien próg. W pewnym sensie dotyczy to również „sztucznych” neuronów. Jedyną różnicą jest to, że zachowanie reakcji jest dostosowane do potrzeb i jest określone przez funkcję aktywacji. Skomplikowaną częścią sieci neuronowej jest jej nauka. Uczenie sieci neuronowej ma miejsce, gdy pojawia się jakaś informacja zwrotna, tj. odpowiedź, która pozwala nam sprawdzić, czy (rzeczywiście) dowiedzieliśmy się, czego się uczymy. Dzięki temu określane są wagi poszczególnych połączeń w sieci neuronowej i funkcje aktywacji. Zazwyczaj do uczenia potrzebny jest specjalny zbiór danych, już wstępnie zinterpretowanych.

    Głębokie uczenie maszynowe to technika ML, która wykorzystuje algorytmy zdolne do symulowania działania ludzkiego mózgu. Algorytmy te opierają się na rozwoju sieci neuronowych do uczenia się i wykonywania określonej czynności.

    Algorytmy używane do uczenia sieci neuronowych są podzielone na 3 kategorie. Wybór, którego użyć, zależy od dziedziny zastosowania, dla której sieć jest zaprojektowana i jej typu (sprzężenie zwrotne lub sprzężenie do przodu). Algorytmy mogą być nadzorowane, pracujące bez nadzoru lub z wzmocnieniem. W sieciach neuronowych, które uczą się za pomocą algorytmu wzmocnionego, nie ma ani skojarzeń między wejściami a wyjściami przykładów, ani wyraźnej regulacji wyjść, które mają zostać zoptymalizowane. Obwody neuronowe uczą się wyłącznie z interakcji ze środowiskiem (patrz rysunek poniżej).

    Nowe układy ASIC do uczenia maszynowego
    Podejście wykorzystujące układy ASIC

    Z kolei splotowa sieć neuronowa (CNN) wymaga powtarzającego się splotu w całym potoku, a liczba operacji może osiągnąć bardzo wysoką wartość np. dla aplikacji wideo. Algorytmy te są również bardzo równoległe, co wymaga podziału danych między różne poszczególne jednostki przetwarzania i sprawia, że ​​niezbędne jest połączenie wszystkich neuronów w najbardziej efektywny sposób. Ponadto istnieje znaczny transfer danych tam i z powrotem między pamięcią. Chipsety do głębokiego uczenia maszynowego zaprojektowane zostały w celu uwzględnienia tych aspektów i optymalizacji wydajności, pobieranej mocy i zajmowanej pamięci.

    Układy ASIC zapewniają unikatowy rodzaj oprogramowania i silnika sprzętowego, który jest w stanie zarządzać ramami systemu głębokiego uczenia się. Firmy opracowują również swoje płyty, aby można je było wstawiać do serwerów z niewielkimi zmianami kodu. Deweloperzy aplikacji mogą kodować algorytm głębokiego uczenia się, skonfigurować niektóre opcje i dalej rozwijać swoje oprogramowanie, tak jak w przypadku zwykłego procesora (CPU). ASIC miałby tylko funkcje dla danej aplikacji i oferowałby tylko kilka regulowanych parametrów.

    Specyfika tego rodzaju projektu koncentruje się na rozwiązaniu pojedynczego problemu, umożliwiając osiągnięcie wyższych poziomów wydajności (pod względem szybkości przetwarzania i zużycia energii), które są trudne do uzyskania przy użyciu bardziej ogólnych rozwiązań.

    Maszyny obliczeniowe wymagają tak dużej ilości danych do przetwarzania; zaleca się tutaj korzystanie z drogich superkomputerów. Następna generacja procesorów sieci neuronowych będzie starała się osiągnąć równowagę między wydajnością opracowania obliczeniowego a mocą potrzebną do działania systemu przetwarzania.

    Nowe układy ASIC do uczenia maszynowego
    Procesory graficzne nie mogą być poprawnie sklasyfikowane jako układy ASIC, ale są one przeznaczone do konkretnych zastosowań. Biorąc pod uwagę bardzo luźną definicję, GPU jest układem ASIC używanym do przetwarzania algorytmów graficznych. GPU są szybkie i stosunkowo elastyczne. Alternatywą jest zaprojektowanie niestandardowego układu ASIC dedykowanego do wykonywania wyjątkowo szybkich operacji. Z kolei w przypadku układów TPU od Google, to charakteryzują się wysokim stopniem równoległości i algorytmami zoptymalizowanymi do przetwarzania sieci neuronowych.

    Nowe układy ASIC do uczenia maszynowego
    Procesory z rdzeniem ARM

    Procesory mają tę zaletę, że są nieskończenie programowalne, z przyzwoitą, ale nie wybitną wydajnością. Z drugiej strony, układy FPGA, takie jak np. produkowane przez firmy Intel i Xilinx, oferują doskonałą wydajność przy małej mocy i większą elastyczność oprogramowania, ale przy wyższym koszcie i trudniejszym programowaniu. FPGA są używane głównie we wnioskowaniu w systemach uczenia maszynowego. W przypadku określonych obciążeń wydajność układu FPGA nie zbliża się jednak do wydajności zaawansowanego procesora graficznego.

    Firma Eta Compute zaprojektowała swój nowy układ scalony tak, aby zaoferować najlepsze z obu światów. Tryb uczenia systemu wyklucza potrzebę wielu próbek szkoleniowych i jest bardziej pożądany w przypadku aplikacji w urządzeniach brzegowych, w których ilość zasobów obliczeniowych jest mocno ograniczona. Wszystko to wymaga jednocześnie wysoce sprawnych modeli uczenia się dla różnych aplikacji, które stawiają swoje zasoby obliczeniowe na granicy chmury. Cały czas przy zachowaniu niskiego poboru mocy.

    Zapotrzebowanie na systemy głębokiego uczenia się i wnioskowania statystycznego prowadzi branżę sprzętową do wyspecjalizowanych układów dla algorytmów uczenia maszynowego. Wraz z rozwojem aplikacji AI, zapotrzebowanie na wyspecjalizowane urządzenia ML napędza rozwój sprzętu na kolejnych etapach ewolucji. Fascynujące będzie doświadczenie w przyszłości wpływu tych technologii w dziedzinie zdrowia, medycyny, transportu i robotyki. Raport Allied Market Research "Rynek chipów do uczenia maszynowego według typu i zastosowania - Globalna analiza szans i prognozy branżowe, 2014–2022" wskazuje, że globalny segment układów uczenia maszynowego osiągnie wartość 37,8 miliardów dolarów już w 2025 r.

    Źródło: https://www.eetimes.com/document.asp?doc_id=1334903#

    Fajne! Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 napisał 9439 postów o ocenie 7378, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.
  • IGE-XAO