Elektroda.pl
Elektroda.pl
X
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

Intel skaluje układy neuromorficzne - komputer osiągnął poziom chomika?

ghost666 14 Apr 2020 11:37 1386 0
  • Intel skaluje układy neuromorficzne - komputer osiągnął poziom chomika?
    Intel poinformował właśnie, że powiększył swój neuromorficzny system komputerowy, integrując w jednym urządzeniu 768 układów Intel Loihi. W ten sposób powstał zajmujący zaledwie pięć unitów 19-calowego systemu rack, system o nazwie Pohoiki Springs. Ten, oparty na chmurze, system AI zostanie udostępniony w ramach Intel Neuromorphic Research Community (INRC), aby umożliwić badania szerszej grupie naukowców jak i rozwój większych i bardziej złożonych algorytmów neuromorficznych. Pohoiki Springs zawiera równowartość 100 milionów neuronów, mniej więcej tyle samo, co w mózgu małego ssaka, takiego jak kret, szczur czy chomik.

    Chip neuromorficzny

    Intel zadebiutował w 2017 roku chipem neuromorficznym oznaczonym Loihi, który dedykowany jest do zastosowań badawczych. Naśladuje on architekturę mózgu za pomocą impulsów elektrycznych, których czas trwania moduluje siłę połączeń między neuronami. Modulacja tych sił jest analogiczna do wpływu wag na w parametrach sztucznej sieci neuronowej.

    Architektura Loihi wykorzystuje ekstremalną równoległość, architekturę komunikacji „wiele do wielu” i w pełni asynchroniczne sygnały, aby jak najlepiej naśladować strukturę prawdziwego, organicznego mózgu. Nie ma tutaj jednostek o wielokrotnej akumulacji czy innych sztucznych tworów – cały system jest bardzo zbliżony do żywego mózgu. Celem rozwoju i badania tego systemu jest poprawa wydajności specjalnych algorytmów inspirowanych mózgiem, realizowanych przy radykalnie zmniejszonych poziomach pobieranej mocy, w porównaniu do klasycznych systemów AI.

    „Obliczamy sieci neuronowe w zupełnie inny sposób, w sposób bardziej bezpośrednio inspirowany tym, w jaki sposób żywe neurony przetwarzają informacje” mówi Mike Davies, dyrektor Neuromorphic Computing Lab firmy Intel. „To przez tak zwane skoki - neurony aktywują się i wysyłają wiadomości w sposób asynchroniczny, sterowany zdarzeniami, przez wszystkie neurony w układzie, przetwarzając informacje w zupełnie inny sposób”. Loihi, jak wyjaśnia Davies, nie jest bezpośrednio porównywalny z konwencjonalnymi akceleratorami AI, takimi jak te produkowane przez, na przykład Habana Labs, niedawno zakupione przez Intela. „Obliczenia neuromorficzne są przydatne w innym systemie, innej niszy obliczeniowej niż systemy Big Data, wykorzystujące algorytmy nadzorowanego uczenia maszynowego” mówi Davies.

    Tradycyjne systemy głębokie uczenia maszynowego wykorzystuje duże ilości dobrze oznakowanych danych do szkolenia ogromnych sztucznych sieci neuronowych, przy ogromnych kosztach obliczeniowych. To powoduje ogromne wymagania dotyczące przepustowości wejścia i wyjścia urządzenia oraz wielkości pamięci, wymaganej do ciągłej aktualizacji wag modelu. Jest to również stosunkowo wolny proces. „Model neuromorficzne bardzo różnią się od tego podejścia. (…). Układy te przetwarzają indywidualne próbki danych. Nazywamy to reżimem wielkości partii 1, w którym rzeczywiste dane docierają do układu i muszą być przetwarzane w tym samym czasie, z jak najmniejszym opóźnieniem i najniższą możliwą mocą. (…) To, co odróżnia ten system od chipów AI, nawet tych stosowanych na krawędzi chmury, jest fakt, że w tym przypadku wykorzystujemy również modele, które dostosowują się i mogą w rzeczywisty sposób uczyć się w czasie rzeczywistym na podstawie tych indywidualnych próbek danych, które nadchodzą. Paradygmat głębokiego uczenia maszynowego nie obsługuje tego za dobrze”. Zasadniczo, klasyczne akceleratory uczenia głębokiego i obliczenia neuromorficzne są technologiami uzupełniającymi się, rozwiązującymi różne rodzaje sprzężonych ze sobą problemów.

    Skalowanie

    Poprzednie prace Intela w tej dziedzinie przyniosły mniejsze systemy, takie jak Kapoho Bay (2 układy Loihi, 262 000 neuronów – tyle samo, co muszka owocowa). Kapoho Bay był przeznaczony do opracowywania algorytmów dla systemów brzegowych. Zademonstrowano na nim uruchamianie i rozpoznawania gestów w czasie rzeczywistym, czytanie alfabetu Braille'a i orientowanie się za pomocą punktów orientacyjnych w terenie. Zużywa on zaledwie kilkadziesiąt miliwatów mocy w tego typu aplikacjach.

    Jest też Nahuku, karta rozszerzeń z Intela Arria 10 z od 8 do 32 układów Loihi. Nahuku były używane m.in. do stworzenia eksperymentalnego systemu cyfrowego „węchu” realizowanego przez Intela i Uniwersytet Cornell, o którym https://www.elektroda.pl/rtvforum/viewtopic.php?p=18574763#18574763" target="_blank" rel="noopener " title="http:// https://www.elektroda.pl/rtvforum/viewtopic.php?p=18574763#18574763" class="postlink ">pisaliśmy jakiś czas temu na forum. Jest jeszcze Pohoiki Beach – system zaprezentowany zeszłego lata, na pokładzie którego znaleźć można 64 układy Loihi.



    Nowy system, Pohoiki Springs, wykorzystuje 8 kart, każda z 96 układami Loihi (plus trzy płyty Arria 10 FPGA używane do obsługi I/O). Sygnał oparty na wartości szczytowej jest wykorzystywany między wszystkimi układami Loihi w systemie, a cała skrzynia 5U pobiera zaledwie 300 W - mniej więcej tyle, ile można oczekiwać od systemu o wielkości 1U wykorzystującego tradycyjne obliczenia.

    Intel skaluje układy neuromorficzne - komputer osiągnął poziom chomika?
    Aplikacje algorytmiczne

    Intel zarejestrował obecnie ponad 90 grup badawczych w neuromorficznej społeczności badawczej, w tym grupy akademickie, rządowe jak i branżowe. Davies powiedział, że skupiają się one głównie na opracowywaniu algorytmów, ale ostatnio dodali członków komercyjnych, w tym firm Accenture, Airbus, GE i Hitachi, którzy planują zastosować te algorytmy do rozwiązywania problemów istotnych dla ich działalności.

    Pohoiki Springs zostaną początkowo wykorzystane do opracowania większych, bardziej złożonych, bardziej zaawansowanych algorytmów inspirowanych mózgiem. Niektóre z najciekawszych jak dotąd aplikacji to takie, które ludzki mózg osiąga łatwo, ale są trudne obliczeniowo dla komputerów. Na przykład algorytmy neuromorficzne świetnie sprawdzają się w przeszukiwaniu grafów w celu znalezienia optymalnych ścieżek. Problem ten przekłada się m. in. na znalezienie najkrótszej trasy między lokalizacjami w celu zapewnienia wskazówek dojazdu (wiele tras porównuje się równolegle). Możliwe jest również efektywne wyszukiwanie wzorców w analizowanych danych. To z kolei pozwala na wydajne przeszukiwanie baz danych obrazów czy filmów. Algorytmy neuromorficzne dobrze radzą sobie także z problemami związanymi algorytmami, w których system ustalać musi optymalne rozwiązanie na podstawie zestawu ograniczeń. Takie problemy rozwiązywane są w szerokim zakresie przypadków - od rozwiązywania sudoku po tworzenie rozkładów lotów linii lotniczych. Zadania optymalizacyjne, które maksymalizują określone cele, takie jak np. kontrolowanie sygnalizacji świetlnej w celu zminimalizowania ruchu w mieście, mają oczywiste zastosowanie w świecie rzeczywistym.

    „Celem jest to, że chcemy rozwiązać tego rodzaju trudne problemy znacznie szybciej lub przy znacznie niższym zużyciu energii niż konwencjonalne metody” powiedział Davies. „Mamy teraz przykłady, które są sto razy szybsze niż konwencjonalne rozwiązania dla procesorów lub pobierają tysiące razy mniej energii elektrycznej. Jesteśmy zainteresowani zobaczeniem, co możemy uzyskać, badając ten kierunek, aby zwiększyć skalę wdrażanych rozwiązań”.

    Mózgi przyszłości

    Patrząc w przyszłość, komercjalizacja tej technologii jest nadal daleka. „Wyzwania w tej chwili dotyczą wyłącznie algorytmów, a ostatecznie oprogramowania” mówi przedstawiciel Intela. „Z pewnością nie można zrobić więcej na obecnym sprzęcie, sam Loihi nie jest w formie, która mogłaby dosłownie zostać skomercjalizowana, ale wyzwania są głównie związane z inżynierią, a nie badaniami podstawowymi. Tam, gdzie naprawdę się dziś koncentrujemy to odkrywanie nowych algorytmów rozwiązywania problemów i znajdowanie możliwie najszerszego ich zestawu”.

    Davies dodaje, że pierwszymi komercyjnymi aplikacjami systemów tego rodzaju będą aplikacje działające na najwyższym poziomie. Jedną z nich jest analiza obrazu z systemu kamer opartych na zdarzeniach. To prawdopodobnie prekursor wszystkich innych rozwiązań, bo aplikacja ta jest miejscem, w którym w zasadzie rozpoczęto obliczenia neuromorficzne, jeszcze w latach osiemdziesiątych; wykorzystuje ono czujniki obrazu, które natywnie wytwarzają impulsy, co czyni je kompatybilnymi z systemami neuromrficznymi. Najbardziej obiecującą aplikacją dla kamer opartych na zdarzeniach są samochodowe systemy wspomagania kierowcy (ADAS), ponieważ wymagana w nich jest szybka reakcja na zmiany informacji wizualnych przy ograniczonym budżecie mocy.

    Sam Loihi jest w idealnym miejscu, aby można go było skalować do większych systemów za pomocą wykorzystania wielu układów, z drugiej strony, jeden układ nie jest zbyt mocny, aby był przydatny w aplikacjach krawędziowych, gdzie typowo stosuje się pojedyncze układy akceleratorów. Davies spodziewa się, że przyszłe komercyjne produkty neuromorficzne zostaną podzielone na te, które obsługują centra danych i te, które są przeznaczone do zastosowania na krawędzi chmury, podobnie jak ma to miejsce w dzisiejszej ofercie akceleratorów AI. Przyszłe systemy centrów danych mogą urosnąć daleko poza wielkość Pohoiki Springs.

    „Jesteśmy bardzo zainteresowani skalowaniem tej architektury z biegiem czasu, aby podążać za tym, co znajdujemy w naturze, co stale zwiększa możliwości obliczeniowe, gdy budujemy coraz większe ‘mózgi’. Tak, więc, zaczynając od Loihi budujemy ‘mózgi’ wielkości małych ssaków, ale planujemy rozwijać się nawet dalej w przyszłości” powiedział Davies. Dla porównania - ludzki mózg ma 86 miliardów neuronów, co wymagałoby zastosowania około 650 tysięcy układów Loihi. O ile obecnie jest to liczba niewyobrażalnie duża, to wraz ze skalowaniem i rozwojem tej technologii, budowa tego rodzaju maszyny może leżeć w zasięgu możliwości przemysłu IT.

    Źródło: https://www.eetimes.com/intel-scales-neuromorphic-computer-to-100-million-neurons/

    Cool? Ranking DIY
    About Author
    ghost666
    Translator, editor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 wrote 11418 posts with rating 9639, helped 157 times. Live in city Warszawa. Been with us since 2003 year.