Pół miliarda lat temu wydarzyło się coś niezwykłego: wystąpił zdumiewający, nagły wzrost liczby nowych gatunków organizmów żyjących na ziemi. Paleontolodzy nazywają to zjawisko eksplozją kambryjską, a wiele zwierząt na dzisiejszej planecie wywodzi swój rodowód z tego wydarzenia. Podobna rzecz dzieje się dziś w procesorach wbudowanych w segmencie dedykowanym dla systemów widzenia komputerowego i sztucznej inteligencji (AI) i nigdzie nie będzie to bardziej widoczne niż podczas Embedded Vision Summit, który odbywa się w Santa Clara w Kalifornii od 16 do 19 maja br. Szczyt skupia się na praktycznym know-how dla twórców projektów wykorzystujących sztuczną inteligencję i widzenie komputerowe w swoich produktach.
Powyższe wymagają procesorów AI, które równoważą sprzeczne potrzeby w zakresie wysokiej wydajności, niskiego zużycia energii i kosztów. Oszałamiająca liczba wbudowanych chipów AI, które zostaną zaprezentowane na szczycie podkreśla reakcję branży na to zapotrzebowanie. Chociaż sama ilość procesorów ukierunkowanych na widzenie komputerowe i ML jest przytłaczająca, istnieją pewne naturalne grupy, które ułatwiają zrozumienie tej dziedziny. Przyjrzyjmy się im dokładnie w poniższym artykule przygotowanym przez Jeffa Biera (na zdjęciu po prawej), założyciela Edge AI and Vision Alliance, a wspierającego rozwój systemów AI i widzenia maszynowego.
Po pierwsze, niektórzy dostawcy procesorów zastanawiają się, jak najlepiej obsługiwać aplikacje, które jednocześnie stosują uczenie maszynowe (ML) do danych wywodzących się z różnych typów czujników — na przykład audio oraz wideo. I idąc tym tropem dalej — energooszczędny procesor Katana firmy Synaptics łączy w sobie dane wejściowe z odmiennych sensorów, w tym wizyjnych, dźwiękowych i środowiskowych. Podobnej tematyki dotyczy prezentacja Xperi o inteligentnych zabawkach przyszłości.
Po drugie, podzbiór dostawców procesorów koncentruje się na ograniczaniu mocy i kosztów do minimum. To ciekawe, ponieważ przyczynia się to do nowych zastosowań. Na przykład: Cadence zaprezentuje dodatki do swojego portfolio procesorów Tensilica, które umożliwiają korzystanie z aplikacji AI. Firma ARM przedstawi przypadki użycia systemów wizyjnych o niskim poborze mocy i uczenia maszynowego bazujących na procesorach Cortex-M. Z kolei Qualcomm zobrazuje narzędzia do tworzenia aplikacji widzenia komputerowego o niskim poborze mocy na serii Snapdragon.
Po trzecie, chociaż wielu dostawców procesorów skupia się głównie lub wyłącznie na uczeniu maszynowym, niektórzy zajmują się innymi rodzajami algorytmów, zwykle używanymi w połączeniu z głębokimi sieciami neuronowymi, takimi jak klasyczne widzenie komputerowe i przetwarzanie obrazów. Świetnym przykładem jest firma Quadric, której nowy procesor q16 ma się wyróżniać w szerokim zakresie algorytmów, w tym zarówno w systemach uczenia maszynowego, jak i konwencjonalnego widzenia komputerowego.
Finalnie, można przyjąć, że na pierwszy plan wysuwa się zupełnie nowy gatunek układów: procesory neuromorficzne. Obliczenia neuromorficzne odnoszą się do podejścia, które naśladuje sposób, w jaki nasz mózg przetwarza informacje. Na przykład, biologiczne systemy wizyjne procesują zdarzenia w polu widzenia, w przeciwieństwie do klasycznych metod widzenia komputerowego, które zazwyczaj wychwytują i przerabiają wszystkie piksele w scenie ze stałą szybkością klatek, gdy ta nie ma związku ze źródłem informacji wizualnej. Wykład inauguracyjny na szczycie: „Event-based Neuromorphic Perception and Computation: The Future of Sensing and AI”, który ma być wygłoszony przez profesora Ryada Benosmana, przedstawi przegląd korzyści, jakie można osiągnąć dzięki podejściom neuromorficznym. Firma Opteran z kolei przedłoży własną wizję w tym zakresie, która ma umożliwić znacznie lepsze widzenie i wyższą autonomię systemów; projekt tej firmy został zainspirowany mózgami owadów.
Bez względu na to, jaka jest Wasza aplikacja i jakie są jej wymagania, coraz częściej gdzieś tam w środku znajduje się wbudowana sztuczna inteligencja lub procesor wizyjny, który najlepiej odpowiada danym potrzebom. Na omawianym szczycie będzie można poznać wiele z powyższych i porozmawiać z rozwijającymi je innowacyjnymi firmami. Warto obserwować ten szybko aktywizujący się sektor elektroniki, jak i monitorować dokąd prowadzą dzisiejsze nowatorskie zastosowania — ciekawym będzie sprawdzić je za 10 lat, kiedy zobaczymy, jak wiele procesorów AI z 2032 roku wywodzi swój rodowód z obecnej eksplozji pomysłów!
Źródła:
https://www.eetimes.com/embedded-ai-processors-the-cambrian-explosion/
https://www.eetasia.com/embedded-ai-processors-the-cambrian-explosion/
Powyższe wymagają procesorów AI, które równoważą sprzeczne potrzeby w zakresie wysokiej wydajności, niskiego zużycia energii i kosztów. Oszałamiająca liczba wbudowanych chipów AI, które zostaną zaprezentowane na szczycie podkreśla reakcję branży na to zapotrzebowanie. Chociaż sama ilość procesorów ukierunkowanych na widzenie komputerowe i ML jest przytłaczająca, istnieją pewne naturalne grupy, które ułatwiają zrozumienie tej dziedziny. Przyjrzyjmy się im dokładnie w poniższym artykule przygotowanym przez Jeffa Biera (na zdjęciu po prawej), założyciela Edge AI and Vision Alliance, a wspierającego rozwój systemów AI i widzenia maszynowego.
Po pierwsze, niektórzy dostawcy procesorów zastanawiają się, jak najlepiej obsługiwać aplikacje, które jednocześnie stosują uczenie maszynowe (ML) do danych wywodzących się z różnych typów czujników — na przykład audio oraz wideo. I idąc tym tropem dalej — energooszczędny procesor Katana firmy Synaptics łączy w sobie dane wejściowe z odmiennych sensorów, w tym wizyjnych, dźwiękowych i środowiskowych. Podobnej tematyki dotyczy prezentacja Xperi o inteligentnych zabawkach przyszłości.
Po drugie, podzbiór dostawców procesorów koncentruje się na ograniczaniu mocy i kosztów do minimum. To ciekawe, ponieważ przyczynia się to do nowych zastosowań. Na przykład: Cadence zaprezentuje dodatki do swojego portfolio procesorów Tensilica, które umożliwiają korzystanie z aplikacji AI. Firma ARM przedstawi przypadki użycia systemów wizyjnych o niskim poborze mocy i uczenia maszynowego bazujących na procesorach Cortex-M. Z kolei Qualcomm zobrazuje narzędzia do tworzenia aplikacji widzenia komputerowego o niskim poborze mocy na serii Snapdragon.
Po trzecie, chociaż wielu dostawców procesorów skupia się głównie lub wyłącznie na uczeniu maszynowym, niektórzy zajmują się innymi rodzajami algorytmów, zwykle używanymi w połączeniu z głębokimi sieciami neuronowymi, takimi jak klasyczne widzenie komputerowe i przetwarzanie obrazów. Świetnym przykładem jest firma Quadric, której nowy procesor q16 ma się wyróżniać w szerokim zakresie algorytmów, w tym zarówno w systemach uczenia maszynowego, jak i konwencjonalnego widzenia komputerowego.
Finalnie, można przyjąć, że na pierwszy plan wysuwa się zupełnie nowy gatunek układów: procesory neuromorficzne. Obliczenia neuromorficzne odnoszą się do podejścia, które naśladuje sposób, w jaki nasz mózg przetwarza informacje. Na przykład, biologiczne systemy wizyjne procesują zdarzenia w polu widzenia, w przeciwieństwie do klasycznych metod widzenia komputerowego, które zazwyczaj wychwytują i przerabiają wszystkie piksele w scenie ze stałą szybkością klatek, gdy ta nie ma związku ze źródłem informacji wizualnej. Wykład inauguracyjny na szczycie: „Event-based Neuromorphic Perception and Computation: The Future of Sensing and AI”, który ma być wygłoszony przez profesora Ryada Benosmana, przedstawi przegląd korzyści, jakie można osiągnąć dzięki podejściom neuromorficznym. Firma Opteran z kolei przedłoży własną wizję w tym zakresie, która ma umożliwić znacznie lepsze widzenie i wyższą autonomię systemów; projekt tej firmy został zainspirowany mózgami owadów.
Bez względu na to, jaka jest Wasza aplikacja i jakie są jej wymagania, coraz częściej gdzieś tam w środku znajduje się wbudowana sztuczna inteligencja lub procesor wizyjny, który najlepiej odpowiada danym potrzebom. Na omawianym szczycie będzie można poznać wiele z powyższych i porozmawiać z rozwijającymi je innowacyjnymi firmami. Warto obserwować ten szybko aktywizujący się sektor elektroniki, jak i monitorować dokąd prowadzą dzisiejsze nowatorskie zastosowania — ciekawym będzie sprawdzić je za 10 lat, kiedy zobaczymy, jak wiele procesorów AI z 2032 roku wywodzi swój rodowód z obecnej eksplozji pomysłów!
Źródła:
https://www.eetimes.com/embedded-ai-processors-the-cambrian-explosion/
https://www.eetasia.com/embedded-ai-processors-the-cambrian-explosion/
Cool? Ranking DIY