Równolegle z istniejącym wariantem offline, firma ST Microelectronics umieściła swoje środowisko programistyczne do uczenia maszynowego STM32Cube.AI w chmurze wraz z płytkami ST MCU do testowania. Obie wersje oprogramowania generują zoptymalizowany kod C dla mikrokontrolerów STM32 z plików TensorFlow, PyTorch lub ONNX. Opcja dla deweloperów wykorzystuje te same podstawowe narzędzia, co ta do pobrania, ale dodaje interfejs z: „modelowym zoo” ST na GitHub. A także możliwość zdalnego uruchamiania modeli na połączonych z chmurą płytkach ST w celu testowania wydajności działania tych algorytmów na innym sprzęcie. „Chcemy dotrzeć do nowej kategorii użytkowników: społeczności sztucznej inteligencji, zwłaszcza naukowców zajmujących się danymi i programistów, którzy są przyzwyczajeni do tworzenia usług i platform online” — powiedział Vincent Richard, menedżer ds. marketingu produktów AI w STMicroelectronics, w rozmowie z EE Times. „To jest nasz cel w przypadku chmury programistycznej… użytkownik nie musi nic pobierać, przechodzi bezpośrednio do interfejsu i zaczyna opracowywać i testować”.
ST nie oczekuje od osób zainteresowanych migracji z wersji offline do tej w chmurze. To, dlatego, że opcja STM32Cube.AI do pobrania/instalacji jest mocno dopasowana do wymagań programistów systemów wbudowanych, którzy już używają środowiska programistycznego ST do innych zadań, takich jak definiowanie urządzeń peryferyjnych. Analitycy danych i wielu potencjalnych użytkowników w społeczności AI korzysta jednak z: „innego świata” narzędzi, powiedział Richard. „Chcemy, aby byli bliżej sprzętu, a sposobem na to jest dostosowanie naszych instrumentów do ich sposobu pracy” — dodał.
Zoo modeli na GitHubie, prowadzone przez firmę ST, zawiera obecnie przykładowe odnoszące się do AI, zoptymalizowane pod kątem mikrokontrolerów STM32, dedykowane do wykrywania ruchu człowieka, klasyfikacji obrazu, wychwytywania obiektów i zdarzeń dźwiękowych. Deweloperzy mogą używać tychże jako punktu wyjścia do tworzenia własnych aplikacji. Nowa farma płytek umożliwia użytkownikom zdalny pomiar wydajności zoptymalizowanych modeli bezpośrednio na różnych mikrokontrolerach STM32. „Nie trzeba kupować wielu płytek z STM32, aby przetestować sztuczną inteligencję, mogą to zrobić zdalnie dzięki kodowi, który działa fizycznie na naszych farmach płytek ST” — wskazał Richard. „Mogą uzyskać rzeczywiste pomiary opóźnień i zużycia pamięci w celu wnioskowania na różnych płytach”. Farma ta rozpocznie działanie od 10 płytek dostępnych dla każdego rodzaju części STM32, a według Richarda liczba ta wzrośnie w nadchodzących miesiącach. Moduły te rozmieszczone są w kilku miejscach odseparowanych od infrastruktury ST, aby zapewnić stabilną i bezpieczną obsługę.
Zoptymalizowany kod
Narzędzia w zestawie STM32Cube.AI obejmują optymalizator grafów, który konwertuje pliki: TensorFlow Lite dla mikrokontrolerów, frameworków PyTorch lub ONNX w celu optymalizacji kodu C w oparciu o biblioteki STM32. Grafy są przepisywane w ramach usprawnień odnośnie do zużycia pamięci lub opóźnienia, lub równowagi między tymi dwoma, które mogą być kontrolowane przez użytkownika. Istnieje również optymalizator wykorzystania pamięci, który pokazuje graficznie, jaki jej (Flash i RAM) zakres jest zużywany przez każdą warstwę algorytmu. Poszczególne z nich, które są zbyt duże dla pamięci, można na przykład podzielić na dwa etapy. Poprzednie wyniki działania MLPerf Tiny wykazały przewagę wydajności silnika wnioskowania ST, zoptymalizowanej wersji CMSIS-NN firmy ARM, w porównaniu ze standardowymi rezultatami CMSIS-NN.
Chmura deweloperska STM32CubeAI będzie również obsługiwać nadchodzący mikrokontroler ST z nowoopracowanym układem NPU, STM32N6, gdy będzie on dostępny.
Źródło: https://www.eetimes.com/stmicro-adds-tinyml-developer-cloud/
ST nie oczekuje od osób zainteresowanych migracji z wersji offline do tej w chmurze. To, dlatego, że opcja STM32Cube.AI do pobrania/instalacji jest mocno dopasowana do wymagań programistów systemów wbudowanych, którzy już używają środowiska programistycznego ST do innych zadań, takich jak definiowanie urządzeń peryferyjnych. Analitycy danych i wielu potencjalnych użytkowników w społeczności AI korzysta jednak z: „innego świata” narzędzi, powiedział Richard. „Chcemy, aby byli bliżej sprzętu, a sposobem na to jest dostosowanie naszych instrumentów do ich sposobu pracy” — dodał.
Zoo modeli na GitHubie, prowadzone przez firmę ST, zawiera obecnie przykładowe odnoszące się do AI, zoptymalizowane pod kątem mikrokontrolerów STM32, dedykowane do wykrywania ruchu człowieka, klasyfikacji obrazu, wychwytywania obiektów i zdarzeń dźwiękowych. Deweloperzy mogą używać tychże jako punktu wyjścia do tworzenia własnych aplikacji. Nowa farma płytek umożliwia użytkownikom zdalny pomiar wydajności zoptymalizowanych modeli bezpośrednio na różnych mikrokontrolerach STM32. „Nie trzeba kupować wielu płytek z STM32, aby przetestować sztuczną inteligencję, mogą to zrobić zdalnie dzięki kodowi, który działa fizycznie na naszych farmach płytek ST” — wskazał Richard. „Mogą uzyskać rzeczywiste pomiary opóźnień i zużycia pamięci w celu wnioskowania na różnych płytach”. Farma ta rozpocznie działanie od 10 płytek dostępnych dla każdego rodzaju części STM32, a według Richarda liczba ta wzrośnie w nadchodzących miesiącach. Moduły te rozmieszczone są w kilku miejscach odseparowanych od infrastruktury ST, aby zapewnić stabilną i bezpieczną obsługę.
Zoptymalizowany kod
Narzędzia w zestawie STM32Cube.AI obejmują optymalizator grafów, który konwertuje pliki: TensorFlow Lite dla mikrokontrolerów, frameworków PyTorch lub ONNX w celu optymalizacji kodu C w oparciu o biblioteki STM32. Grafy są przepisywane w ramach usprawnień odnośnie do zużycia pamięci lub opóźnienia, lub równowagi między tymi dwoma, które mogą być kontrolowane przez użytkownika. Istnieje również optymalizator wykorzystania pamięci, który pokazuje graficznie, jaki jej (Flash i RAM) zakres jest zużywany przez każdą warstwę algorytmu. Poszczególne z nich, które są zbyt duże dla pamięci, można na przykład podzielić na dwa etapy. Poprzednie wyniki działania MLPerf Tiny wykazały przewagę wydajności silnika wnioskowania ST, zoptymalizowanej wersji CMSIS-NN firmy ARM, w porównaniu ze standardowymi rezultatami CMSIS-NN.
Chmura deweloperska STM32CubeAI będzie również obsługiwać nadchodzący mikrokontroler ST z nowoopracowanym układem NPU, STM32N6, gdy będzie on dostępny.
Źródło: https://www.eetimes.com/stmicro-adds-tinyml-developer-cloud/
Cool? Ranking DIY