35-letnie układy programowalne (FPGA) to jedna z najbardziej imponujących technologii, odpowiedzialna za powstanie urządzeń półprzewodnikowych, jaką kiedykolwiek stworzono, zaraz po procesorach (CPU). Obecnie dana technika jest bardziej popularna niż kiedykolwiek, a wzmocniona nieodłączną mocą przetwarzania i możliwościami adaptacji do różnych aplikacji idealne nadaje się do szybkiej ewolucji w zmieniających się warunkach współczesnego przemysłu elektronicznego. Technologia ta wcale nie pokazuje swojego wieku. Co dziwne, jednak jej wszechstronność stwarza spore dylematy wśród samych producentów FPGA.
Komunikacja i sieci wyróżniały się wśród aplikacji napędzających wczesną popularność układów FPGA z powodu częstych zmian w ich standardach. Te wymagały aktualizacji, badań w terenie itp., co jest nie do pomyślenia w przypadku implementacji tych funkcjonalności w niezmiennym układzie ASIC. W późniejszych latach układy FPGA wykorzystywano w branży motoryzacyjnej, wojskowej, w celach konsumenckich i obronnych. Ostatnio odrodzenie FPGA jest napędzane przez postęp w zakresie technologii sztucznej inteligencji (AI) i rozpowszechniania się tego rodzaju programów. Wśród aplikacji AI dominuje akceleracja uczenia głębokiego (DLA) realizowana na układach programowalnych.
Epoki FPGA
Artykuł dr Stephena M. Trimbergera i Xilinx zatytułowany: „Three Ages of FPGAs: A Retrospective on the First 30 years of the FPGA Technology”, ukazuje ewolucję układów FPGA od ich powstania w latach 1984 do roku 2015. Materiał został opublikowany w marcu 2015 r. w IEEE Proceedings. Trimberger wymienia trzy epoki rozwoju układów programowalnych:
— wiek wynalezienia (lata 1984-1991);
— wiek ekspansji (lata 1992-1999);
— wiek akumulacji (lata 2000-2007).
Sam autor twierdzi, że po okresie akumulacji technologia FPGA weszła w erę: „Już-nie-programowalnej-logiki”. Jak na ironię — określenie to zaprzecza istocie urządzenia ujętego w jego nazwie, ale oddaje rzeczywistość tych czasów. De facto mianowanie tego epoką: „Już-nie-programowalnej-logiki” po 2015 roku może być właściwe. W rzeczywistości z uwagi na najnowsze zastosowania układów FPGA najlepiej obecne czasy nazwać: „Wiekiem Sztucznej Inteligencji”.
Z pewnością nowa platforma adaptacyjnej akceleracji obliczeniowej (ACAP) firmy Xilinx po raz pierwszy wdrożona w rodzinie Versal, wzmacnia argumenty przemawiające za przemianowaniem obecnej epoki na: „wiek AI”. Według wyjaśnień Victora Penga — prezesa i dyrektora generalnego Xilinx, ACAP jest strukturą logiczną FPGA, która obejmuje wiele poziomów pamięci rozproszonej, programowalne sprzętowo bloki procesora sygnałowego (DSP), wielordzeniowy system na chipie (SoC), jeden lub więcej silników obliczeniowych, które są programowalne i przystosowalne na poziomie sprzętu. Wszystko jest połączone ze sobą za pośrednictwem sieci chipowej o bardzo małych opóźnieniach i wysokiej częstotliwości taktowania z arbitrażem i kontrolą przepływu danych. Platforma obejmuje, również zintegrowane przetworniki RF-ADC i DAC, obsługuje stos pamięci o dużej przepustowości (HBM), różne generacje pamięci DDR i zaawansowaną technologię bloków SerDes.
Struktury blokowe tego rodzaju są mózgiem układów DLA.
Gdzie są pieniądze
Według analizy przeprowadzonej przez Barclays Research opublikowanej w 2018 roku rynek DLA można podzielić na trzy segmenty: uczenie maszynowe i wnioskowanie (inferencja) w centrach danych oraz wnioskowanie na krawędzi (patrz wykres poniżej).
W badaniu przewidziano, że do 2020 roku około dwie trzecie sprzedaży półprzewodników będzie pochodziło z chipów wykorzystywanych w akceleratorach uczenia sieci neuronowych, głównie z procesorów graficznych firmy Nvidia. Po tym okresie prognozowano umiarkowany wzrost liczby półprzewodników stosowanych do szkolenia sieci neuronowych z gwałtownym wzrostem inferencji w centrach danych i na krawędzi, odpowiadający za wysoką dwucyfrową intensyfikację w kolejnym roku. Trend ten ma się utrzymywać w następnych latach, a penetracja rynku AI przez układy programowalne ma rosnąć w tym samym tempie. Barclays przewidywał w szczególności, że w 2021 roku segment wnioskowania na krawędzi będzie rósł nieco szybciej, niż sekcja wnioskowania w centrach danych, ponieważ zasoby informacyjne na brzegu będą wymagały lokalnego przetwarzania wstępnego, aby zapobiec opóźnieniu wynikającemu z transferu danych do centrum danych w celu przetworzenia i z powrotem do urządzenia klienckiego. Poczynając od 2022 r. segment wnioskowania przynosić ma ok. 3,6 razy większe przychody z półprzewodników, niż sekcja szkolenia sieci.
Jeśli chodzi o technologie napędzające DLA, takie jak: układy CPU, GPU, FPGA i ASIC, analiza po analizie konsekwentnie sprzyja zwyżce zastosowań układów typu ASIC i GPU przy umiarkowanym wzroście penetracji rynku przez układ FPGA i kurczeniu się wykorzystania procesorów (CPU) w tym celu.
Oczywiście dostawcy FPGA reagowali na te prognozy, wpychając coraz więcej bloków funkcjonalnych do układów, aby skupić się na DLA. A więc zamieniali możliwie duży obszar krzemu na zajmowany przez tradycyjne tablice przeglądowe (LUT). W międzyczasie układy te coraz bardziej zaczęły przypominać programowalne układy ASIC niż pierwotne układy FPGA.
Rys.2. Przyspieszenie rozwoju w zakresie systemów głębokiego uczenia sprawia, że FPGA może znaleźć swoje największe zastosowanie w systemach do uczenia maszynowego w centrach danych, do wnioskowania lub nawet przy pracy systemów uczenia maszynowego na krawędzi.
Prawdopodobnie to potencjał do napędzania rynku układów DLA jednostkami FPGA zmotywował Intela do przejęcia Altery w 2015 roku, a AMD do złożenia oferty przejęcia Xilinx w zeszłym roku. To także dobra wiadomość dla firmy Achronix, która stała się nową siłą dominującą w obszarze FPGA.
FPGA i platformy weryfikacji wspomagane sprzętowo
Zakładając, że trend będzie się utrzymywał, warto zapytać, jaka będzie przyszłość narzędzi do weryfikacji projektów wspomaganych sprzętowo opartych na komercyjnych układach FPGA.
Prototypowe platformy FPGA w szerokim zakresie wykorzystują programowalną logikę dostarczaną poprzez wbudowane bloki LUT do wirtualnego mapowania dowolnego projektu, niezależnie od rozmiaru, architektury i aplikacji docelowej. Przy projektach o rozmiarach sięgających 10 miliardów bramek równoważnych w ASIC, dostawcy prototypów projektują całe szafy wypełnione wieloma płytkami, które z kolei są przeładowane ogromnymi macierzami największych na rynku układów FPGA — wszystko, aby zaspokoić zapotrzebowanie na obsługę ogromnych ilości tablic LUT.
To stanowi obecnie dylemat dla dostawców FPGA. Aby efektywnie wspierać prototypowe platformy FPGA, układy FPGA powinny poświęcać bloki DSP, rdzenie SoC i inne wbudowane moduły i procesory dla maksymalizacji obszaru dla tablic LUT. Aby, jednak obsłużyć rynek DLA, układy FPGA powinny z kolei wymieniać pola logiki generycznej na obszar wyspecjalizowanych modułów implementowanych w krzemie. Te dwa wymagania nie są do pogodzenia, pozostawiając sprzedawcę FPGA w rozterce.
Czy dostawcy FPGA powinni stworzyć dwa odrębne urządzenia FPGA, jedno dla gałęzi wartej mniej niż miliard dolarów — całego dostępnego segmentu platform weryfikacji sprzętowej, a drugie, aby w pełni objąć sferę DLA i obsługiwać rosnący rynek o wartości kilku miliardów dolarów? Może to doprowadzić do tego, że układy do systemów weryfikacji sprzętowej będą wyceniane drożej, co przełoży się na wzrost cen platform do prototypowania.
Podsumowanie
Od 1985 roku układy FPGA ewoluowały przez pięć pokoleń. W obecnym wcieleniu materiał ten jest daleki od swojej pierwotnej struktury. Dziś odzwierciedla on ewolucję chipów elektronicznych, od monolitycznej konstrukcji, która kiedyś była dobrze obsługiwana przez LUT do hierarchicznego, wieloblokowego zespołu, który wymaga takiego samego obrazu strukturalnego.
Niedawno Trimberger podzielił się swoimi przemyśleniami na temat przyszłości układów FPGA. Postanowił nazwać kolejną epokę: „Wiekiem obliczeń”, spodziewając się, że przetwarzanie w układach FPGA odegra dla nich fundamentalną rolę. „We współczesnych urządzeniach infrastruktura komunikacyjna: »wejście-wyjście« może zajmować ponad 50% powierzchni krzemu, a w przyszłości nawet ponad 50% może być zajęte przez jednostki obliczeniowe”. Z tej perspektywy ta przyszłość może — ale nie musi — rozciągnąć się na platformy prototypowe.
Źródło: https://www.eetimes.com/fpgas-in-the-storm/
Komunikacja i sieci wyróżniały się wśród aplikacji napędzających wczesną popularność układów FPGA z powodu częstych zmian w ich standardach. Te wymagały aktualizacji, badań w terenie itp., co jest nie do pomyślenia w przypadku implementacji tych funkcjonalności w niezmiennym układzie ASIC. W późniejszych latach układy FPGA wykorzystywano w branży motoryzacyjnej, wojskowej, w celach konsumenckich i obronnych. Ostatnio odrodzenie FPGA jest napędzane przez postęp w zakresie technologii sztucznej inteligencji (AI) i rozpowszechniania się tego rodzaju programów. Wśród aplikacji AI dominuje akceleracja uczenia głębokiego (DLA) realizowana na układach programowalnych.
Epoki FPGA
Artykuł dr Stephena M. Trimbergera i Xilinx zatytułowany: „Three Ages of FPGAs: A Retrospective on the First 30 years of the FPGA Technology”, ukazuje ewolucję układów FPGA od ich powstania w latach 1984 do roku 2015. Materiał został opublikowany w marcu 2015 r. w IEEE Proceedings. Trimberger wymienia trzy epoki rozwoju układów programowalnych:
— wiek wynalezienia (lata 1984-1991);
— wiek ekspansji (lata 1992-1999);
— wiek akumulacji (lata 2000-2007).
Sam autor twierdzi, że po okresie akumulacji technologia FPGA weszła w erę: „Już-nie-programowalnej-logiki”. Jak na ironię — określenie to zaprzecza istocie urządzenia ujętego w jego nazwie, ale oddaje rzeczywistość tych czasów. De facto mianowanie tego epoką: „Już-nie-programowalnej-logiki” po 2015 roku może być właściwe. W rzeczywistości z uwagi na najnowsze zastosowania układów FPGA najlepiej obecne czasy nazwać: „Wiekiem Sztucznej Inteligencji”.
Z pewnością nowa platforma adaptacyjnej akceleracji obliczeniowej (ACAP) firmy Xilinx po raz pierwszy wdrożona w rodzinie Versal, wzmacnia argumenty przemawiające za przemianowaniem obecnej epoki na: „wiek AI”. Według wyjaśnień Victora Penga — prezesa i dyrektora generalnego Xilinx, ACAP jest strukturą logiczną FPGA, która obejmuje wiele poziomów pamięci rozproszonej, programowalne sprzętowo bloki procesora sygnałowego (DSP), wielordzeniowy system na chipie (SoC), jeden lub więcej silników obliczeniowych, które są programowalne i przystosowalne na poziomie sprzętu. Wszystko jest połączone ze sobą za pośrednictwem sieci chipowej o bardzo małych opóźnieniach i wysokiej częstotliwości taktowania z arbitrażem i kontrolą przepływu danych. Platforma obejmuje, również zintegrowane przetworniki RF-ADC i DAC, obsługuje stos pamięci o dużej przepustowości (HBM), różne generacje pamięci DDR i zaawansowaną technologię bloków SerDes.
Struktury blokowe tego rodzaju są mózgiem układów DLA.
Gdzie są pieniądze
Według analizy przeprowadzonej przez Barclays Research opublikowanej w 2018 roku rynek DLA można podzielić na trzy segmenty: uczenie maszynowe i wnioskowanie (inferencja) w centrach danych oraz wnioskowanie na krawędzi (patrz wykres poniżej).
W badaniu przewidziano, że do 2020 roku około dwie trzecie sprzedaży półprzewodników będzie pochodziło z chipów wykorzystywanych w akceleratorach uczenia sieci neuronowych, głównie z procesorów graficznych firmy Nvidia. Po tym okresie prognozowano umiarkowany wzrost liczby półprzewodników stosowanych do szkolenia sieci neuronowych z gwałtownym wzrostem inferencji w centrach danych i na krawędzi, odpowiadający za wysoką dwucyfrową intensyfikację w kolejnym roku. Trend ten ma się utrzymywać w następnych latach, a penetracja rynku AI przez układy programowalne ma rosnąć w tym samym tempie. Barclays przewidywał w szczególności, że w 2021 roku segment wnioskowania na krawędzi będzie rósł nieco szybciej, niż sekcja wnioskowania w centrach danych, ponieważ zasoby informacyjne na brzegu będą wymagały lokalnego przetwarzania wstępnego, aby zapobiec opóźnieniu wynikającemu z transferu danych do centrum danych w celu przetworzenia i z powrotem do urządzenia klienckiego. Poczynając od 2022 r. segment wnioskowania przynosić ma ok. 3,6 razy większe przychody z półprzewodników, niż sekcja szkolenia sieci.
Jeśli chodzi o technologie napędzające DLA, takie jak: układy CPU, GPU, FPGA i ASIC, analiza po analizie konsekwentnie sprzyja zwyżce zastosowań układów typu ASIC i GPU przy umiarkowanym wzroście penetracji rynku przez układ FPGA i kurczeniu się wykorzystania procesorów (CPU) w tym celu.
Oczywiście dostawcy FPGA reagowali na te prognozy, wpychając coraz więcej bloków funkcjonalnych do układów, aby skupić się na DLA. A więc zamieniali możliwie duży obszar krzemu na zajmowany przez tradycyjne tablice przeglądowe (LUT). W międzyczasie układy te coraz bardziej zaczęły przypominać programowalne układy ASIC niż pierwotne układy FPGA.

Rys.2. Przyspieszenie rozwoju w zakresie systemów głębokiego uczenia sprawia, że FPGA może znaleźć swoje największe zastosowanie w systemach do uczenia maszynowego w centrach danych, do wnioskowania lub nawet przy pracy systemów uczenia maszynowego na krawędzi.
Prawdopodobnie to potencjał do napędzania rynku układów DLA jednostkami FPGA zmotywował Intela do przejęcia Altery w 2015 roku, a AMD do złożenia oferty przejęcia Xilinx w zeszłym roku. To także dobra wiadomość dla firmy Achronix, która stała się nową siłą dominującą w obszarze FPGA.
FPGA i platformy weryfikacji wspomagane sprzętowo
Zakładając, że trend będzie się utrzymywał, warto zapytać, jaka będzie przyszłość narzędzi do weryfikacji projektów wspomaganych sprzętowo opartych na komercyjnych układach FPGA.
Prototypowe platformy FPGA w szerokim zakresie wykorzystują programowalną logikę dostarczaną poprzez wbudowane bloki LUT do wirtualnego mapowania dowolnego projektu, niezależnie od rozmiaru, architektury i aplikacji docelowej. Przy projektach o rozmiarach sięgających 10 miliardów bramek równoważnych w ASIC, dostawcy prototypów projektują całe szafy wypełnione wieloma płytkami, które z kolei są przeładowane ogromnymi macierzami największych na rynku układów FPGA — wszystko, aby zaspokoić zapotrzebowanie na obsługę ogromnych ilości tablic LUT.
To stanowi obecnie dylemat dla dostawców FPGA. Aby efektywnie wspierać prototypowe platformy FPGA, układy FPGA powinny poświęcać bloki DSP, rdzenie SoC i inne wbudowane moduły i procesory dla maksymalizacji obszaru dla tablic LUT. Aby, jednak obsłużyć rynek DLA, układy FPGA powinny z kolei wymieniać pola logiki generycznej na obszar wyspecjalizowanych modułów implementowanych w krzemie. Te dwa wymagania nie są do pogodzenia, pozostawiając sprzedawcę FPGA w rozterce.
Czy dostawcy FPGA powinni stworzyć dwa odrębne urządzenia FPGA, jedno dla gałęzi wartej mniej niż miliard dolarów — całego dostępnego segmentu platform weryfikacji sprzętowej, a drugie, aby w pełni objąć sferę DLA i obsługiwać rosnący rynek o wartości kilku miliardów dolarów? Może to doprowadzić do tego, że układy do systemów weryfikacji sprzętowej będą wyceniane drożej, co przełoży się na wzrost cen platform do prototypowania.
Podsumowanie
Od 1985 roku układy FPGA ewoluowały przez pięć pokoleń. W obecnym wcieleniu materiał ten jest daleki od swojej pierwotnej struktury. Dziś odzwierciedla on ewolucję chipów elektronicznych, od monolitycznej konstrukcji, która kiedyś była dobrze obsługiwana przez LUT do hierarchicznego, wieloblokowego zespołu, który wymaga takiego samego obrazu strukturalnego.
Niedawno Trimberger podzielił się swoimi przemyśleniami na temat przyszłości układów FPGA. Postanowił nazwać kolejną epokę: „Wiekiem obliczeń”, spodziewając się, że przetwarzanie w układach FPGA odegra dla nich fundamentalną rolę. „We współczesnych urządzeniach infrastruktura komunikacyjna: »wejście-wyjście« może zajmować ponad 50% powierzchni krzemu, a w przyszłości nawet ponad 50% może być zajęte przez jednostki obliczeniowe”. Z tej perspektywy ta przyszłość może — ale nie musi — rozciągnąć się na platformy prototypowe.
Źródło: https://www.eetimes.com/fpgas-in-the-storm/
Cool? Ranking DIY