Elektroda.pl
Elektroda.pl
X

Search our partners

Find the latest content on electronic components. Datasheets.com
Elektroda.pl
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?

ghost666 22 Dec 2021 10:49 810 1
Optex
  • LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.1. System LIDAR-owy
    z 32 pionowymi kanałami
    skanujący otoczenie w poziomie
    z rozdzielczością kątową 1°.
    Postrzeganie przez maszyny otaczającego nas i je świata jest ogromnym wyzwaniem. Zrozumienie wymagań projektowych dotyczących wykrywania i klasyfikacji obiektów pomoże w opracowaniu bezpiecznego i opłacalnego rozwiązania LIDAR-owego dla szerokiej gamy systemów.

    Obietnica w pełni autonomicznego jutra nie wydaje się już mrzonką. Obecnie pytania dotyczące autonomii koncentrują się na podstawowych technologiach i postępach niezbędnych do urzeczywistnienia niezależnych mechanizmów. Optyczne wykrywanie obiektów i pomiar odległości z wykorzystaniem LIDAR-ów stało się jedną z najczęściej rozważanych technologii wspierających przejście na aplikacje autonomiczne. Nadal pozostaje, jednak wiele pytań. Systemy LIDAR-owe o zasięgu większym, niż 100 m i rozdzielczości kątowej na poziomie 0,1°, wciąż dominują na pierwszych stronach gazet poświęconych technologii autonomicznej jazdy. Jednak nie wszystkie aplikacje autonomiczne wymagają tak wysokiego poziomu wydajności. Aplikacje typu asystent parkowania, czy systemy zamiatania ulic mogą tutaj posłużyć za taki przykład. Istnieje wiele technologii pomiaru głębi i określania odległości takich jak: radary, stereoskopia, sensory ultradźwiękowe, czy LIDAR, które umożliwiają ww. aplikacjom funkcjonowanie. Jednak każdy z tych czujników charakteryzuje się wyjątkowym kompromisem między parametrami, wielkością i kosztem.

    Sensory ultradźwiękowe są najtańsze, ale mają ograniczony zasięg, rozdzielczość i niezawodność. Radar ma znacznie lepszy zasięg i wyższą sprawność, ale przejawia, również ograniczenia dotyczące rozdzielczości kątowej. Widzenie stereoskopowe z kolei może mieć duży narzut obliczeniowy i limity dokładności, jeśli nie zostanie odpowiednio skalibrowane. Przemyślana konstrukcja systemu LIDAR-owego pomaga wypełnić te luki, dzięki precyzyjnemu pomiarowi dystansu, wysokiej rozdzielczości kątowej i przetwarzaniu o niskiej złożoności obliczeniowej, nawet przy dużych odległościach. Jednak systemy LIDAR-owe są zwykle postrzegane jako nieporęczne i kosztowne — niekoniecznie, jednak pokrywa się to z prawdą.

    Projekt systemu LIDAR rozpoczyna się od określenia najmniejszego obiektu, który mechanizm musi wykryć, współczynnika odbicia tego obiektu oraz odległości, w jakiej się on znajduje. Powoduje to zdefiniowanie rozdzielczości kątowej systemu. Na tej podstawie można obliczyć minimalny stosunek sygnału do szumu (SNR), który jest podstawowym kryterium wychwytywania potrzebnego do wykrycia obiektu.

    Zrozumienie środowiska i zebranie odpowiedniej ilości informacji niezbędnych do kompromisów projektowych umożliwia opracowanie optymalnego rozwiązania pod względem kosztów i parametrów układu. Rozważmy na przykład przypadek autonomicznego samochodu poruszającego się po drodze z prędkością 100 km/h i robota przemieszczającego się z prędkością 6 km/h po strefie dla pieszych lub w magazynie. W przypadku dużych szybkości istotne może być rozważenie sytuacji nie tylko samego pojazdu jadącego z prędkością 100 km/h, ale, także innego, podążającego z tą samą dynamiką w przeciwnym kierunku. Dla takiego sposobu percepcji jest to równoznaczne z obiektem zbliżającym się ze względną prędkością 200 km/h. W przypadku czujników LIDAR-owych, które wykrywają obiekty w maksymalnej odległości 200 m, dystans między pojazdami zmniejszyłby się o 25% w zaledwie jedną sekundę. Zaletą LIDAR-u w danej sytuacji jest tempo reakcji.
    Rozdzielczość to kolejna ważna cecha charakterystyczna systemu LIDAR. Wysoka rozdzielczość kątowa umożliwia bowiem odbieranie sygnałów zwrotnych w wielu pikselach z jednego obiektu. Jak pokazano na rysunku 1, rozdzielczość kątowa równa 1° przekłada się na piksele o wielkości 3,5 m w odległości 200 m. Piksele tego rozmiaru są większe, niż wiele przedmiotów, które należy wykryć, co stwarza kilka wyzwań.

    Po pierwsze, uśrednianie przestrzenne jest często stosowane w celu poprawy SNR i wykrywalności, ale przy tylko jednym pikselu na obiekt nie jest to możliwe. Ponadto, nawet jeśli zostanie on wychwycony, nieosiągalne staje się przewidzenie wielkości obiektu. Kawałek gruzu drogowego, zwierzę, znak drogowy i motocykl są zwykle mniejsze niż 3,5 m. Z kolei system o rozdzielczości kątowej 0,1° ma piksele 10 razy mniejsze i powinien wykryć około pięciu sąsiadujących pikseli na samochodzie o typowej szerokości w odległości 200 m. Większość aut jest zazwyczaj szersza niż wyższa; w ten sposób system może odróżnić samochód od motocykla.

    Wykrywanie, czy obiekt można bezpiecznie przejechać wymaga znacznie dokładniejszej rozdzielczości w pionie, niż w poziomie. Wyobraźmy sobie, jak różne mogą być wymagania autonomicznego robota odkurzającego, ponieważ porusza się on powoli i musi wyłapać wąskie, ale wysokie przedmioty takie jak np. nogi od stołu.

    Po zdefiniowaniu odległości i prędkości jazdy, a także ustaleniu wykrywanych obiektów i późniejszych wymagań eksploatacyjnych, można określić architekturę LIDAR-u w projektowanym systemie. Należy dokonać wielu wyborów takich jak np. pomiędzy skanowaniem, oświetlaniem całego obszaru naraz lub między pomiarem bezpośredniego czasu przelotu (ToF) lub digitalizacją całego przebiegu. Opis tych kompromisów wykracza poza zakres tego artykułu. Bez względu na wybraną architekturę system taki składa się z łańcucha sygnałowego i komponentów do zarządzania zasilaniem, które pokazano na rysunku 2.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.2. Dyskretne komponenty systemu LIDAR-owego.


    AD-FMCLIDAR1-EBZ to wysokowydajna platforma do prototypowania LIDAR-ów. Jest to zestaw rozwojowy oparty o laser impulsowy 905 nm z bezpośrednim pomiarem ToF. System ten umożliwia szybkie prototypowanie robotów, dronów oraz sprzętu rolniczego i budowlanego, a także systemów wspierania kierowców i sensorów dla pojazdów autonomicznych ze statyczną konfiguracją w jednym wymiarze. Komponenty wybrane do tego projektu referencyjnego są przeznaczone do aplikacji LIDAR-owych o dużym zasięgu.

    System został zaprojektowany ze źródłem laserowym 905 nm sterowanym przez ADP3634, podwójny, szybki tranzystor MOSFET o prądzie do 4 A. Zawiera on, również 16-kanałową macierz APD (fotodiod lawinowych) zasilaną przez LT8331, czy programowalny zasilacz do generowania napięcia zasilania APD. Sygnał zbiera macierz 4-kanałowych wzmacniaczy transimpedancyjnych LTC6561 ze względu na ich niski poziom szumów i dużą szybkość. Dalej znajdują się AD9094 — 1-GSPS, 8-bitowe przetworniki analogowo-cyfrowe (ADC), które mają najniższy pobór mocy na kanał na rynku (435 mW/kanał). Ważne jest, aby zminimalizować zużycie energii, ponieważ mniejsze rozpraszanie ciepła upraszcza konstrukcję termiczną i mechaniczną systemu i pozwala na zmniejszenie rozmiaru LIDAR-u.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.3. Architektura systemu deweloperskiego FMCLIDAR1-EBZ.


    Precyzja pomiaru odległości (głębi) jest związana z częstotliwością próbkowania ADC. Pozwala to systemowi dokładnie wiedzieć, jak daleko znajduje się obiekt, co może być krytyczne w aplikacjach, które wymagają pomiarów z bliskiego dystansu, tyczy się to takich funkcji, jak parkowanie czy logistyka magazynowa. Dodatkowo zmiana odległości w czasie może być wykorzystana do obliczenia prędkości, a to często wymaga jeszcze większej precyzji pomiaru głębi. Dzięki prostemu algorytmowi progowania, na przykład ToF, osiągalna dokładność zasięgu wynosi 15 cm dla 1 ns okresu próbkowania — to znaczy z 1 GSPS ADC. Jest to obliczane jako c*(dt/2), gdzie c to prędkość światła, a dt to okres próbkowania ADC.

    Wykorzystując ADC można, jednak użyć bardziej wyrafinowanych technik poprawy działania systemu, takich jak na przykład interpolacja, celem poprawy precyzji pomiaru odległości. Szacunkowo dokładność tę można zwiększyć o około pierwiastek kwadratowy z SNR. Jednym z najbardziej wydajnych algorytmów przetwarzania danych jest filtr dopasowany, który maksymalizuje SNR, po którym następuje interpolacja w celu uzyskania najlepszej precyzji pomiaru odległości.

    EVAL-ADAL6110-16 wspomaga projektowanie systemu LIDAR-owego. Jest to wysoce konfigurowalny moduł ewaluacyjny. Zapewnia on uproszczony, ale równie konfigurowalny czujnik głębi do pomiarów 2D typu Flash do zastosowań wymagających wykrywania i śledzenia obiektów w czasie rzeczywistym (65 Hz), takich jak np. systemy unikania kolizji.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.4. Moduł ewaluacyjny EVAL-ADAL6110-16 LIDAR wykorzystujący zintegrowany 16-kanałowy ADAL6110-16.


    Optyka zastosowana w projekcie referencyjnym zapewnia pole widzenia (FOV) 37° (poziomo) i 5,7° (pionowo). Przy liniowej matrycy o wielkości 16 pikseli ułożonych poziomo, rozmiar piksela przy 20 m jest porównywalny z przeciętną osobą dorosłą — 0,8 m (poziomo) × 2 m (pionowo). Jak wskazano wcześniej, różne aplikacje mogą potrzebować odmiennych konfiguracji optycznych. Jeśli istniejąca optyka nie spełnia wymagań danej aplikacji, płytkę drukowaną można łatwo wyjąć z obudowy i umieścić w systemie o innej, nowej konfiguracji części optycznej.

    System ewaluacyjny jest zbudowany wokół układu ADI6110-16. Jest to 16-kanałowy zintegrowany procesor sygnałowy dedykowany do aplikacji LIDAR-owych (LSP). Charakteryzuje się niskim poborem mocy i szerokim spektrum zintegrowanych funkcji — zapewnia kontrolę taktowania do sterowania oświetlaniem mierzonego obszaru pola, synchronizację próbkowania odebranego przebiegu oraz możliwość digitalizacji przechwyconego sygnału. Integracja w ADAL6110-16 wszystkich wrażliwych elementów analogowych zmniejsza stan szumów, umożliwiając systemowi przechwytywanie bardzo niskich poziomów sygnału, w przeciwieństwie do implementacji tego samego łańcucha sygnału z dyskretnymi komponentami o podobnych parametrach projektowych, gdzie szum RMS może zdominować sygnał. Ponadto zintegrowany łańcuch sygnałowy pozwala systemom LIDAR-owym na zmniejszenie rozmiaru, wagi i zużycia energii.

    Oprogramowanie systemu zapewnia dynamiczną i bezawaryjną pracę modułu ewaluacyjnego. Przyczynia się to do szybkiego wykonywania pomiarów i rozpoczęcia pracy z systemem pomiarowym. Zestaw ten jest w pełni samodzielny i działa z pojedynczym źródłem zasilania 5 V podawanym przez USB. Może być także łatwo zintegrowany z autonomicznym systemem sterowania za pomocą dostarczonych sterowników robotów (ROS). Użytkownicy muszą tylko utworzyć złącze dla wyprowadzeń z systemu, aby połączyć się z robotem lub innym pojazdem i komunikować się za pośrednictwem jednego z czterech dostępnych protokołów komunikacyjnych: SPI, USB, CAN lub RS-232. Projekt referencyjny można, również zmodyfikować pod kątem różnych technologii odbiorników i nadajników. Więcej informacji na temat EVAL-ADAL6110-16 i ADAL6110-16 LSP jest do znalezienia na stronie analog.com/LIDAR.

    Jak wspomniano wcześniej technologię odbiornika w projekcie referencyjnym EVAL-ADAL6110-16 można modyfikować w celu tworzenia i testowania różnych konfiguracji, jak pokazano na rysunkach od 5 do 7. EVAL-ADAL6110-16 jest dostarczany z 16-elementową matrycą fotodiod Hamamatsu S8558 (rozmiar piksela przy różnych odległościach został przedstawiony w Tabeli 1 poniżej). Jest on oparty na efektywnym rozmiarze piksela, który wynosi 0,8 mm × 2 mm współpracującym z obiektywem o ogniskowej 20 mm. Na przykład, jeśli ta sama płytka została przeprojektowana z indywidualnymi fotodiodami takimi jak Osram SFH2701 z aktywnym obszarem 0,6 mm x 0,6 mm każda, rozmiar piksela w tych samych zakresach byłby diametralnie inny, ponieważ FOV zmienia się w zależności od rozmiaru piksela, jak pokazano w tabeli poniżej.

    Optyczne pole widzeniaPrzyczyna wyboru 20 mm40 mm60 mm
    EVAL-ADAL6110-16 z sensorem Hamamatsu S855837° × 5.7°Wykrywanie średniej wielkości osoby z odległości 20 m0,8 x 21,6 x 42,4 x 6
    EVAL-ADAL6110-16 z 16 pikselami z sensorów Osram SFH2701Zależne od ułożenia sensorówPiksel obrazu z 5 metrów ma wielkość dwóch 2-litrowych butelek0,6 x 0,61,2 x 1,21,8 x 1,8

    Tab.1. Wymiary pikseli vs. zasięg pomiaru dla EVAL-ADAL6110-16


    Przyjrzyjmy się na przykład sensorowi S8558 z jego 16 pikselami ułożonymi w linii. Każdy z nich ma wymiary 2 mm × 0.8 mm.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.5. Rysunek układu fotodiod PIN w module Hamamatsu S8558.


    Po wybraniu obiektywu o ogniskowej 20 mm pionowe i poziome pole widzenia na piksel można obliczyć za pomocą podstawowej trygonometrii, jak pokazano na rysunku 6. Oczywiście wybór obiektywu może obejmować dodatkowe, bardziej złożone kwestie takie jak korekcja aberracji, czy krzywizna pola widzenia. Jednak w przypadku systemów o niższej rozdzielczości takich jak omawiany, proste obliczenia są często wystarczające do doboru obiektywu do systemu.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys.6. Podstawowe obliczenia rozdzielczości kątowej dla prostej optyki.


    Wybrane pole widzenia 1 × 16 pikseli może być używane w zastosowaniach takich jak: wykrywanie obiektów i unikanie kolizji w pojazdach autonomicznych i autonomicznych pojazdach naziemnych lub w celu umożliwienia jednoczesnej lokalizacji i mapowania (SLAM) dla robotów pracujących w ograniczonych środowiskach, takich jak magazyny.

    LIDARy dla systemów autonomicznych - detekcja czy klasyfikacja obiektów?
    Rys. 7. Różne implementacje optyczne systemu LIDAR, które mogą pomóc zwiększyć bezpieczeństwo aplikacji.


    Unikalna aplikacja polega na skonfigurowaniu macierzy pomiarowej w siatce 4 × 4 w celu detekcji obiektów wokół pojazdu. Ta opracowywana właśnie aplikacja zostanie zamontowana w autobusach i ciężarówkach jako strefa bezpieczeństwa dookoła pojazdu. Mechanizm może ostrzec kierowcę, jeśli w pobliżu środka transportu znajdują się ludzie. System może wykrywać kierunek, w którym idzie dana osoba i informować kierowcę, aby zareagował — zatrzymując pojazd lub ostrzegając pieszego klaksonem — tak, aby zapobiec wypadkowi. Dokładnie to samo może robić pojazd autonomiczny wykorzystujący podobny system ostrzegania oparty o LIDAR.

    Należy pamiętać, że nie każda aplikacja wymaga rozdzielczości kątowej na poziomie 0,1° i zasięgu 100 m. Trzeba rozważyć, czego dana aplikacja naprawdę potrzebuje od systemu LIDAR, a następnie jasno zdefiniować kluczowe kryteria takie jak: rozmiar obiektu, współczynnik odbicia, odległość od przedmiotu i prędkość, z jaką porusza się system autonomiczny. Pozwoli to na dobór komponentów w celu uzyskania zrównoważonego projektu o optymalnej wydajności i koszcie w stosunku do funkcjonalności potrzebnej systemowi, ostatecznie, zwiększając prawdopodobieństwo pomyślnego zaprojektowania urządzenia za pierwszym razem.

    Źródło: https://www.analog.com/en/analog-dialogue/articles/lidar-for-autonomous-system-design-object-classification-or-object-detection.html

    Cool? Ranking DIY
    Can you write similar article? Send message to me and you will get SD card 64GB.
    About Author
    ghost666
    Translator, editor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 wrote 11099 posts with rating 9410, helped 157 times. Live in city Warszawa. Been with us since 2003 year.
  • Optex
  • #2
    gulson
    System Administrator
    Ja tylko dodam, że zrobiliśmy fajny webinar między innymi o LIDARach, można obejrzeć nagranie za darmo pod linkiem po rejestracji:
    https://event.on24.com/wcc/r/3532730/2AFD834B881D15ADB75326F5A2A0B1B6?partnerref=news