Elektroda.pl
Elektroda.pl
X
Deimic One - Szkolenia
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim

ghost666 15 Kwi 2018 15:49 2127 22
  • Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Przez ostatnie osiemnaście miesięcy firmy technologiczne i wtórujące im media zajęte były promocją nadchodzących niebawem w pełni autonomicznych samochodów. Niewiele z tych głosów podnosiło temat szeregu nieznanych elementów w tej układance związanej z pełną autonomią.

    Po ostatnim śmiertelnym wypadku autonomicznego pojazdu Ubera, jeden ważny głos zajął Rick Calle, prezes działu rozwoju systemów AI firmy Qualcomm i zadał następujące pytanie:

    Tragedia Ubera była jego pierwszą - jak sprawić, żeby była ostatnią? Jestem pewien, że firma realizuje dużo symulacji, ale czy jakiekolwiek z nich obejmują symulację awarii sensorów, wpływu zbyt rzadkiego próbkowania Lidarem na duże odległości czy innych trudnych do przewidzenia wydarzeń?

    Pytanie to podkreśla istotny dylemat związany z testowaniem pojazdów autonomicznych - to nie jest proste zadanie. Potwierdzenie, że taki samochód nie tylko po prostu działa, ale jeździ w sposób bezpieczny wymaga niespotykanego dotychczas rygoru dla systemu testującego. Osoby projektujące testy muszą nie tylko zdecydować co i jak należy symulować, ale muszą także zadbać, by symulacje prowadzone były z wykorzystaniem wysokiej klasy danych z sensorów. Testy muszą być zbudowane tak, by być w stanie oceniać poziom bezpieczeństwa, jaki zapewnia dany pojazd.

    Zanim jednak przejdziemy do detali związanych z symulacjami i metodologiami testów, koniecznie trzeba zastanowić się nad jedną istotną kwestią - co de facto oznacza, że dany pojazd jest autonomiczny? Obecna definicja jest co najmniej niedojrzała.

    Profesor Philip Koopman z Carnegie Mellon University napisał na swoim blogu, że pojazd Ubera, który zabił Elaine Herzberg w ostatnim wypadku, to nie był w pełni autonomiczny samochód. Padła ona raczej ofiarą "niedostatecznie przetestowanego pojazdu rozwojowego, którego 'kierowca bezpieczeństwa' nie zadbał odpowiednio, by błędy auta nie zrobiły nikomu krzywdy".

    Zastanówmy się nad tym głębiej. W zakresie projektowania i wprowadzania do użycia pojazdów autonomicznych nadal jest wiele niewiadomych. Są to głównie specyficzne kwestie-pytania, które skierowane zostały do sektora technicznego i które dopiero zaczęły być rozwiązywane, nie mówiąc już o (póki co) braku odpowiednich strategii odpowiedzi na te kwestie.

    EETimes zadał kilku przedstawicielom tego sektora przemysłu - od deweloperów algorytmów i ekspertów do spraw testów do inżynierów oprogramowania wbudowanego - jakie kwestie nadal postrzegają oni jako nierozwiązane bądź wyzywające w zakresie stworzenia naprawdę autonomicznego pojazdu. Ich odpowiedzi były skrajnie różniące się między sobą, ale uwidoczniło to, że istnieje jeszcze wiele problemów z tą technologią, które trzeba rozwiązać, by systemy autonomiczne mogły realnie funkcjonować.





    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Percepcja predyktywna

    CEO firmy DeepScale Forrest Iandola (na zdjęciu) mówił, że zewnętrzni obserwatorzy mogą nigdy nie dowiedzieć się, co było rzeczywistą przyczyną wypadku, jeśli Uber nie zdecyduje się na publikację danych. Nie wiemy, co realnie widziały radary i kamery systemu w czasie wypadku; opublikowano tylko nagranie z jednej kamery. "Potrzebujemy pełnej przejrzystości. Bez niej ciężko jest powiedzieć, co poszło źle w zakresie ich systemu percepcji, planowania ruchu czy mapowania otoczenia" - mówi Iandola.

    DeepScale to start-up założony w 2015 roku w celu rozwijania systemów percepcyjnych opartych o algorytmy uczenia maszynowego. Systemy te dedykowane są do aut w tym także pojazdów autonomicznych. Jak tłumaczy Iandola - na podstawie zgromadzonej przez firmę wiedzy, jeśli chodzi o systemy percepcyjne, to tematyka ta jest dobrze zbadana zarówno przez przemysł, jak i uniwersytety. Weźmy na przykład LIDARy - urządzenia te mogą z powodzeniem wykryć jakiego kształtu są detekowane obiekty 3D, a systemy klasyfikacji mogą z powodzeniem odpowiedzieć czym dany przedmiot jest. Problemem jest jednakże coś, co Iandola nazywa "percepcją predyktywną". Nad tym zagadnieniem badania dopiero się rozpoczęły.

    Percepcja predyktywna to umiejętność przewidywania przez maszynę dalszych 'losów' wykrytego przedmiotu. Jeśli samochód nie wie, gdzie dany obiekt znajdzie się za chwilę, to nie jest w stanie odpowiednio zareagować, np. zahamować lub skręcić. "Trzeba koniecznie stworzyć ustandaryzowany interfejs pomiędzy systemem predykcji a układem ruchu" - mówi Iandola - "Jeśli to się nie uda, to stworzenie pojazdów autonomicznych poziomu 4 (pozwalający na samodzielną jazdę w większości warunków - przyp.red.) będzie bardzo trudne".

    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Czy można symulować przypadki brzegowe?

    Symulacje przed testowaniem pojazdów autonomicznych na naszych drogach są oczywiście bardzo ważne. Ale ważniejsze jest odpowiedzenie na pytanie, co i jak dokładnie należy symulować.

    Michael Wagner (na zdjęciu) jest współzałożycielem i CEO Edge Case Research. Twierdzi on, że nawet miliardy mil przejechane w symulatorze mogą nie pozwolić na wykrycie tak zwanych przypadków brzegowych działania systemu autonomicznych pojazdów.

    Przez kilka ostatnich lat firmy produkujące układy scalone wspomagające algorytmy uczenia maszynowego przykładają dużą wagę do rozwijania algorytmów, które umożliwić mają działanie pojazdów autonomicznych. Wiele wskazuje, że tego rodzaju systemy mają dać automatyczną inteligencję na tyle podobną do ludzkiej, że będą one w stanie uczyć się obserwując otoczenie, co oznacza, że nie będzie trzeba preprogramować w nich każdej możliwej sytuacji.

    Oczywiście rozwiązanie takie nie jest pozbawione wad. Jeśli system korzystający z uczenia maszynowego napotka coś, czego jeszcze nie widział, może się nieźle wystraszyć i reagować w sposób trudny do przewidzenia. Człowiek kierowca, gdy zobaczy coś, z czym jeszcze nie miał na drodze do czynienia, w pełni zdaje sobie sprawę z tego, że jest to dla niego dziwne i niespotykane. Człowiek wie jednocześnie, że musi jakoś zareagować. Sztuczna inteligencja nie rozumuje w takich kategoriach i nie posiada kategorii "dziwne" w swoim algorytmie. Autonomiczny pojazd może po prostu nie zarejestrować abnormalnej sytuacji i zachowywać się, jakby nigdy ona nie nastąpiła.

    Badania w zakresie rozpoznawania warunków brzegowych algorytmów pojazdów autonomicznych zajmują się właśnie wykrywaniem tego rodzaju anomalii, by wykorzystać je jako scenariusze testowe w symulatorach, jak informuje Wagner. "Badania są na razie na bardzo wstępnym etapie" - mówi o swoim projekcie Hologram, który ma za zadanie "przekształcić każdą milę przejechaną po realnych drogach w miliony potencjalnych scenariuszy do symulacji, które mają wyłapać 'nieznane nieznane' tak szybko i łatwo, jak to tylko możliwe".

    Tworzenie tego rodzaju "dziwnych przypadków" dla pojazdów autonomicznych nie jest proste. W Europie realizowany jest projekt Pegasus, który zajmuje się podobną tematyką, aczkolwiek wykorzystuje inne podejście - analizuje bazy danych stworzone na podstawie pomiarów z testowanych aut. Jednakże, jak wskazuje Wagner, niektóre ze scenariuszy tworzonych w ramach Pegasusa mogą nie być w ogóle istotne z punktu widzenia wykorzystania sieci neuronowych.

    Innymi słowy - po prostu nie wiemy obecnie, co jest w stanie być odpowiednio dziwnym lub trudnym do 'zrozumienia' przez sieci neuronowe wykorzystywane w algorytmach uczenia maszynowego w samochodach autonomicznych, jak tłumaczy Wagner. "Losowość jest bardzo istotna w zakresie tworzenia anomalii. My wykorzystujemy realistyczne scenariusze i modyfikujemy na przykład zebrane obrazy w różnym zakresie, wprowadzając subtelne modyfikacje w naszej platformie Hologram" - mówi CEO Edge Case Research. Projekt realizowany przez jego firmę ma charakter pilotażowy, ale skupia uwagę wielu inwestorów, co ma umożliwić platformie skalowanie.

    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Czy oprogramowanie jest zweryfikowane?

    Największy wpływ na systemy autonomicznego sterowania systemami, z punktu widzenia producentów aut, jest wielkość oprogramowania. "Systemy te są zbyt wielkie... spowalnia to cały proces oceny jego bezpieczeństwa i niezawodności" - komentuje Chuck Brokish (na zdjęciu), dyrektor działu motoryzacyjnego w Green Hills Software.

    Wiodący producenci układów scalonych dla sektora motoryzacyjnego często certyfikują swoje elementy zgodnie z normami ASIL itp. Klasyfikacja ta pomaga zrozumieć wymagania i poziom bezpieczeństwa tych elementów zgodnie z normą ISO26262. Ale co z oprogramowaniem, które pracuje na tak certyfikowanych układach? Czy ono także spełnia normy ASIL-D? Odpowiedź wydaje się prosta. "Nie. Twórcy software wskazują jedynie, że kontrolują jakość oprogramowania" - mówi Brokish. Oznacza to, że jego bezpieczeństwo nie jest niezależnie oceniane, kontrolowane i certyfikowane, tłumaczy.

    Wiele organizacji przemysłowych, wliczając w to SAE czy ISO, pracuje nad stworzeniem wytycznych do oceny bezpieczeństwa i niezawodności oprogramowania tej klasy. Wszystko wskazuje jednak, że minie kilka lat, zanim wytyczne te zostaną ściśle zdefiniowane.

    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Jak sprawić by wielki czerwony przycisk działał poprawnie?

    Profesor Phil Koopman (na zdjęciu) z uniwersytetu Carnegie Mellon twierdzi, że nie wymaga dowodu na pełną niezawodność samochodu autonomicznego, zanim nie wyruszy ono na testy na ulicy. Wskazuje on jednocześnie, że producent/operator pojazdu powinien zapewnić pisemny, poparty ścisłymi dowodami etc. dokument, w którym uzasadnia, że auto jest dostatecznie bezpieczne, aby wyjechać na drogę. Stwierdzenie, że w pojeździe cały czas znajduje się "kierowca bezpieczeństwa" to znacznie za mało.

    Na drugim Automated Vehicle Summit, jakie odbyło się 9 kwietnia w Pittsburgh (Pennsylvania) Koopman prezentował swój wykład poświęcony zapewnianiu bezpieczeństwa pojazdów autonomicznych poprzez testowanie tych pojazdów. Jakkolwiek skupiał się on na kwestiach, które sprawić mają, że testy te będą bezpieczne, to stwierdził on również, że krytycznym elementem układanki jest symulowanie zachowania pojazdów w różnych warunkach.

    "Niezależnie jednak ile symulujemy różnych scenariuszy, w pewnym momencie pojazd musi wyjechać na prawdziwą drogę. I gdy nadejdzie ten dzień, trzeba w nim umieścić kierowcę bezpieczeństwa wraz z systemem, który umożliwi mu w niezawodny sposób przejęcie kontroli nad pojazdem, nawet jeżeli oprogramowanie ulegnie dowolnej awarii, nawet takiej, jakiej nie przewidywały prowadzone wcześniej symulacje" - mówi Koopman.

    Jednym z problemów, na które zwrócił uwagę profesor, jest spadek poziomu koncentracji kierowcy bezpieczeństwa. Tego rodzaju zjawisko znane jest np. w lotnictwie, gdzie drugi pilot często dekoncentruje się podczas lotu. Operatorzy pojazdów autonomicznych muszą odpowiednio przeszkolić kierowców bezpieczeństwa, by ci byli w stanie zachować cały czas wysoki poziom koncentracji. Dodatkowo warto w systemie zintegrować układy monitorujące skupienie kierowcy w czasie rzeczywistym.

    Równie ważne, co utrzymywanie wysokiego poziomu skupienia kierowcy bezpieczeństwa, jest umożliwienie mu szybkiej reakcji. Istotne jest to, aby system, który służy do wyłączania autonomiki w pojeździe działał szybko i w pełni niezawodnie.

    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    Często słyszymy od dostawców pojazdów autonomicznych, że testowanie tych aut na drogach publicznych jest bezpieczne, ponieważ w pojeździe znajduje się cały czas kierowca, który może przejąć stery pojazdu.

    Koopman ironicznie pyta, "czy ten wielki czerwony przycisk w aucie rzeczywiście działa". Czerwony przycisk jest tutaj metaforą dowolnego systemu wyłączenia autonomicznych mechanizmów sterowania pojazdem. "W niektórych przypadkach jest to literalnie wielki czerwony przycisk na desce rozdzielczej". Działanie tego systemu opisać można dwoma scenariuszami:

    W pierwszym scenariuszu (obrazek po lewej), jak tłumaczy Koopman: "Kierowca steruje samochodem poprzez oprogramowanie odpowiadające także za jazdą autonomiczną. Jeśli w oprogramowaniu tym jest jakiś błąd, może ono w skrajnym przypadku zignorować polecenia kierowcy. (...) Dodanie dodatkowego przycisku do wyłączenia automatyki nie sprawi, że system będzie bezpieczniejszy, ponieważ nic nie sprawi, żeby oprogramowanie po prostu nie zignorowało faktu naciśnięcia tego przycisku".

    W drugim scenariuszu (obrazek poniżej) "zakładamy, że oprogramowanie autonomicznej jazdy może mieć błędy, więc koniecznie zapewniamy kierowcy niezależny kanał sterowania autem, który można aktywować przyciskiem awaryjnym, dezaktywując system autonomiczny" - mówi Koopman.

    "W takim przypadku odłączenie systemu autonomicznego sprawia, że auto musi dać się sterować przez kierowcę, niezależnie od tego, co dzieje się z testowanym oprogramowaniem" - dodaje badacz.

    Pierwszy wypadek Ubera najpewniej nie jest jego ostatnim
    "Drugi scenariusz jest jest znacznie bezpieczniejszy, szczególnie jeżeli system przełączania sterowania autem zaprojektowano zgodnie z normą ISO-26262 ASIL" - mówi Koopman - "W takiej sytuacji, jak warto zwrócić uwagę, niemożliwym jest, by system po aktywacji przycisku awaryjnego miał większy priorytet decydowania o aucie niż człowiek".

    Jeśli tragiczny wypadek Ubera czegoś nas nauczył, to tego, że klienci, przemysł i władze powinny odejść od prostych argumentów nad bezpieczeństwem na naszych drogach. Jednym praktycznym podejściem, by uczynić ruch w pełni bezpiecznym, jest usunięcie z niego czynnika ludzkiego, co nie jest możliwe, przynajmniej dopóki ludzie tworzą algorytmy dla pojazdów autonomicznych przyszłości. Jeszcze wiele pracy przed sektorem motoryzacyjnym, zanim samochody autonomiczne będą mogły bezpiecznie współegzystować z pieszymi i kierowanymi przez ludzi samochodami na naszych drogach.

    Źródło: https://www.eetimes.com/author.asp?section_id=36&doc_id=1333166

  • Deimic One - Szkolenia
  • #2 15 Kwi 2018 19:52
    Kraniec_Internetów
    Poziom 39  

    Póki autonomiczny system ma tak duże wady* lepiej tworzyć go jako dodatkową opcję, a nie centralny system sterowania samochodem. Czyli zgodnie ze schematem 1. Duże wady widzieliśmy, gdy samochód Ubera potrącił osobę prowadzącą rower, czyli sytuację w której samochód nawet jeżeli wykrył zagrożenie (a jeżeli nie wykrył to czemu?), nie hamował ani nie zrobił nic innego.
    Prócz tego śmierć na drodze jest przecież zjawiskiem dość powszechnym. Gdyby rowerzystkę potrącił zwykły samochód całość potraktowanoby jako zwykły wypadek, gdzie winna jest jedna ze stron. Za to gdy do identycznego wypadku dochodzi z udziałem autonomicznego pojazdu (lub pół-autonomicznego), media podnoszą hałas jakby co najmniej poszkodowaną przygniótł spadający z nieba statek kosmitów.
    Chociaż w zasadzie można powiedzieć, że pojazdy autonomiczne odniosły wielki sukces - gdy dochodzi do wypadku z ich udziałem media na całym świecie o tym trąbią. W końcu do takiego zdarzenia dochodzi raz na miesiąc/kilka miesięcy. Jest to więc zjawisko rzadko spotykane.
    Poza tym trzeba pamiętać, że komputer właściwie nigdy się nie myli. Pomijając zbyt mocno przetaktowany procesor :). Myli się człowiek programujący go i dobierający elementy wyposażenia. Dla przykładu:
    Pamiętacie wypadek Tesli która nie zauważyła ciężarówki zlewającej się na tle nieba? Pokładowy radar (lub sonar?) wykrył przeszkodę przed pojazdem, ale kamera nie zauważyła białej ciężarówki na tle chmur i zignorowała sygnały z radaru. Tu zawinił człowiek, który nieodpowiednio zaprogramował system. Z drugiej strony w/w wypadek Ubera i rowerzystki. Kamery pojazdu nie zauważyły kobiety, bo było bardzo ciemno. Na pokładzie nie było sonaru, który zauważyłby ją z przynajmniej kilkudziesięciu metrów. Był to więc błąd projektanta.
    Niestety nie da się określić zachowania tak skomplikowanego układu jakim jest autonomiczny samochód, i wręcz trzeba uczyć się na błędach.
    Nie mogę znaleźć źródła, ale całkiem niedawno pewna firma pracująca nad autonomicznymi pojazdami przeprowadziła ankietę wśród ludzi, by zebrać informacje do stworzenia czegoś pokroju "etyki" dla komputera. Pytania wyglądały jak "Mając do wyboru przejechanie nastolatki, lub 3 starców, kogo przejedziesz". O proszę tu bez komentarzy "zjadę na pobocze". Są przecież sytuacje w których ani człowiek ani maszyna nie są w stanie zapobiec śmierci, i wynikają z tego że cały ruch na ulicy i w jej otoczeniu jest dość skomplikowanym zjawiskiem, więc może się zdarzyć dosłownie wszystko. A przecież w takich sytuacjach autopilot musi zareagować. Przecież się nie wyłączy.
    Na koniec - mam znajomego w straży pożarnej, który kilka tygodni temu zbierał gościa z autostrady. Delikwentowi skończyło się paliwo, więc zaparkował na zjeździe z autostrady (chyba zjeździe), i z kanistrem pobiegł po paliwo. Gdy wracał, przebiegając przez jezdnię, wjechało w niego auto. Z tego co pamiętam urwało mu rękę, a reszta poleciała dość daleko. Jak powinno zareagować autonomiczne auto? Przecież nie da się wgrać wszystkich sytuacji do komputera, tylko trzeba nauczyć komputer reagować i samemu podejmować decyzje.

  • #3 16 Kwi 2018 06:44
    Jacekser
    Poziom 16  

    Kraniec_Internetów napisał:
    ... wręcz trzeba uczyć się na błędach.

    Będzie jak w lotnictwie-postęp w tej dziedzinie budowany jest na wypadkach tragicznych z reguły w skutkach.

    Kraniec_Internetów napisał:
    ...trzeba nauczyć komputer reagować i samemu podejmować decyzje.

    Ciekawie to będzie wyglądało w przypadku naszego kraju znając fantazję ( i inwencję)naszych rodaków.Zapewne dla "wschodnich" użytkowników oprogramowanie będzie znacząco się różniło od reszty Świata :wink:

  • #4 16 Kwi 2018 08:19
    Szyszkownik Kilkujadek
    Poziom 31  

    ghost666 napisał:
    Jestem pewien, że firma realizuje dużo symulacji, ale czy jakiekolwiek z nich obejmują symulację awarii sensorów...

    Odpowiedź jest banalna i posiada dwie opcje:
    1. Standardowy samochód z autopilotem: awaria istotnego czujnika = kierowco przejmij kontrolę. Jeśli brak reakcji to awaryjne zatrzymanie.
    2. Samochód autonomiczny: awaria istotnego czujnika = awaryjne zatrzymanie.

    Jacekser napisał:
    Będzie jak w lotnictwie-postęp w tej dziedzinie budowany jest na wypadkach tragicznych z reguły w skutkach.

    Możesz podać przykład katastrofy lotniczej, w której zawinił autopilot?

  • #5 16 Kwi 2018 08:22
    Kraniec_Internetów
    Poziom 39  

    Szyszkownik Kilkujadek napisał:
    Możesz podać przykład katastrofy lotniczej, w której zawinił autopilot?

    Koledze @Jacekser nie chodziło o rozwój autopilota bazując na błędach lotniczych, tylko na rozwoju lotnictwa w oparciu o błędy.
    Ale na pewno będzie ich sporo.

  • #6 16 Kwi 2018 08:26
    Szyszkownik Kilkujadek
    Poziom 31  
  • Deimic One - Szkolenia
  • #7 16 Kwi 2018 13:11
    koczis_ws
    Poziom 25  

    Cytat:
    ... Jednym z problemów, na które zwrócił uwagę profesor, jest spadek poziomu koncentracji kierowcy bezpieczeństwa. Tego rodzaju zjawisko znane jest np. w lotnictwie, gdzie drugi pilot często dekoncentruje się podczas lotu. Operatorzy pojazdów autonomicznych muszą odpowiednio przeszkolić kierowców bezpieczeństwa, by ci byli w stanie zachować cały czas wysoki poziom koncentracji. Dodatkowo warto w systemie zintegrować układy monitorujące skupienie kierowcy w czasie rzeczywistym. ...

    Tylko tak na dobrą sprawę czym (poza może minimalnym wysiłkiem fizycznym przy kręceniu kierownicą) różni się to od normalnego prowadzenia pojazdu ?
    Z drugiej strony znam takich co jadąc jako pasażer są nawet bardziej skupieni od kierowcy.

    Dodano po 38 [minuty]:

    I jeszcze jedno. Kierowca do oceny sytuacji ma do dyspozycji jedynie wzrok Układy samochodów autonomicznych mają do dyspozycji jeszcze wiele innych sensorów a mimo to są zawodne :) I to jest puki co wyższość inteligencji nad techniką.

  • #8 16 Kwi 2018 14:50
    Kraniec_Internetów
    Poziom 39  

    koczis_ws napisał:
    Tylko tak na dobrą sprawę czym (poza może minimalnym wysiłkiem fizycznym przy kręceniu kierownicą) różni się to od normalnego prowadzenia pojazdu ?

    Kompletnie niczym, prócz tego że można się czasem po dupie podrapać :)
    Te pojazdy jeszcze nie są autonomiczne. To tylko prototypy, lub raczej normalne pojazdy z prototypowym systemem. Trzeba go ciągle pilnować i sprawdzać.
    koczis_ws napisał:
    Układy samochodów autonomicznych mają do dyspozycji jeszcze wiele innych sensorów a mimo to są zawodne

    Teoretycznie masz rację. W praktyce wcześniej wspomniany przeze mnie Uber nie mógł używać kamery, bo było ciemno. Tak więc sytuacja niemal identyczna niż jakby prowadził człowiek. Za to Tesla miała na pokładzie wszystko, bo i ciężarówkę wykryła, ale przez błąd programującego zignorowała zagrożenie. Tak więc sensory to nie wszystko.

  • #9 16 Kwi 2018 18:08
    el_danone
    Poziom 14  

    Szyszkownik Kilkujadek napisał:
    Możesz podać przykład katastrofy lotniczej, w której zawinił autopilot?


    Wklep w YT: katastrofa w przestworzach błąd autopilota

    W skrócie: 2 katastrofy + jeden przypadek kiedy udało się maszynę "wyciągnąć". Okazało się, że autopilot nie ignorował błędnych wskazań jednego z wysokościomierzy i sterował silnikami jak w trybie 'do przyziemienia'. Ignorując nawet manualne zmiany pilota.

    Pozdrawiam

  • #10 16 Kwi 2018 18:26
    Jacekser
    Poziom 16  

    Szyszkownik Kilkujadek napisał:
    @Kraniec_Internetów skąd wiesz o co chodziło @Jacekser? Pozwól mu się wypowiedzieć.

    No to się wypowiadam.Kol.Kraniec_Internetów dobrze mnie zrozumiał.Błędy w lotnictwie krwią były/są dokumentowane.Co do autopilota to nie przypominam sobie by sam on był przyczyną wypadku ,a zła jego obsługa a i owszem co najmniej kilku.Jeśli już odnosimy się do lotnictwa to własnie zła obsługa/niedostateczne szkolenie w obsłudze nowoczesnych samolotów były efektem kilku spektakularnych katastrof.Czyli czynnik ludzki odgrywał w tych wypadkach główną rolę.Samochody autonomiczne mają z założenia poruszać się bez udziału kierującego.W każdym razie takie są założenia.A jak to wychodzi w praktyce-czytaj wyżej i
    https://www.elektroda.pl/rtvforum/topic3221495.html
    Polecam mój ostatni wpis dot.następnej kraksy autonomicznej Tesli.
    https://www.elektroda.pl/rtvforum/viewtopic.php?p=17115372#17115372
    Coś z tym muszą zrobić.

  • #11 16 Kwi 2018 18:51
    Krzysztof Kamienski
    Poziom 42  
  • #12 16 Kwi 2018 18:57
    Kraniec_Internetów
    Poziom 39  

    Tyle, że nie ma sensu porównywać autopilota w samochodzie a w samolocie. Samochód musi non stop śledzić otoczenie i pracować z wielką ilością danych. Reakcje muszą być natychmiastowe i często sytuacja zmienia się w ułamek sekundy. Samolot za to za otoczenie zwykle ma dziesiątki kilometrów wolnej przestrzeni wokół siebie. Oczywiście czasem też mniej. Sytuacja nie może zmienić się tak szybko jak na drodze, a i ma sporo czasu na reakcję. Momenty gdy do pilotażu potrzebny jest pilot to krytyczne sytuacje. Z drugiej strony samochód może zjechać na pobocze, a samolot nie bardzo.

  • #13 16 Kwi 2018 20:24
    novcio
    Poziom 12  

    @Jacekser za jakiś czas tamten temat może się rozrosnąć może nawet sam dopiszesz nowe posty i nie będzie szło się domyślić, o który Twój post chodzi. Jeżeli o #61 to można skopiować link tego numeru wtedy otrzyma się taki link https://www.elektroda.pl/rtvforum/viewtopic.php?p=17115372#17115372 który od razu pokazuje co napisałeś. Bardzo sprytna funkcja na forum, niedawno sam odkryłem:)

  • #14 16 Kwi 2018 21:19
    Jacekser
    Poziom 16  

    Dzięki kol.novcio.Dopisałem .

  • #15 17 Kwi 2018 08:16
    Szyszkownik Kilkujadek
    Poziom 31  

    Krzysztof Kamienski napisał:
    Szyszkownik Kilkujadek napisał:
    Możesz podać przykład katastrofy lotniczej, w której zawinił autopilot?
    Czesciowo tak. Katastrofa Air France 447 nad Atlantykiem

    https://pl.wikipedia.org/wiki/Katastrofa_lotu_Air_France_447

    Znam tę katastrofę. Słynne super-cold-water (woda przechłodzona).
    Autopilot zareagował prawidłowo wyłączając się, po wykryciu niewiarygodnych wskazań prędkości.
    Potem cała seria błędów ludzkich doprowadziła do katastrofy.
    Cytat:
    Pomimo trwającego przez niemal minutę sygnału dźwiękowego informującego o tym fakcie oraz ciężkich turbulencji, trwające przeciągnięcie nie zostało właściwie zinterpretowane przez żadnego z pilotów, którzy nie kompensowali parametrów lotu samolotu tak, by wydobyć go z niebezpieczeństwa. Brak właściwych reakcji pilotów wynikał z braku wiarygodności co do posiadanych parametrów lotu oraz postawienia obu pilotów w okolicznościach silnego stresu połączonego z brakiem doświadczenia i odpowiedniego wyszkolenia.


    Ale podkreślam, że jestem w stanie w pełni "wejść w skórę" pilotów i rozumiem, że mogli być zagubieni. Automatyzacja uśpiła ich czujność.

  • #17 17 Kwi 2018 15:31
    Sebek6543210
    Poziom 9  

    Ciekawe dlaczego wina tej ostatniej tragedii została zrzucona w całości na autonomiczny samochód. Czy przypadkiem przechodzenie w nocy na autostradzie kilka metrów za zakrętem, oraz w miejscu nieoświetlonym i jednoczesny brak odpowiednio wczesnej reakcji na zbliżający się samochód nie przyczynił się w najmniejszym stopniu do spowodowania tego wypadku?

  • #19 17 Kwi 2018 16:15
    E8600
    Poziom 35  

    Analogia do samolotów trochę nie na miejscu bo tam wystarczy trzymać się współrzędnych i lecimy w "bezkolizyjnym tunelu powietrznym". Dodatkowo samolot nigdy nie leci bez pilota w postaci człowieka a zazwyczaj jest ich dwóch.

    Tylko patrzeć jak wpadną na pomysł i wprowadzą autonomiczne motocykle. Świat się kończy.

    Aby to mogło działać musiałaby być większa ilość samochodów autonomicznych, które przewidywałyby z wyprzedzeniem kolizje i wzajemnie się ostrzegały. W obecnych realiach takie samochody będą zagrożeniem dla pozostałych uczestników ruchu. Pociągi także teoretycznie mogłyby same jeździć ale i tak siedzi w nich maszynista.

  • #20 17 Kwi 2018 16:52
    sanfran
    Poziom 36  

    Kraniec_Internetów napisał:
    @Sebek6543210
    Zapewne przyczynił. Tylko samochód dostrzegł ofiarę z kilku metrów i nawet nie próbował nic robić. Dlatego zawiódł.


    Kierowcy w takim przypadku próbują unikać kolizji. I często przy tym giną lub odnoszą ciężkie obrażenia. Samochód autonomiczny nie może narażać pasażerów w kabinie, bo nikt takiego dziada nie kupi.
    Smutne, ale prawdziwe: jak ktoś łazi pijany lub/i naćpany nie zważając na nic dookoła, to sam sobie winien.

  • #21 17 Kwi 2018 17:22
    E8600
    Poziom 35  

    Nie tylko ludzie mogą znaleźć się na drodze, a w szczególności małe dzieci. Ciekawe co by było gdyby to był łoś lub podobne większe zwierzę.
    Zagrożeniem będzie także upadające drzewo, a podobnych nietypowych sytuacji można wymieniać w nieskończoność.

    Jeśli producenci będą chcieli na siłę przedwcześnie wdrożyć takie niedopracowane auta to skończy się tym, że zrobią sobie antyreklamę i pomysł szybko upadnie.

  • #23 19 Kwi 2018 16:30
    lambik
    Poziom 2  

    Mam wrazenie, ze najbardziej niedopracowane są póki co zasady współdziałania oprogramowanie autonomiczne - kierowca. Podejrzewam że większość wypadków będzie jednak winą kierowców, którzy odłączą oprogramowanie lub przejmą decyzję. Drugim tematem jest ilość różnorodnych czujników otoczenia, ich czułość i niezawodność. W końcu nawet najlepiej dopracowany algorytm będzie miał problem z interpretacją niepełnych lub zafałszowanych danych.