logo elektroda
logo elektroda
X
logo elektroda
REKLAMA
REKLAMA
Adblock/uBlockOrigin/AdGuard mogą powodować znikanie niektórych postów z powodu nowej reguły.

Czy w stresującej sytuacji powinniśmy ufać robotom?

ghost666 03 Mar 2016 22:11 3291 34
REKLAMA
  • Czy w stresującej sytuacji powinniśmy ufać robotom?
    W sytuacjach awaryjnych, jak pokazują badania, ludzie mają tendencję do zbytniego ufania robotom. Naukowcy z Nowej Zelandii przeprowadzili proste eksperymenty, na których podczas - udawanego - pożaru robot miał pomagać w ewakuacji. Ludzie podążali za nim i wierzyli w jego sprawność, nawet gdy w oczywisty sposób się mylił lub informowano ich, że nie działa. Badanie miało na celu ocenę, czy w stresującej sytuacji ludzie są w stanie podążyć za robotem, mającym zapewnić prostą i sprawną ewakuację z budynku np. wysokiego biurowca.

    "Ludzie wierzą, że maszyny wiedzą więcej o świecie niż wiedzą w rzeczywistości, więc są nieomylne i pozbawione błędów. W naszych badaniach uczestnicy podążali za robotem nawet w sytuacji, w której mogłoby to ich narazić na zagrożenie życia w wypadku prawdziwego pożaru" - komentują naukowcy.

    Badane osoby zostały w pierwszej części badania zapoznane z robotami, ale bez wtajemniczania w ich funkcję. Następnie zaproszono ich do sali konferencyjnej, gdzie wypełniali różne ankiety i mogli zrelaksować się czytając czasopisma - wszystko zupełnie niezwiązane z tematem. Do sali konferencyjnej wpuszczono dym, mający symulować pożar i uruchomiono "roboty ewakuacyjne", które tak naprawdę były zdalnie sterowane przez naukowców. Badani ślepo podążali za nimi, nawet w momencie, gdy popełniały one oczywiste pomyłki, wprowadzały ich do zamkniętych pomieszczeń, etc.

    Naukowcy zauważają, że w tym scenariuszu robot mógł posiadać pewien autorytet, uznawany przez badanych, co skłaniało ich do pokładania w nim większego zaufania. W sytuacji, gdzie nie występowało zagrożenie, ludzie nie ufali już tak awaryjnej maszynie.





    "Ten rodzaj eksperymentu jest bardzo ważny dla badania interakcji człowieka i maszyny. Musimy zapewnić, że roboty, które funkcjonować będą w otoczeniu wymagającym ludzkiego zaufania, nie zawiodą go lub sprawią, że człowiek przestanie im ufać, gdy będzie to konieczne" - mówią naukowcy. Opisywany eksperyment jest częścią szerszego projektu poświęconego badaniu zaufania w relacji człowiek-robot. Jest to coraz istotniejsza kwestia, z uwagi na to, że roboty pełnić będą coraz więcej funkcji w naszym społeczeństwie. Wyniki badań, takich jak to, pozwalają stawiać nowe pytania i myśleć o nowych sposobach interakcji ludzi z robotami.

    Ale pytania dotyczące zaufania to nie tylko kwestie wyjątkowych sytuacji, gdzie bezpośrednio zagrożone jest życie. Są inne sytuacje, gdy musimy zaufać maszynie - "czy zaufamy maszynie robiącej hamburgery?" - pytają naukowcy - "A czy zaufamy maszynie, która ma opiekować się małym dzieckiem? Zostawimy je z nią? Albo skorzystamy z autonomicznego wózka dla dzieci, który zawiezie je wprost do domu babci?". Póki co, nie znamy jeszcze odpowiedzi na te pytania, ale niedługo być może odpowiedź na nie będzie koniecznością.

    Źródło: http://phys.org/news/2016-02-emergencies-robot-video.html#jCp

    Fajne? Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    https://twitter.com/Moonstreet_Labs
    ghost666 napisał 11960 postów o ocenie 10197, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.
  • REKLAMA
  • #2 15492887
    michał_bak
    Poziom 23  
    Myślę, że ten "eksperyment" jest bez sensu. Równie dobrze można przeprowadzić i taki.
    Symulujemy pożar a badana grupa ludzi ewakuuje się zgodnie ze znakami wskazującymi drogę ewakuacji. Dla zabawy można część znaków poprzestawiać tak by wskazywały złą drogę. Wtedy grupa "naukowców" zada pytanie o zaufanie w sytuacjach dużego stresu.
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.
  • REKLAMA
  • #3 15493831
    Belialek
    Poziom 22  
    michał_bak napisał:
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.


    I tak i nie - myślę, że bardziej miarodajny byłby test jakby ewakuację przeprowadzały maszyny i ludzie (część instrukcji wydawanych przez maszyny powinna być sprzeczna z instrukcjami wydawanymi przez ludzi) i wtedy można stwierdzić w jakim stopniu człowiek zaufa maszynie wskazującej inną drogę niż człowiek.
  • #4 15493984
    omin172
    Poziom 15  
    Belialek napisał:
    michał_bak napisał:
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.


    I tak i nie - myślę, że bardziej miarodajny byłby test jakby ewakuację przeprowadzały maszyny i ludzie (część instrukcji wydawanych przez maszyny powinna być sprzeczna z instrukcjami wydawanymi przez ludzi) i wtedy można stwierdzić w jakim stopniu człowiek zaufa maszynie wskazującej inną drogę niż człowiek.


    Zgadzam się z kolegą Michałem. Moim zdaniem ten test opiera się na nieprawdziwych założeniach (systemy odpowiedzialne za bezpieczeństwo są zazwyczaj dosyć pewne w działaniu), więc i nie można z niego wysnuwać wartościowych wniosków.
  • #5 15494350
    dondu
    Moderator na urlopie...
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    Ale strzałkom ewakuacyjnym jak najbardziej licząc, że przepisy i kontrole odpowiednich służb spełniają swoje role.

    Niestety czasami i tutaj są problemy, bo drzwi ewakuacyjne są zastawione lub zamknięte, gdyż jakiś ... człowiek podjął bzdurną decyzję. Wtedy słyszymy o tym, że w dyskotece, domu opieki, itp. zginęło X ludzi ... ot życie.
  • #6 15495153
    omin172
    Poziom 15  
    dondu napisał:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)


    To ciekawe, bo w takich sprawach ja jeszcze ufałbym robotom. Jak się zrobią tak inteligentni i świadomi, jak ludzie, to już trzeba będzie się zastanowić, czy im dalej ufać. Dopóki mają umysł porównywalny z możliwościami sterownika do sygnalizacji świetlnej (ufasz sygnalizacji drogowej, prawda?), to nie ma się czego bać.

    No i chciałem zauważyć przy okazji, że w tym konkretnym przypadku zawiodły nie roboty, a ludzie dający im złe wskazówki ;P.
  • #7 15495175
    TechEkspert
    Redaktor
    Można zakładać, że robot czy system w takiej sytuacji będzie działał sprawniej niż przypadkowy człowiek, gdyż system może czerpać informacje z większej ilości źródeł i opierać swoje działanie na sprawdzonych i niezawodnych okresowo testowanych mechanizmach.

    Wygląda na to, że istotne w takiej sytuacji jest diagnozowanie i wyraźne sygnalizowanie uszkodzenia systemu.

    Dobre pytanie, czy grupa osób zaufałaby bardziej człowiekowi, który podjąłby rolę lidera i autorytetu w temacie ewakuacji.
  • #8 15495510
    timo66
    Poziom 23  
    Taki test jest tak samo wiarygodny i miarodajny jak przypadkowy człowiek który przejmuje zadanie lidera. Elektronika zawsze może zawieść tak jak człowiek się myli.
    Niepoważnym jest "symulowania" ewakuacji z mobilnym robotem, bo zakładając że w takim budynku będzie 100 ludzi na jednym poziomie to tylko +/- pierwszych 10 będzie widziało ten pojazd z kilkoma światełkami, cała reszta pójdzie za masą i pozostałych 90cioro ludzi ufa wtedy człowiekowi a nie robotowi.

    Sprawna ewakuacja to tak przy której każda osoba widzi ogólnie ustalone znaki (najczęściej w zielonym kolorze) za którymi podąża. Takie piktogramy są zawsze widoczne gdy człowiek zaczyna się zastanawiać nad dalszą drogą ewakuacyjną. Jeśli oznaczenia nie są tak rozstawione to osoby które robiły odbiór i zezwoliły na użytkowanie budynku są nieodpowiedzialne i podchodzą pod kryminał.

    Wracając do tego robota to zastanawia mnie to jak on miał by się poruszać po schodach? i dosłownie w żółwim tempie?
  • #10 15495617
    omin172
    Poziom 15  
    dondu napisał:
    omin172 napisał:
    To ciekawe, bo w takich sprawach ja jeszcze ufałbym robotom.

    Czyli powierzyłbyś swoje życie Windowsom?
    Po której poprawce?


    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    A zwyczajnie nie da się przetestować czegoś całkowicie autonomicznego.
  • #11 15495652
    zgryzliwy
    Poziom 13  
    Witam. W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, dlatego w czasie szkoleń wpaja im się pewne nawyki które są przydatne w sytuacjach zagrożenia, ale w warunkach realnych zapominają o tych zasadach. Co ważne większość ludzi posłusznie wykonuje wtedy polecenia wydawane przez pojawiających się przywódców nawet gdy są błędne. Nie ma się co dziwić to pozostałość ewolucji, zwierzęta pójdą tylko za przewodnikiem stada, wyłącza się myślenie i włącza się instynkt, który poleca uciekać. Jest to niby logiczne, ale często prowadzi do tragedii, bo najpierw należało by przeanalizować sytuację i podjąć środki adekwatne do występującego zagrożenia. Czy w takiej sytuacji ufać robotom, to nie jest łatwe. Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia. Może on być pomocny wskazując drogi ucieczki nie objęte zagrożeniem, mając kontakt z dyspozytorem mającym większą wiedzę na temat zagrożenia. Maszyna zawsze będzie prowadzić kalkulację czy da się, czy nie . Człowiek pomimo zagrożenia podejmuje czasami działania sprzeczne z logikom i dzięki temu jest bardziej pewny jeśli mam zaufać w sytuacji kryzysowej wyspecjalizowanym służbą. Bo puki co to człowiek bije w takich warunkach nawet najbardziej zaawansowany technologicznie automat bo potrafi działać wbrew utartym normą i nie zawiesza się w sytuacji stresu. Będzie działał mogąc popełnić błąd a maszyna stwierdzi to niemożliwe i nie podejmie działania.
  • #12 15497417
    vodiczka
    Poziom 43  
    zgryzliwy napisał:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.
  • #13 15497516
    dondu
    Moderator na urlopie...
    omin172 napisał:
    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    Pożar to nie jest 100% przewidywalne zjawisko. Resztę wyjaśnił kol. zgryzliwy.
    Dodam tylko, że ja nie należę do tej grupy:

    zgryzliwy napisał:
    W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, ...

    dlatego też:

    dondu napisał:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)
  • #14 15498007
    andrzej lukaszewicz
    Poziom 41  
    Do katastrofy 2 samolotów w powietrzu( chyba nad Bawarią) by nie doszło gdyby ludzie słuchali systemu ostrzegania, a nie wiezy kontrolnej.
    Z drugiej strony ludzie słuchają bezkrytycznie nawigacji w samochodzie nie zważając na znaki, tak sie nauczyliśmy i jest to dla nas wygodne. Jeden człek chciał do Krynicy Górskiej, a zorientował sie , że jest coś nie tak jak był 20km od Bałtyku...
    Tu nasuwa sie klasyka science fiction: Test Pilota Pirxa S. Lema.
  • #15 15498050
    omin172
    Poziom 15  
    zgryzliwy napisał:
    Witam. W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, dlatego w czasie szkoleń wpaja im się pewne nawyki które są przydatne w sytuacjach zagrożenia, ale w warunkach realnych zapominają o tych zasadach. Co ważne większość ludzi posłusznie wykonuje wtedy polecenia wydawane przez pojawiających się przywódców nawet gdy są błędne. Nie ma się co dziwić to pozostałość ewolucji, zwierzęta pójdą tylko za przewodnikiem stada, wyłącza się myślenie i włącza się instynkt, który poleca uciekać. Jest to niby logiczne, ale często prowadzi do tragedii, bo najpierw należało by przeanalizować sytuację i podjąć środki adekwatne do występującego zagrożenia. Czy w takiej sytuacji ufać robotom, to nie jest łatwe. Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.


    Ależ to nie jest problem. Wiadomo, że zraszacze nie uchronią od tornada. Mówiąc akademicko: system napotykając na problem sobie nieznany przekaże użytkownikowi, że w tym zakresie nie pomoże. W czym problem? Tak działa sygnalizacja świetlna: pojawia się usterka, to włącza się na migające żółte, a nie udaje sprawną, bo "jakoś to będzie, bo może się uda". Założę się, że można na palcach jednej ręki podać przypadki, w których paliło się zielone dla kierunków kolizyjnych.

    zgryzliwy napisał:
    Może on być pomocny wskazując drogi ucieczki nie objęte zagrożeniem, mając kontakt z dyspozytorem mającym większą wiedzę na temat zagrożenia. Maszyna zawsze będzie prowadzić kalkulację czy da się, czy nie . Człowiek pomimo zagrożenia podejmuje czasami działania sprzeczne z logikom i dzięki temu jest bardziej pewny jeśli mam zaufać w sytuacji kryzysowej wyspecjalizowanym służbą. Bo puki co to człowiek bije w takich warunkach nawet najbardziej zaawansowany technologicznie automat bo potrafi działać wbrew utartym normom i nie zawiesza się w sytuacji stresu. Będzie działał mogąc popełnić błąd a maszyna stwierdzi to niemożliwe i nie podejmie działania.


    Masz na myśli fakt, że człowiek ma przewagę polegającą na posiadaniu intuicji. Intuicja to nic innego, jak nieuświadomiona wiedza. Nie ma tu żadnej tajemnej przewagi człowieka nad maszyną. Jeśli maszyna czegoś nie wie, to o tym informuje. A co robi człowiek? Jemu się "wydaje" albo zgrywa bohatera... No to ja wolę maszynę, która albo wyciągnie z opresji bez pudła, albo jasno poinformuje o przeszkodach dla niej nie do pokonania.

    No i żadnego zawieszenia się robota też oczywiście nie ma. Skąd ta myśl w ogóle? A człowiek, to się nie zamyśli? I zawsze ma na wszystko rozwiązanie? Dosyć śmiała teoria.

    vodiczka napisał:
    zgryzliwy napisał:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.


    Owszem -- kilkakrotnie. Natomiast w zdecydowanej większości przypadków zawodził człowiek. I to wiele razy w prostych do rozwiązania, zdawałoby się, przypadkach.

    dondu napisał:
    omin172 napisał:
    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    Pożar to nie jest 100% przewidywalne zjawisko.


    Więc lepszy jest robot, który nie boi się dymu i być może więcej widzi, jeśli ma kontakt z systemem kamer przemysłowych.
  • #16 15498324
    dondu
    Moderator na urlopie...
    omin172 napisał:
    Więc lepszy jest robot, który nie boi się dymu i być może więcej widzi, jeśli ma kontakt z systemem kamer przemysłowych.


    Nawet najlepsze celownicze systemy wojskowe, nie są odporne na zwykłą farbę w spray, którą psikniesz w "oko Saurona". Dlatego powtórzę jeszcze raz - pożar to nie jest w 100% przewidywalne zjawisko. Kontakt, o którym piszesz może zostać zerwany szybciej niż sądzisz, czujniki mogą zawodzić, itd.
  • REKLAMA
  • #17 15498360
    michał_bak
    Poziom 23  
    vodiczka napisał:
    zgryzliwy napisał:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.

    Też oglądałem ten cykl ale chyba inaczej.
    Najczęstsza przyczyną trudnych do wyjaśnienia wypadków były zamrożenie albo zatkanie rurek Pitota.
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Przy okazji stresu i lotnictwa.
    Od dawna można wprowadzić w pełni automatyczne lądowanie na lotniskach wyposażonych w systemy precyzyjnego naprowadzania. Tyle, że pasażerowie bardziej ufają gdy to pilot decyduje, choć on decyduje na podstawie tego co mu powie system.
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.
  • #18 15498377
    dondu
    Moderator na urlopie...
    michał_bak napisał:
    Najczęstsza przyczyną trudnych do wyjaśnienia wypadków były zamrożenie albo zatkanie rurek Pitota.
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Toć właśnie komputer korzysta z tych czujników, a w jednym z odcinków serialu był pokazany przypadek, w którym to właśnie komputer źle reagował na zablokowane czujniki chciał zwiększyć prędkość poprzez zwiększenie obrotów silników i pochylając samolot w dół. Dopiero reakcja pilota - wyłączenie komputera i przejęcie kontroli nad samolotem - doprowadziły do szczęśliwego końca. W konsekwencji zmieniono oprogramowanie komputera.


    michał_bak napisał:
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Przeczytaj uwąznie: https://pl.wikipedia.org/wiki/Katastrofa_lotu_Air_France_447

    Cytat:
    Zastosowana w samolocie metoda sterowania typu fly-by-wire sprawia, że działanie urządzeń sterowniczych samolotu jest wypadkową wskazań obu drążków sterowych. W sytuacji działań przeciwstawnych (np. jeden pilot odpycha końcówkę drążka, drugi w tym momencie ją ściąga – co w tym locie miało miejsce) – wypadkowa działania maszyny może mieć skutek zerowy, jak przy braku jakiejkolwiek reakcji załogi. Stąd też w samolotach z tego typu sterowaniem musi być wyraźny podział na pilota będącego przy sterach i pilota obserwującego sytuację i wskazania przyrządów. Brak takiego podziału – przy różnicach w interpretacji sytuacji – może sam w sobie sprawić przesłankę do wypadku lub katastrofy.

    Czyli zawiodło oprogramowanie.

    michał_bak napisał:
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.

    Tylko, że Ty nie wiesz ile razy podczas lądowania ten system się włączać może (zależnie od sytuacji), a piloci lądują bezpiecznie:









    Ale oczywiście kategoria trzecia ILS w normalnych (nie pożarowych warunkach) spisuje się świetnie:



  • #19 15498448
    vodiczka
    Poziom 43  
    michał_bak napisał:
    Tyle, że pasażerowie bardziej ufają gdy to pilot decyduje, choć on decyduje na podstawie tego co mu powie system.
    omin172 napisał:
    Natomiast w zdecydowanej większości przypadków zawodził człowiek. I to wiele razy w prostych do rozwiązania, zdawałoby się, przypadkach.
    W sytuacji gdy system nie reaguje prawidłowo, zazwyczaj zawodzi również człowiek, bo jest szkolony do współpracy z systemem a jakie ma możliwości zdiagnozowania systemu w locie gdy decydują sekundy. Pilot z lat trzydziestych ubiegłego wieku rozwiązywał proste przypadki w swojej maszynie. Pilot współczesny jest uczony, że należy zaufać komputerowi a jeżeli informacje są sprzeczne lub jest brak pewnych informacji to należy sprawdzić bezpieczniki.
    michał_bak napisał:
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.
    Masz na myśli katastrofę smoleńską? Tu prawdopodobnie zdecydowała presja konieczności lądowania (podobnie jak w przypadku katastrofy Casy) a być może (nieujawnione) częste przypadki fałszywych informacji w innych lotach. Przykład lotu TU-154 dobrze ilustruje zasadę , że do katastrofy lotniczej z reguły doprowadza kilka kumulujących się błędów.
  • #20 15498617
    michał_bak
    Poziom 23  
    dondu napisał:
    Przeczytaj uwąznie: https://pl.wikipedia.org/wiki/Katastrofa lotu Air France 447

    Nie chcę kontynuować ale przeczytałem i "oblodzenie czujników prędkości (rurek Pitota) spowodowało błędy odczytu prędkości samolotu, co w konsekwencji doprowadziło do wyłączenia autopilota maszyny. Takie okoliczności zaskoczyły obu pilotów (kapitan był w krytycznych momentach nieobecny w kabinie), którzy w konsekwencji nie zastosowali procedury "unreliable IAS" (pl.: niewiarygodny odczyt prędkości przelotu). Jeden z pilotów błędnie postanowił pociągnąć za drążek sterowniczy powodując ostre wznoszenie się samolotu, a to zaś, w połączeniu z niekontrolowaniem przez pilotów mocy silników, spowodowało, iż samolot wkrótce uległ przeciągnięciu" itd.

    System zachował się prawidłowo, piloci nie.
  • #21 15498634
    dondu
    Moderator na urlopie...
    michał_bak napisał:
    System zachował się prawidłowo, piloci nie.

    System zawiódł, bo nie potrafił sobie poradzić i się wyłączył. Jeśli to samo zrobi robot z tego tematu w czasie wyprowadzania ludzi z pożaru, ci mogą znaleźć się w pułapce bez wyjścia.
  • #22 15498698
    zgryzliwy
    Poziom 13  
    Witam. Koledzy mamy tutaj sytuację w której z jednej strony padają przykłady błędu człowieka, zaś z drugiej strony błędnego działania urządzeń. To czy zaufać czy nie nie wypływa z sytuacji w jakiej się znajdujemy. Najlepiej to ilustruje przykład z nawigacją samochodową, to czy bezgranicznie zaufamy poleceniom tego typu wynika z naszej wygody bo po co pomyśleć przecież automat wie lepiej, co z tego że drogowskazy pokazują inne położenie. Ja wcale nie neguje tego, że autopilot w samolocie wie zdecydowanie więcej od pilota na temat stanu tego samolotu i błędnie podaje ostrzeżenia. Lecz nie zgodzę się z twierdzeniem o nieomylności urządzeń, bo to na człowieku ciąży odpowiedzialność i to on ostatecznie podejmuje decyzje. Dlatego uważam, że należy zachować równowagę pomiędzy zaufaniem do maszyn a naszą zdolnością do oceny i zdolności do działania w sytuacji złożonej jaką jest niewątpliwie sytuacja o której dyskutujemy. Nawet najlepsza symulacja nie jest w stanie przewidzieć wszystkiego co może się zdarzyć w przypadku konkretnego zagrożenia. Nawet wielokrotne treningi na symulatorze nie przygotują nas automatycznie do tego typu sytuacji, pomogą nam jednak na wyrobienie pewnych nawyków dzięki którym wzrasta nasza szansa wyjścia cało z tego typu zdarzenia.
  • #23 15498710
    michał_bak
    Poziom 23  
    vodiczka napisał:
    Masz na myśli katastrofę smoleńską?

    Niezupełnie ale to bardzo dobry przykład tego, że w sytuacji bardzo dużego stresu dobrze jest ufać wskazaniom przyrządów a nie własnym zmysłom.

    dondu napisał:
    System zawiódł, bo nie potrafił sobie poradzić i się wyłączył.

    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany. W sytuacji prymatu człowieka nad maszyną oddał interpretację człowiekowi.

    Takie przykłady związane z katastrofami lotniczymi mają tę przewagę na eksperymentami, że zdarzyły się naprawdę, że zbadano wszystkie możliwe czynniki wpływające na zdarzenie.
  • #24 15498735
    dondu
    Moderator na urlopie...
    michał_bak napisał:
    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany. W sytuacji prymatu człowieka nad maszyną oddał interpretację człowiekowi.

    ... czyli zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu". Nie ma znaczenia dlaczego zawiódł (awaria, czy celowe zaprogramowane włączenie) ważne, że przestał działać. Dlatego też:

    dondu napisał:
    Jeśli to samo zrobi robot z tego tematu w czasie wyprowadzania ludzi z pożaru, ci mogą znaleźć się w pułapce bez wyjścia.


    Innymi słowy nie można odnosić "Pyrrusowego zwycięstwa" mówiąc "Nasz komputer, robot postąpił prawidłowo i się wyłączył", podczas gdy ludzie zginęli.

    Dyskusja dotyczy zaufania ... a jak widać nie można go mieć w 100% i dlatego:

    dondu napisał:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    dondu napisał:
    Resztę wyjaśnił kol. zgryzliwy.
  • #25 15498838
    vodiczka
    Poziom 43  
    michał_bak napisał:
    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany
    dondu napisał:
    ... czyli zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu".

    Moim zdaniem nie zawiódł. Komputer prawdopodobnie został zaprogramowany tak > przekroczenie dopuszczalnej prędkości > automatyczne wyłączenie autopilota. Komputer nie analizuje co było przyczyną przekroczenia i czy faktycznie nastąpiło przekroczenie. W powietrzu nie ma słupków kilometrowych, którymi można posłużyć się w przypadku awarii prędkościomierza samochodowego. Tu mógłby być pomocny system nawigacji satelitarnej poprzez pomiar położenia samolotu w odstępie np. 5s i obliczenie prędkości w locie poziomym. Ponadto system nawigacji pozwala lokalizować samolot w dowolnym momencie lotu. W jednym z odcinków "Katastrofy w przestworzach" poruszono temat nawigacji satelitarnej, podobno przewoźnicy są niechętni ze względu na wysokie koszty ale przecież ten system funkcjonuje od lat na statkach a nawet małych jachtach.
  • REKLAMA
  • #26 15498895
    dondu
    Moderator na urlopie...
    vodiczka napisał:
    Moim zdaniem nie zawiódł.

    Przeczytaj proszę jeszcze raz co napisałem powyżej.

    vodiczka napisał:
    Ponadto system nawigacji pozwala lokalizować samolot w dowolnym momencie lotu. W jednym z odcinków "Katastrofy w przestworzach" poruszono temat nawigacji satelitarnej, podobno przewoźnicy są niechętni ze względu na wysokie koszty ale przecież ten system funkcjonuje od lat na statkach a nawet małych jachtach.

    Tyle, że w trakcie sztormowej pogody systemy te są zawodne.

    Dlatego też w każdym samolocie montowane są standardowe przyrządy pomiarowe jak busola, wysokościomierz barometryczny, wariometr membranowy, które w wielu przypadkach uratowały życie ludzkie.
  • #27 15499061
    vodiczka
    Poziom 43  
    dondu napisał:
    Przeczytaj proszę jeszcze raz co napisałem powyżej.
    Nie sprecyzowałeś co rozumiesz przez system, jeżeli zespół elementów od koncepcji działania, poprzez zaprojektowanie systemu i jego fizyczne wykonanie i oprogramowanie to masz rację. Jeżeli mówisz o systemie działającym na pokładzie samolotu to racji nie masz, działał tak jak założył człowiek na etapie koncepcji.
  • #28 15499097
    dondu
    Moderator na urlopie...
    Mam na myśli skutek, bo tylko on jest istotny. Nie ma znaczenia, czy ochronił ludzi ich własny instynkt, komputer, czy ... tzw. cud.
    Innymi słowy, jeśli urządzenie nie pomogło, to znaczy, że zawiodło.


    Jeśli ktoś projektuje system oparty o autopilota i rurkę Pitota, i nie zadbał o to, by owa rurka nie zamarzła to znaczy, że cały system jest do kitu. A to że się wyłączył, to tylko rozpaczliwe działanie konstruktora pozostawiające załogę na pastwę losu. System jest bowiem tak dobry, jak najsłabszy jego element.
  • #29 15499200
    vodiczka
    Poziom 43  
    dondu napisał:
    to znaczy, że cały system jest do kitu.
    Masz rację - cały system a nie komputer, który działał tak jak go zaprogramowano. Nie miał możliwosci weryfikacji informacji, którą otrzymywał z rurki Pitota. To nie on:
    dondu napisał:
    zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu".
    to człowiek nie dał mu takiej możliwości :)
  • #30 15499211
    dondu
    Moderator na urlopie...
    Zgadza się - temat dotyczy robota wyprowadzającego z pożaru i dlatego napisałem:

    dondu napisał:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    bo zaprojektował go człowiek, a cały system (w tym czujniki) nie są niezawodne.

    A to czy błąd popełnił programista, projektant elektroniki, projektant całego systemu, konserwator, instytut certyfikujący, itp. nie ma znaczenia. Liczy się tylko skutek.
REKLAMA