Elektroda.pl
Elektroda.pl
X
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

Czy w stresującej sytuacji powinniśmy ufać robotom?

ghost666 03 Mar 2016 22:11 3153 34
  • Czy w stresującej sytuacji powinniśmy ufać robotom?
    W sytuacjach awaryjnych, jak pokazują badania, ludzie mają tendencję do zbytniego ufania robotom. Naukowcy z Nowej Zelandii przeprowadzili proste eksperymenty, na których podczas - udawanego - pożaru robot miał pomagać w ewakuacji. Ludzie podążali za nim i wierzyli w jego sprawność, nawet gdy w oczywisty sposób się mylił lub informowano ich, że nie działa. Badanie miało na celu ocenę, czy w stresującej sytuacji ludzie są w stanie podążyć za robotem, mającym zapewnić prostą i sprawną ewakuację z budynku np. wysokiego biurowca.

    "Ludzie wierzą, że maszyny wiedzą więcej o świecie niż wiedzą w rzeczywistości, więc są nieomylne i pozbawione błędów. W naszych badaniach uczestnicy podążali za robotem nawet w sytuacji, w której mogłoby to ich narazić na zagrożenie życia w wypadku prawdziwego pożaru" - komentują naukowcy.

    Badane osoby zostały w pierwszej części badania zapoznane z robotami, ale bez wtajemniczania w ich funkcję. Następnie zaproszono ich do sali konferencyjnej, gdzie wypełniali różne ankiety i mogli zrelaksować się czytając czasopisma - wszystko zupełnie niezwiązane z tematem. Do sali konferencyjnej wpuszczono dym, mający symulować pożar i uruchomiono "roboty ewakuacyjne", które tak naprawdę były zdalnie sterowane przez naukowców. Badani ślepo podążali za nimi, nawet w momencie, gdy popełniały one oczywiste pomyłki, wprowadzały ich do zamkniętych pomieszczeń, etc.

    Naukowcy zauważają, że w tym scenariuszu robot mógł posiadać pewien autorytet, uznawany przez badanych, co skłaniało ich do pokładania w nim większego zaufania. W sytuacji, gdzie nie występowało zagrożenie, ludzie nie ufali już tak awaryjnej maszynie.





    "Ten rodzaj eksperymentu jest bardzo ważny dla badania interakcji człowieka i maszyny. Musimy zapewnić, że roboty, które funkcjonować będą w otoczeniu wymagającym ludzkiego zaufania, nie zawiodą go lub sprawią, że człowiek przestanie im ufać, gdy będzie to konieczne" - mówią naukowcy. Opisywany eksperyment jest częścią szerszego projektu poświęconego badaniu zaufania w relacji człowiek-robot. Jest to coraz istotniejsza kwestia, z uwagi na to, że roboty pełnić będą coraz więcej funkcji w naszym społeczeństwie. Wyniki badań, takich jak to, pozwalają stawiać nowe pytania i myśleć o nowych sposobach interakcji ludzi z robotami.

    Ale pytania dotyczące zaufania to nie tylko kwestie wyjątkowych sytuacji, gdzie bezpośrednio zagrożone jest życie. Są inne sytuacje, gdy musimy zaufać maszynie - "czy zaufamy maszynie robiącej hamburgery?" - pytają naukowcy - "A czy zaufamy maszynie, która ma opiekować się małym dzieckiem? Zostawimy je z nią? Albo skorzystamy z autonomicznego wózka dla dzieci, który zawiezie je wprost do domu babci?". Póki co, nie znamy jeszcze odpowiedzi na te pytania, ale niedługo być może odpowiedź na nie będzie koniecznością.

    Źródło: http://phys.org/news/2016-02-emergencies-robot-video.html#jCp

    Cool? Ranking DIY
    About Author
    ghost666
    Translator, editor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 wrote 11539 posts with rating 9738, helped 157 times. Live in city Warszawa. Been with us since 2003 year.
  • #2
    michał_bak
    Level 20  
    Myślę, że ten "eksperyment" jest bez sensu. Równie dobrze można przeprowadzić i taki.
    Symulujemy pożar a badana grupa ludzi ewakuuje się zgodnie ze znakami wskazującymi drogę ewakuacji. Dla zabawy można część znaków poprzestawiać tak by wskazywały złą drogę. Wtedy grupa "naukowców" zada pytanie o zaufanie w sytuacjach dużego stresu.
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.
  • #3
    Belialek
    Level 22  
    michał_bak wrote:
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.


    I tak i nie - myślę, że bardziej miarodajny byłby test jakby ewakuację przeprowadzały maszyny i ludzie (część instrukcji wydawanych przez maszyny powinna być sprzeczna z instrukcjami wydawanymi przez ludzi) i wtedy można stwierdzić w jakim stopniu człowiek zaufa maszynie wskazującej inną drogę niż człowiek.
  • #4
    omin172
    Level 14  
    Belialek wrote:
    michał_bak wrote:
    Mamy zaufanie bo tego uczy nas doświadczenie. Doświadczenie które mówi - postępuj zgodnie ze wskazówkami bo wcześniej przewidzieliśmy taką sytuację.


    I tak i nie - myślę, że bardziej miarodajny byłby test jakby ewakuację przeprowadzały maszyny i ludzie (część instrukcji wydawanych przez maszyny powinna być sprzeczna z instrukcjami wydawanymi przez ludzi) i wtedy można stwierdzić w jakim stopniu człowiek zaufa maszynie wskazującej inną drogę niż człowiek.


    Zgadzam się z kolegą Michałem. Moim zdaniem ten test opiera się na nieprawdziwych założeniach (systemy odpowiedzialne za bezpieczeństwo są zazwyczaj dosyć pewne w działaniu), więc i nie można z niego wysnuwać wartościowych wniosków.
  • #5
    dondu
    Moderator on vacation ...
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    Ale strzałkom ewakuacyjnym jak najbardziej licząc, że przepisy i kontrole odpowiednich służb spełniają swoje role.

    Niestety czasami i tutaj są problemy, bo drzwi ewakuacyjne są zastawione lub zamknięte, gdyż jakiś ... człowiek podjął bzdurną decyzję. Wtedy słyszymy o tym, że w dyskotece, domu opieki, itp. zginęło X ludzi ... ot życie.
  • #6
    omin172
    Level 14  
    dondu wrote:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)


    To ciekawe, bo w takich sprawach ja jeszcze ufałbym robotom. Jak się zrobią tak inteligentni i świadomi, jak ludzie, to już trzeba będzie się zastanowić, czy im dalej ufać. Dopóki mają umysł porównywalny z możliwościami sterownika do sygnalizacji świetlnej (ufasz sygnalizacji drogowej, prawda?), to nie ma się czego bać.

    No i chciałem zauważyć przy okazji, że w tym konkretnym przypadku zawiodły nie roboty, a ludzie dający im złe wskazówki ;P.
  • #7
    TechEkspert
    Editor
    Można zakładać, że robot czy system w takiej sytuacji będzie działał sprawniej niż przypadkowy człowiek, gdyż system może czerpać informacje z większej ilości źródeł i opierać swoje działanie na sprawdzonych i niezawodnych okresowo testowanych mechanizmach.

    Wygląda na to, że istotne w takiej sytuacji jest diagnozowanie i wyraźne sygnalizowanie uszkodzenia systemu.

    Dobre pytanie, czy grupa osób zaufałaby bardziej człowiekowi, który podjąłby rolę lidera i autorytetu w temacie ewakuacji.
  • #8
    timo66
    Level 23  
    Taki test jest tak samo wiarygodny i miarodajny jak przypadkowy człowiek który przejmuje zadanie lidera. Elektronika zawsze może zawieść tak jak człowiek się myli.
    Niepoważnym jest "symulowania" ewakuacji z mobilnym robotem, bo zakładając że w takim budynku będzie 100 ludzi na jednym poziomie to tylko +/- pierwszych 10 będzie widziało ten pojazd z kilkoma światełkami, cała reszta pójdzie za masą i pozostałych 90cioro ludzi ufa wtedy człowiekowi a nie robotowi.

    Sprawna ewakuacja to tak przy której każda osoba widzi ogólnie ustalone znaki (najczęściej w zielonym kolorze) za którymi podąża. Takie piktogramy są zawsze widoczne gdy człowiek zaczyna się zastanawiać nad dalszą drogą ewakuacyjną. Jeśli oznaczenia nie są tak rozstawione to osoby które robiły odbiór i zezwoliły na użytkowanie budynku są nieodpowiedzialne i podchodzą pod kryminał.

    Wracając do tego robota to zastanawia mnie to jak on miał by się poruszać po schodach? i dosłownie w żółwim tempie?
  • #10
    omin172
    Level 14  
    dondu wrote:
    omin172 wrote:
    To ciekawe, bo w takich sprawach ja jeszcze ufałbym robotom.

    Czyli powierzyłbyś swoje życie Windowsom?
    Po której poprawce?


    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    A zwyczajnie nie da się przetestować czegoś całkowicie autonomicznego.
  • #11
    zgryzliwy
    Level 13  
    Witam. W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, dlatego w czasie szkoleń wpaja im się pewne nawyki które są przydatne w sytuacjach zagrożenia, ale w warunkach realnych zapominają o tych zasadach. Co ważne większość ludzi posłusznie wykonuje wtedy polecenia wydawane przez pojawiających się przywódców nawet gdy są błędne. Nie ma się co dziwić to pozostałość ewolucji, zwierzęta pójdą tylko za przewodnikiem stada, wyłącza się myślenie i włącza się instynkt, który poleca uciekać. Jest to niby logiczne, ale często prowadzi do tragedii, bo najpierw należało by przeanalizować sytuację i podjąć środki adekwatne do występującego zagrożenia. Czy w takiej sytuacji ufać robotom, to nie jest łatwe. Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia. Może on być pomocny wskazując drogi ucieczki nie objęte zagrożeniem, mając kontakt z dyspozytorem mającym większą wiedzę na temat zagrożenia. Maszyna zawsze będzie prowadzić kalkulację czy da się, czy nie . Człowiek pomimo zagrożenia podejmuje czasami działania sprzeczne z logikom i dzięki temu jest bardziej pewny jeśli mam zaufać w sytuacji kryzysowej wyspecjalizowanym służbą. Bo puki co to człowiek bije w takich warunkach nawet najbardziej zaawansowany technologicznie automat bo potrafi działać wbrew utartym normą i nie zawiesza się w sytuacji stresu. Będzie działał mogąc popełnić błąd a maszyna stwierdzi to niemożliwe i nie podejmie działania.
  • #12
    vodiczka
    Level 43  
    zgryzliwy wrote:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.
  • #13
    dondu
    Moderator on vacation ...
    omin172 wrote:
    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    Pożar to nie jest 100% przewidywalne zjawisko. Resztę wyjaśnił kol. zgryzliwy.
    Dodam tylko, że ja nie należę do tej grupy:

    zgryzliwy wrote:
    W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, ...

    dlatego też:

    dondu wrote:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)
  • #14
    andrzej lukaszewicz
    Level 40  
    Do katastrofy 2 samolotów w powietrzu( chyba nad Bawarią) by nie doszło gdyby ludzie słuchali systemu ostrzegania, a nie wiezy kontrolnej.
    Z drugiej strony ludzie słuchają bezkrytycznie nawigacji w samochodzie nie zważając na znaki, tak sie nauczyliśmy i jest to dla nas wygodne. Jeden człek chciał do Krynicy Górskiej, a zorientował sie , że jest coś nie tak jak był 20km od Bałtyku...
    Tu nasuwa sie klasyka science fiction: Test Pilota Pirxa S. Lema.
  • #15
    omin172
    Level 14  
    zgryzliwy wrote:
    Witam. W sytuacji kryzysowej np. pożar, trzęsienie ziemi, katastrofa w ruchu lądowym, morskim czy lotniczym ludzie z zasady wpadają w panikę, dlatego w czasie szkoleń wpaja im się pewne nawyki które są przydatne w sytuacjach zagrożenia, ale w warunkach realnych zapominają o tych zasadach. Co ważne większość ludzi posłusznie wykonuje wtedy polecenia wydawane przez pojawiających się przywódców nawet gdy są błędne. Nie ma się co dziwić to pozostałość ewolucji, zwierzęta pójdą tylko za przewodnikiem stada, wyłącza się myślenie i włącza się instynkt, który poleca uciekać. Jest to niby logiczne, ale często prowadzi do tragedii, bo najpierw należało by przeanalizować sytuację i podjąć środki adekwatne do występującego zagrożenia. Czy w takiej sytuacji ufać robotom, to nie jest łatwe. Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.


    Ależ to nie jest problem. Wiadomo, że zraszacze nie uchronią od tornada. Mówiąc akademicko: system napotykając na problem sobie nieznany przekaże użytkownikowi, że w tym zakresie nie pomoże. W czym problem? Tak działa sygnalizacja świetlna: pojawia się usterka, to włącza się na migające żółte, a nie udaje sprawną, bo "jakoś to będzie, bo może się uda". Założę się, że można na palcach jednej ręki podać przypadki, w których paliło się zielone dla kierunków kolizyjnych.

    zgryzliwy wrote:
    Może on być pomocny wskazując drogi ucieczki nie objęte zagrożeniem, mając kontakt z dyspozytorem mającym większą wiedzę na temat zagrożenia. Maszyna zawsze będzie prowadzić kalkulację czy da się, czy nie . Człowiek pomimo zagrożenia podejmuje czasami działania sprzeczne z logikom i dzięki temu jest bardziej pewny jeśli mam zaufać w sytuacji kryzysowej wyspecjalizowanym służbą. Bo puki co to człowiek bije w takich warunkach nawet najbardziej zaawansowany technologicznie automat bo potrafi działać wbrew utartym normom i nie zawiesza się w sytuacji stresu. Będzie działał mogąc popełnić błąd a maszyna stwierdzi to niemożliwe i nie podejmie działania.


    Masz na myśli fakt, że człowiek ma przewagę polegającą na posiadaniu intuicji. Intuicja to nic innego, jak nieuświadomiona wiedza. Nie ma tu żadnej tajemnej przewagi człowieka nad maszyną. Jeśli maszyna czegoś nie wie, to o tym informuje. A co robi człowiek? Jemu się "wydaje" albo zgrywa bohatera... No to ja wolę maszynę, która albo wyciągnie z opresji bez pudła, albo jasno poinformuje o przeszkodach dla niej nie do pokonania.

    No i żadnego zawieszenia się robota też oczywiście nie ma. Skąd ta myśl w ogóle? A człowiek, to się nie zamyśli? I zawsze ma na wszystko rozwiązanie? Dosyć śmiała teoria.

    vodiczka wrote:
    zgryzliwy wrote:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.


    Owszem -- kilkakrotnie. Natomiast w zdecydowanej większości przypadków zawodził człowiek. I to wiele razy w prostych do rozwiązania, zdawałoby się, przypadkach.

    dondu wrote:
    omin172 wrote:
    Powierzyłbym (i powierzam wiele razy każdego dnia, Ty nie?) swoje życie systemom odpowiednio zaprojektowanym i gruntownie przetestowanym.

    Pożar to nie jest 100% przewidywalne zjawisko.


    Więc lepszy jest robot, który nie boi się dymu i być może więcej widzi, jeśli ma kontakt z systemem kamer przemysłowych.
  • #16
    dondu
    Moderator on vacation ...
    omin172 wrote:
    Więc lepszy jest robot, który nie boi się dymu i być może więcej widzi, jeśli ma kontakt z systemem kamer przemysłowych.


    Nawet najlepsze celownicze systemy wojskowe, nie są odporne na zwykłą farbę w spray, którą psikniesz w "oko Saurona". Dlatego powtórzę jeszcze raz - pożar to nie jest w 100% przewidywalne zjawisko. Kontakt, o którym piszesz może zostać zerwany szybciej niż sądzisz, czujniki mogą zawodzić, itd.
  • #17
    michał_bak
    Level 20  
    vodiczka wrote:
    zgryzliwy wrote:
    Robot ma zakodowane pewne zachowania i działa według programu a ten nigdy nie będzie w stanie przewidzieć wszystkich możliwych wariantów zagrożenia.

    Dokładnie. Cykl filmów "Katastrofa w przestworzach" kilkakrotnie pokazał, ze pokładowy komputer nie przekazał załodze właściwych informacji o zagrożeniu dlatego, że nie był przewidziany i zaprogramowany taki wariant wydarzenia.

    Też oglądałem ten cykl ale chyba inaczej.
    Najczęstsza przyczyną trudnych do wyjaśnienia wypadków były zamrożenie albo zatkanie rurek Pitota.
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Przy okazji stresu i lotnictwa.
    Od dawna można wprowadzić w pełni automatyczne lądowanie na lotniskach wyposażonych w systemy precyzyjnego naprowadzania. Tyle, że pasażerowie bardziej ufają gdy to pilot decyduje, choć on decyduje na podstawie tego co mu powie system.
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.
  • #18
    dondu
    Moderator on vacation ...
    michał_bak wrote:
    Najczęstsza przyczyną trudnych do wyjaśnienia wypadków były zamrożenie albo zatkanie rurek Pitota.
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Toć właśnie komputer korzysta z tych czujników, a w jednym z odcinków serialu był pokazany przypadek, w którym to właśnie komputer źle reagował na zablokowane czujniki chciał zwiększyć prędkość poprzez zwiększenie obrotów silników i pochylając samolot w dół. Dopiero reakcja pilota - wyłączenie komputera i przejęcie kontroli nad samolotem - doprowadziły do szczęśliwego końca. W konsekwencji zmieniono oprogramowanie komputera.


    michał_bak wrote:
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.

    Przeczytaj uwąznie: https://pl.wikipedia.org/wiki/Katastrofa_lotu_Air_France_447

    Quote:
    Zastosowana w samolocie metoda sterowania typu fly-by-wire sprawia, że działanie urządzeń sterowniczych samolotu jest wypadkową wskazań obu drążków sterowych. W sytuacji działań przeciwstawnych (np. jeden pilot odpycha końcówkę drążka, drugi w tym momencie ją ściąga – co w tym locie miało miejsce) – wypadkowa działania maszyny może mieć skutek zerowy, jak przy braku jakiejkolwiek reakcji załogi. Stąd też w samolotach z tego typu sterowaniem musi być wyraźny podział na pilota będącego przy sterach i pilota obserwującego sytuację i wskazania przyrządów. Brak takiego podziału – przy różnicach w interpretacji sytuacji – może sam w sobie sprawić przesłankę do wypadku lub katastrofy.

    Czyli zawiodło oprogramowanie.

    michał_bak wrote:
    To piloci a nie komputer pokładowy, błędnie interpretowali prędkość, stąd brało się nieszczęście.
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.

    Tylko, że Ty nie wiesz ile razy podczas lądowania ten system się włączać może (zależnie od sytuacji), a piloci lądują bezpiecznie:









    Ale oczywiście kategoria trzecia ILS w normalnych (nie pożarowych warunkach) spisuje się świetnie:



  • #19
    vodiczka
    Level 43  
    michał_bak wrote:
    Tyle, że pasażerowie bardziej ufają gdy to pilot decyduje, choć on decyduje na podstawie tego co mu powie system.
    omin172 wrote:
    Natomiast w zdecydowanej większości przypadków zawodził człowiek. I to wiele razy w prostych do rozwiązania, zdawałoby się, przypadkach.
    W sytuacji gdy system nie reaguje prawidłowo, zazwyczaj zawodzi również człowiek, bo jest szkolony do współpracy z systemem a jakie ma możliwości zdiagnozowania systemu w locie gdy decydują sekundy. Pilot z lat trzydziestych ubiegłego wieku rozwiązywał proste przypadki w swojej maszynie. Pilot współczesny jest uczony, że należy zaufać komputerowi a jeżeli informacje są sprzeczne lub jest brak pewnych informacji to należy sprawdzić bezpieczniki.
    michał_bak wrote:
    Gdyby w pełni decydował system nie byłoby sytuacji - terrain ahead pull up, powtarzanych w kółko ale bez reakcji.
    Masz na myśli katastrofę smoleńską? Tu prawdopodobnie zdecydowała presja konieczności lądowania (podobnie jak w przypadku katastrofy Casy) a być może (nieujawnione) częste przypadki fałszywych informacji w innych lotach. Przykład lotu TU-154 dobrze ilustruje zasadę , że do katastrofy lotniczej z reguły doprowadza kilka kumulujących się błędów.
  • #20
    michał_bak
    Level 20  
    dondu wrote:
    Przeczytaj uwąznie: https://pl.wikipedia.org/wiki/Katastrofa lotu Air France 447

    Nie chcę kontynuować ale przeczytałem i "oblodzenie czujników prędkości (rurek Pitota) spowodowało błędy odczytu prędkości samolotu, co w konsekwencji doprowadziło do wyłączenia autopilota maszyny. Takie okoliczności zaskoczyły obu pilotów (kapitan był w krytycznych momentach nieobecny w kabinie), którzy w konsekwencji nie zastosowali procedury "unreliable IAS" (pl.: niewiarygodny odczyt prędkości przelotu). Jeden z pilotów błędnie postanowił pociągnąć za drążek sterowniczy powodując ostre wznoszenie się samolotu, a to zaś, w połączeniu z niekontrolowaniem przez pilotów mocy silników, spowodowało, iż samolot wkrótce uległ przeciągnięciu" itd.

    System zachował się prawidłowo, piloci nie.
  • #21
    dondu
    Moderator on vacation ...
    michał_bak wrote:
    System zachował się prawidłowo, piloci nie.

    System zawiódł, bo nie potrafił sobie poradzić i się wyłączył. Jeśli to samo zrobi robot z tego tematu w czasie wyprowadzania ludzi z pożaru, ci mogą znaleźć się w pułapce bez wyjścia.
  • #22
    zgryzliwy
    Level 13  
    Witam. Koledzy mamy tutaj sytuację w której z jednej strony padają przykłady błędu człowieka, zaś z drugiej strony błędnego działania urządzeń. To czy zaufać czy nie nie wypływa z sytuacji w jakiej się znajdujemy. Najlepiej to ilustruje przykład z nawigacją samochodową, to czy bezgranicznie zaufamy poleceniom tego typu wynika z naszej wygody bo po co pomyśleć przecież automat wie lepiej, co z tego że drogowskazy pokazują inne położenie. Ja wcale nie neguje tego, że autopilot w samolocie wie zdecydowanie więcej od pilota na temat stanu tego samolotu i błędnie podaje ostrzeżenia. Lecz nie zgodzę się z twierdzeniem o nieomylności urządzeń, bo to na człowieku ciąży odpowiedzialność i to on ostatecznie podejmuje decyzje. Dlatego uważam, że należy zachować równowagę pomiędzy zaufaniem do maszyn a naszą zdolnością do oceny i zdolności do działania w sytuacji złożonej jaką jest niewątpliwie sytuacja o której dyskutujemy. Nawet najlepsza symulacja nie jest w stanie przewidzieć wszystkiego co może się zdarzyć w przypadku konkretnego zagrożenia. Nawet wielokrotne treningi na symulatorze nie przygotują nas automatycznie do tego typu sytuacji, pomogą nam jednak na wyrobienie pewnych nawyków dzięki którym wzrasta nasza szansa wyjścia cało z tego typu zdarzenia.
  • #23
    michał_bak
    Level 20  
    vodiczka wrote:
    Masz na myśli katastrofę smoleńską?

    Niezupełnie ale to bardzo dobry przykład tego, że w sytuacji bardzo dużego stresu dobrze jest ufać wskazaniom przyrządów a nie własnym zmysłom.

    dondu wrote:
    System zawiódł, bo nie potrafił sobie poradzić i się wyłączył.

    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany. W sytuacji prymatu człowieka nad maszyną oddał interpretację człowiekowi.

    Takie przykłady związane z katastrofami lotniczymi mają tę przewagę na eksperymentami, że zdarzyły się naprawdę, że zbadano wszystkie możliwe czynniki wpływające na zdarzenie.
  • #24
    dondu
    Moderator on vacation ...
    michał_bak wrote:
    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany. W sytuacji prymatu człowieka nad maszyną oddał interpretację człowiekowi.

    ... czyli zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu". Nie ma znaczenia dlaczego zawiódł (awaria, czy celowe zaprogramowane włączenie) ważne, że przestał działać. Dlatego też:

    dondu wrote:
    Jeśli to samo zrobi robot z tego tematu w czasie wyprowadzania ludzi z pożaru, ci mogą znaleźć się w pułapce bez wyjścia.


    Innymi słowy nie można odnosić "Pyrrusowego zwycięstwa" mówiąc "Nasz komputer, robot postąpił prawidłowo i się wyłączył", podczas gdy ludzie zginęli.

    Dyskusja dotyczy zaufania ... a jak widać nie można go mieć w 100% i dlatego:

    dondu wrote:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    dondu wrote:
    Resztę wyjaśnił kol. zgryzliwy.
  • #25
    vodiczka
    Level 43  
    michał_bak wrote:
    Nie zawiódł a wyłączył się dlatego, ze tak został zaprojektowany
    dondu wrote:
    ... czyli zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu".

    Moim zdaniem nie zawiódł. Komputer prawdopodobnie został zaprogramowany tak > przekroczenie dopuszczalnej prędkości > automatyczne wyłączenie autopilota. Komputer nie analizuje co było przyczyną przekroczenia i czy faktycznie nastąpiło przekroczenie. W powietrzu nie ma słupków kilometrowych, którymi można posłużyć się w przypadku awarii prędkościomierza samochodowego. Tu mógłby być pomocny system nawigacji satelitarnej poprzez pomiar położenia samolotu w odstępie np. 5s i obliczenie prędkości w locie poziomym. Ponadto system nawigacji pozwala lokalizować samolot w dowolnym momencie lotu. W jednym z odcinków "Katastrofy w przestworzach" poruszono temat nawigacji satelitarnej, podobno przewoźnicy są niechętni ze względu na wysokie koszty ale przecież ten system funkcjonuje od lat na statkach a nawet małych jachtach.
  • #26
    dondu
    Moderator on vacation ...
    vodiczka wrote:
    Moim zdaniem nie zawiódł.

    Przeczytaj proszę jeszcze raz co napisałem powyżej.

    vodiczka wrote:
    Ponadto system nawigacji pozwala lokalizować samolot w dowolnym momencie lotu. W jednym z odcinków "Katastrofy w przestworzach" poruszono temat nawigacji satelitarnej, podobno przewoźnicy są niechętni ze względu na wysokie koszty ale przecież ten system funkcjonuje od lat na statkach a nawet małych jachtach.

    Tyle, że w trakcie sztormowej pogody systemy te są zawodne.

    Dlatego też w każdym samolocie montowane są standardowe przyrządy pomiarowe jak busola, wysokościomierz barometryczny, wariometr membranowy, które w wielu przypadkach uratowały życie ludzkie.
  • #27
    vodiczka
    Level 43  
    dondu wrote:
    Przeczytaj proszę jeszcze raz co napisałem powyżej.
    Nie sprecyzowałeś co rozumiesz przez system, jeżeli zespół elementów od koncepcji działania, poprzez zaprojektowanie systemu i jego fizyczne wykonanie i oprogramowanie to masz rację. Jeżeli mówisz o systemie działającym na pokładzie samolotu to racji nie masz, działał tak jak założył człowiek na etapie koncepcji.
  • #28
    dondu
    Moderator on vacation ...
    Mam na myśli skutek, bo tylko on jest istotny. Nie ma znaczenia, czy ochronił ludzi ich własny instynkt, komputer, czy ... tzw. cud.
    Innymi słowy, jeśli urządzenie nie pomogło, to znaczy, że zawiodło.


    Jeśli ktoś projektuje system oparty o autopilota i rurkę Pitota, i nie zadbał o to, by owa rurka nie zamarzła to znaczy, że cały system jest do kitu. A to że się wyłączył, to tylko rozpaczliwe działanie konstruktora pozostawiające załogę na pastwę losu. System jest bowiem tak dobry, jak najsłabszy jego element.
  • #29
    vodiczka
    Level 43  
    dondu wrote:
    to znaczy, że cały system jest do kitu.
    Masz rację - cały system a nie komputer, który działał tak jak go zaprogramowano. Nie miał możliwosci weryfikacji informacji, którą otrzymywał z rurki Pitota. To nie on:
    dondu wrote:
    zawiódł, bo nie poradził sobie z zadaniem i pozostawił człowieka "na pastwę losu".
    to człowiek nie dał mu takiej możliwości :)
  • #30
    dondu
    Moderator on vacation ...
    Zgadza się - temat dotyczy robota wyprowadzającego z pożaru i dlatego napisałem:

    dondu wrote:
    W tak istotnej sprawie nie zaufałbym (przynajmniej na razie) żadnemu robotowi :)

    bo zaprojektował go człowiek, a cały system (w tym czujniki) nie są niezawodne.

    A to czy błąd popełnił programista, projektant elektroniki, projektant całego systemu, konserwator, instytut certyfikujący, itp. nie ma znaczenia. Liczy się tylko skutek.