Elektroda.pl
Elektroda.pl
X

Wyszukiwarki naszych partnerów

Wyszukaj w ofercie 200 tys. produktów TME
Europejski lider sprzedaży techniki i elektroniki.
Proszę, dodaj wyjątek elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Co przyniesie rozwój sztucznej inteligencji?

TechEkspert 12 Lis 2017 20:39 1845 39
  • #1 12 Lis 2017 20:39
    TechEkspert
    Redaktor

    Co przyniesie rozwój sztucznej inteligencji?
    Tematy związane z uczeniem maszynowym i osiągnięciami komputerów zwykle pobudzają wyobraźnię i odniesienia do "AI" - "sztucznej inteligencji". Wygrana DeepBlue z Kasparowem była przekroczeniem bariery psychologicznej - komputer IBM pokonał człowieka, ale został wtedy wykorzystany system zbudowany do jednego rodzaju zadania, skuteczną grę w szachy można oprzeć o drzewa decyzyjne i rekurencyjne poszukiwanie optymalnego ruchu. Jednak obecne osiągnięcia w dziedzinie uczenia maszynowego są znacznie bardziej imponujące np. AlphaGo Zero szkolony przez 40dni i z którym człowiek nie ma szans...

    Efektownym osiągnięciem ostatnich lat był projekt DeepMind i AlphaGo co pozwoliło na pokonanie najlepszych graczy w GO spośród ludzi. Wygrana komputera w GO z człowiekiem podobnie jak poprzednio szachy było kolejną "barierą psychologiczną", gdyż do tej pory komputery grały w GO na poziomie amatorskim. Można spotkać się z opinią, że gracze GO poza logiką i strategią często posługują się intuicją. Rośnie zarówno wydajność obliczeniowa komputerów jak i efektywność metod uczenia maszynowego, można spodziewać się spektakularnych osiągnięć w dziedzinie ANN. Warto dodać, że projekt DeepMind zaczynał od nauki ANN gry na podstawie kilkudziesięciu prostych gier 2D z platformy Atari. System musiał analizować treść ekranu i sam ustalić zasady gry kierując się otrzymaniem maksymalnej liczby punktów, po 24 godzinach treningu system był w stanie grać np. w Space Invaders na poziomie nieosiągalnym dla większości ludzi... Metoda okazała się na tyle elastyczna, że po zastosowaniu w AlphaGo podczas gry z ludzkim przeciwnikiem Lee Sedol jeden jeden z ruchów maszyny był całkowicie zaskakujący dla obserwujących. Ten "nieludzki ruch" okazał się być kluczem do dalszej wygranej, to jest etap gdy przegrywamy z komputerowym przeciwnikiem i dodatkowo nie do końca rozumiemy jego sposobu gry. Podobnie podczas eksperymentu Facebooka o mniejszym znaczeniu gdy dwa chatboty zaczęły komunikować się ze sobą językiem niezrozumiałym dla ludzi. Kolejny projekt AlphaGo Zero zakładał wyszkolenie maszyny bez użycia danych o przebiegu ludzkich rozgrywek GO. To podejście podobne jak z testami opartymi o proste gry 2D, na początku zostały dostarczone jedynie proste zasady gry GO i kryterium optymalizacji czyli wygrana.





    Efekty rozwoju AlphaGo Zero:
    - 3 dni poziom AlphaGo Lee (AlphaGo Lee wygrane 4:1 z Lee Sedol)
    - 21 dni poziom AlphaGo Master (AlphaGo Master 60:0 z profesjonalnymi graczami)
    - 40 dni poziom przekraczający wszystkie poprzednie wersje AlphaGo, wygrane 100:0 z AlphaGo Lee, nie ma odpowiednika poziomu na "ludzkiej" skali, AlphaGo Zero stosuje nieznane wcześniej strategie gry...
    Tutaj animacja jak to wyglądało w czasie: Link

    Wniosek jest ciekawy pojawiają się wyspecjalizowane narzędzia do rozwiązywania określonych problemów, które w ciągu 3 dni potrafią osiągnąć poziom człowieka, który trenował przez wiele lat i jest mistrzem.
    Tu pojawia się pytanie co jest bardziej opłacalne szkolić człowieka przez wiele lat czy zaufać AI, które będzie osiągać wybitne efekty chociaż może się zdarzyć, że nie będziemy rozumieli dlaczego.
    Prawdopodobnie pojawiają się pytania czy w przyszłości takie rozwiązania zastąpią inżynierów, programistów, lekarzy diagnostów, detektywów, prawników, dziennikarzy i innych przedstawicieli zawodów specjalistycznych?

    Od dawna budujemy wyspecjalizowane maszyny, które są szybsze i dokładniejsze od człowieka (np. maszyna pick and place) lub wielokrotnie silniejsze od człowieka. Automatyzacja produkcji pozbawiła zapewne pracy wiele ludzi ale powstały nowe zawody gdyż linia produkcyjna sama się nie naprawi i nie zaprojektuje (przynajmniej obecnie).

    Jak widać kluczem do "pokonania" człowieka we wszystkich przykładach jest specjalizacja, próby np. BostonDynamics są imponujące ale nadal daleko do sprawności i uniwersalności ludzkiej dłoni lub ogólnie ludzkiej motoryki.

    Pytanie czy kiedyś powstanie AGI? (Artificial General Intelligence) czyli sztuczna inteligencja ogólnego przeznaczenia czyli AI, które podobnie jak człowiek może podejmować się zróżnicowanych zadań.
    Drugie pytanie jakie się pojawia to czy AGI będzie mogła rozwijać się z zaskakującą szybkością i efektami podobnie jak AlphaGo Zero?
    Ale obecnie to strefa science fiction.

    Co myślicie o tym temacie?

    Źródło:
    https://pixabay.com/pl/a-i-ai-anatomia-2729782/

  • #2 12 Lis 2017 23:22
    Piottr242
    Poziom 13  

    To nie jest "sztuczna inteligencja" tylko algorytm genetyczny, rozwiązujący skomplikowany problem, który ma jednak skończoną liczbę binarnych warunków brzegowych.
    O "sztucznej inteligencji" będziemy mogli mówić dopiero wtedy gdy warunki brzegowe rozwiązanego przez algorytm samouczący się problemu będą albo nieokreślone, albo rozmyte. Na przykład - jeśli uda się komputerowi umówić z prawdziwą laską na randkę ;-)

  • #3 13 Lis 2017 12:10
    LightOfWinter
    Poziom 29  

    Piottr242 napisał:
    O "sztucznej inteligencji" będziemy mogli mówić dopiero wtedy gdy warunki brzegowe rozwiązanego przez algorytm samouczący się problemu będą albo nieokreślone, albo rozmyte. Na przykład - jeśli uda się komputerowi umówić z prawdziwą laską na randkę ;-)


    Biorąc pod uwagę głupotę społeczeństwa można ten przykład zrealizować już teraz pisząc bardziej lub mniej skomplikowany program.

  • #4 13 Lis 2017 13:45
    mychaj
    Poziom 26  

    Czyli jednym zdaniem- to nie maszyny mądrzeją tylko ludzie w swojej masie coraz głupsi...

  • #5 13 Lis 2017 14:25
    Mark II
    Poziom 20  

    W skrócie:
    Ludzie odciążeni od codziennych nudnych zadań, staną się artystami. Będą malować przepiękne obrazy, komponować symfonie i pisać wspaniałe sztuki odkrywające nowe, nieznane obszary ludzkiej natury. Mieszkając w przestronnych szklanych domach.
    Albo...
    Nastąpi ciąg zdarzeń przewidziany już w "Diunie" Herberta i jedyną dopuszczalną formą automatyki będą proste, zegarowe mechanizmy podlewające kwiaty w ogrodzie :wink:

  • #7 13 Lis 2017 22:17
    RitterX
    Poziom 35  

    Póki co nie ma czegoś takiego jak sztuczna inteligencja a z tą naturalną jest tak sobie. Po I Wojnie Światowej mówiono, że to była wojna wojen i w przyszłości nic tak okrutnego się nie zdarzy. "Mroczny Żniwiarz" czyli karabin maszynowy i haubice miały spowodować, że wojna skończy się przed świętami czyli za pól roku a tymczasem ugrzęzła w okopach.
    To co zmieniła I WŚ to sposób postrzegania pewnych problemów ale ich z całą pewnością nie rozwiazała. Tak samo jest zesztuczną inteligencją. W wyspecjalizowanych zadaniach jest w stanie pokonać ludzki umysł, tylko co z tego? Ważniejszym pytaniem czy np. rozwój poziomu gry w Go albo szachy przez AI jest nieskończony? Tak jak granicą jest wymiar charakterystyczny układów scalonych, podyktowany wielkością atomów tak i rozwój AI ma swoje naturalne granice, które nie koniecznie muszą być obecnie dobrze zdefiniowane. AI to obecnie trochę fajerwerków na pokaz, szumne zapowiedzi a tak naprawdę błąkanie się po omacku. Gra w Go? W porządku ale może tak sensowniej lek na raka?!

  • #8 14 Lis 2017 09:53
    LightOfWinter
    Poziom 29  

    RitterX napisał:
    W porządku ale może tak sensowniej lek na raka?!


    Postawił bym inne pytanie czy skuteczny lek na raka rzeczywiście jest on potrzebny tym którzy finansują badania? Sądzę że raczej nie. Dużo lepiej dla producentów jest żeby ludzie się ciągle leczyli i płacili za długie terapie. Wyleczenie człowieka to utrata klienta.

  • #9 14 Lis 2017 17:37
    Tommy82
    Poziom 39  

    Co do sztucznej inteligencji to porblem jest taki że ogólnie sie jej nie boję.
    Natomiast co przez to rozumie to pewna "upośledzoność" testu Touringa.
    Ten test działa tylko do pewnego momentu. To znaczy do czasu gdy mamy do czynienia ze "sztuczną inteligencją". Problem będzie jak pojawi się "prawdziwa inteligencja" w sztucznym bycie która celowo testu Touringa nie zda. To już będzie jakaś inteligencja która wykazuje celowość swojego działania w kierunku przetrwania a nie imitowania jakiejś ludzkiej działalności. I to jest porblem bo jej nie poznamy do czasu aż nam nie zrobi kuku.
    Zresztą to co może być inteligencją wcale nie musi być dla nas na pierwszy rzut oka jasne.
    Weźmy takie stado ptaków i jego zachowanie w przypadku ataku jakiegoś drapieżnika to jest jednak jakaś forma zbiorowej inteligencji choć rządzą tym relatywnie proste często zasady. Nie jest to strategia działaj celem jakiejś lokalnej maksymalizacji ale globalnej tj przetrwania stada jako pewnego zorganizowanego organizmu mimo ze to czasem nie jest w interesie tej jednostki.

  • #10 14 Lis 2017 17:54
    Strumien swiadomosci swia
    Poziom 43  

    Tommy82 napisał:
    Problem będzie jak pojawi się "prawdziwa inteligencja" w sztucznym bycie która celowo testu Touringa nie zda.

    Inteligencja to działąnie z goła chaotyczne i nieprzewidywalne dla odbiorcy z zewnątrz.
    Taki byt musiał by być świadomy tego żeby nie manifestować swojej nieprzewidywalności.

    Musiał by być bardziej świadomy od człowieka który go testuje.

    Myślę ze takie coś istnieje i bynajmniej nie jest ani człowiekiem ani mechaniczną maszyną, bardziej maszyną biologiczną i nie jest stworzonana przez człowieka na ziemi.

    To co opinia publiczna ma na co dzień to jakieś 100 lat za tym co labolatoria mają i stosują.

  • #11 14 Lis 2017 18:19
    Tommy82
    Poziom 39  

    No właśnie o to chodzi że by właściwie musiał:
    ->Musiał by być bardziej świadomy od człowieka który go testuje.

    Na tym właśnie polega istota problemu natomiast może nawet nie musi być bardziej świadomy od człowieka starczy że będzie samoświadomy i uzna ze musi przetrwać.
    Natomiast rozważmy dwie rzeczy świadomość tego że jest testowany i w jego interesie jest się nie ujawnić oraz oszukanie człowieka faktyczne. Zatem do pierwszego wniosku może dojść przypadkiem (ale to też żadna filozofia nawet mysz wie kiedy ma siedzieć w dziurze w zasadzie prosty instynkt samozachowawczy) i drugą żeby oszukać człowieka na teście Touringa. Do tego starczy ze zacznie się zachowywać jak polityk i zacznie udzielać odpowiedzi w stylu pomidor.
    To oczywiście żart natomiast miast jeśli będzie pewny tego że by z człowiekiem w teście Touringa wygrał to by przegrać potrzebuje jedynie zanegować swoje działania i wprowadzić jakiś około losowy błąd dla pewności.

    Ta cześć sztucznych inteligencji które człowiek jest w stanie testem Touringa przetestować to dupa nie sztuczna inteligencja. A test Touringa to dupa nie test bo prawdziwej inteligencji nie wyłapie a zadziała zgodnie z jej przewidywaniami ponieważ będziemy mieć sytuacje odwrócenia miejsc.
    To sztuczna inteligencja będzie człowieka w teście Touringa testować.
    Prawdziwa inteligencja na teście Touringa z myśliwego zrobi ofiarę.
    W sumie to się zastanawiam dla czego sam Touring nie wpadł na taką oczywistość bo żeby wpadł jakoś mi się o uszy nie obiło.

  • #12 14 Lis 2017 18:27
    TechEkspert
    Redaktor

    Osobiście wolę określenie uczenie maszynowe (machine learning) i jest to technologia jak najbardziej znajdująca obecnie zastosowanie, natomiast określenie AI (artificial intelligence) https://pl.wikipedia.org/wiki/Sztuczna_inteligencja jest bardzo popularne i wydaje się obejmować jeszcze szerszy zakres.
    Co do DeepMind to jako przeważający temat widzę tutaj ANN/SSN (artificial neural network/sztuczne sieci neuronowe).
    Widać też ciekawą optymalizację i sieć o coraz lepszej jakości podczas kolejnych kroków do powstania AlphaGo Zero: https://storage.googleapis.com/deepmind-live-cms/images/AlphaGo%2520Efficiency.width-1500.png

    Trochę niepokojące jest to, że sieć korzystająca z doświadczenia zdobytego przez ludzi była słabsza niż sieć odkrywająca problem sama bez styczności z wynikami ludzkich rozgrywek GO, ale to może być specyfika GO i przypadek...
    Eksperyment pozwolił spojrzeć na problem z zupełnie nieznanej strony (nowe nieznane strategie gry) i tak może być w wielu dziedzinach gdzie wydaje się że już nic nie da się ulepszyć.

  • #13 14 Lis 2017 18:45
    Tommy82
    Poziom 39  

    Gra w go ma znacznie więcej kombinacji niż szachy więc maszyna mogła znaleźć i zoptymalizować jakieś strategie na które ludzie jeszcze nie wpadli.

    Jak sobie weźmiemy kółko krzyżyk to okaże się ze bez cudów jesteśmy w stanie zrobić automat który zawsze wygra lub zremisuje liczba kombinacji jest na tyle mała ze nawet żadnej logiki do tego nie trzeba po prostu kilka przełączników troszkę kabla i lampki i to gracz zapalając swoja lampkę będzie zapalał za komputer "odpowiedź" zgodnie z jakąś tam preprogramowaną ścieżką.

    I teraz jak weźmiemy szach to liczba partii też będzie skończona. Natomiast w danej rozgrywce liczba możliwych rozegrań będzie maleć znacząco już przy otwarciu. Może dla tego punktem odniesienia stało się GO bo jest bardziej skomplikowane obliczeniowo. Ktoś mógł by google posadzić powiedzmy o atak brut force na szachy no i w sumie to by nawet należało się przez chwilę zastanowić czy to nie było by możliwe przy mocach jakimi dysponują.

  • #14 14 Lis 2017 21:54
    TechEkspert
    Redaktor

    No tak ale napisanie programu grającego w kółko i krzyżyk może polegać na przewidzeniu wszelkich możliwych sytuacji i utworzeniu odpowiedniej liczby warunków logicznych. Sam analizujesz zasady gry i przekładasz to na reakcje programu.

    A np. wykorzystanie SSN do rozpoznawania kostek domina polega na:
    -wykonaniu sporej liczby zdjęć każdej z kostki (różne kadry, różne oświetlenie, być może różnego rodzaju kostki)
    -każdemu zdjęciu przyporządkowujemy wartość oczek na kostce
    -dzielimy zbiór na dane uczące i testowe
    -uruchamiamy algorytm uczący sieć tak aby zatrzymał się po osiągnięciu określonej skuteczności rozpoznawania i idziemy na kawę

    Wracamy, przykładamy kamerę do dowolnej kostki (nawet takiej jakiej do tej pory sieć "nie widziała") a sieć odpowiada wskazując prawdopodobieństwo że to określona kostka.

    To jest istotna różnica między napisaniem na sztywno warunków działania a wykorzystania SSN gdzie budujemy działanie w oparciu o przykłady.

    Dwie podstawowe ale ciekawe rzeczy:
    -jeżeli sieć będzie uczona zbyt długo (przeuczona) to straci zdolność uogólniania i jej działanie będzie słabsze dla nowych elementów spoza zbioru uczącego/testowego
    -na początku można wylosować początkowe wagi neuronów sieci, w zależności czy wylosujemy "przeciętną" czy "genialną" sieć to czas uczenia będzie różny

  • #15 15 Lis 2017 18:22
    Piterixos
    Poziom 18  

    Tyle postępu w dziedzinie A.I a postacie w grach komputerowych to wciąż oskryptowani kretyni w zasadzie niczym się nie różniący od duchów z Pac-Mana...

    Osobiście czekam na A.I które będzie w stanie wykonać następujące zadanie:

    1. Dajesz inteligencji książkę/film/grę/cokolwiek z fabułą i bohaterami
    2. Sztuczna inteligencja dokonuje analizy danego źródła i wspomagając się Twoimi wyobrażeniami o tym jak dane uniwersum powinno wyglądać. (Wszystko odczytywane w locie) tworzy jak najwierniejsze odwzorowanie danego świata w postaci rzeczywistości wirtualnej.
    3. Możesz wcielić się w dowolnego bohatera danego dzieła/gry/etc.
    4. Oczywiście wszystkie inne postacie będą również symulowane.
    5. A.I będzie mogło wpływać na nasze emocje, tzn jeśli podczas odgrywania roli fabularnej powinniśmy być szczęśliwi, A.I subtelnie wpłynie na nasz umysł tak byśmy istotnie się w ten sposób czuli.

    Tak sobie wyobrażam przyszłość gier single player, prawdopodobnie za 100 lat nie będzie to już brzmiało jak science fiction.

  • #16 15 Lis 2017 21:09
    RitterX
    Poziom 35  

    To co opisałęś powyżej to już nie sztuczna inteligencja a samoświadomość. Zupełnie inna bajka. Tymczasem na to na co można obecnie liczyć to zaawansowany klasyfikator operujący na dużej ilości danych choćby na potrzeby NSA.
    Z punktu widzenia zastosowań komercyjnych AI prowadzi do jeszcze skuteczniejszego profilowania potrzeb konsumentów. Po to by sprzedać to czego dotychczas sam konsument sobie nie uświadamiał, że potrzebuje.
    Go ma większy stopień złożoności od szachów ale to nadal jest zbiór ograniczony od góry, plansza o 17x17 przecięć. Więcej jest kombinacji pod względem pól ale konwencja, reguły gry są znacznie prostsze.

  • #17 15 Lis 2017 21:49
    Piterixos
    Poziom 18  

    Gdzie tutaj widzisz samoświadomość? Wszystko co opisałem może lecieć choćby i ze skryptów, tak długo jak zapewnia 100% imersji.

  • #18 15 Lis 2017 21:52
    Tommy82
    Poziom 39  

    Chodzi o to że weźmie tą książkę i zrozumie tekst pisany i wytworzy z tego coś.
    To tu jest porblem bo jak dasz na wejście zdjęcia i i każesz wygenerować zdjęcie to coś wygeneruje ale napisanie w jeżyku naturalnym co jest na zdjęciu i jak skomponowane i wygenerowanie z tego zdjęcia to wyższa klasa problemów.

  • #19 15 Lis 2017 21:59
    RitterX
    Poziom 35  

    @Piterixos, kluczowe jest pojęcie "Twoje wyobrażenie". To oznacza, że maszyna odróżnia swoją świadomość, istnienie od osoby zlecającej zadanie. Porównuje "wypobrażenia" a to dość ulotne pojęcie. Tak pojęte AI nie koniecznie musi zdać Test Turinga, nie dlatego, że nie może ale dlatego, że z określonego powodu nie chce.

  • #20 15 Lis 2017 22:04
    Strumien swiadomosci swia
    Poziom 43  

    RitterX napisał:
    To oznacza, że maszyna odróżnia swoją świadomość


    Jeśli maszyna uzyska świadomość to już nie będzie maszyną , a samodzielnym bytem, może mechaniczno elektrycznym ale bytem.

    Coś jak ten komputer z odysei kosmicznej, albo roboty z gwiezdnych wojen.

    Albo co gorsza Adam ''Stwórca'' z Prometeusza . Totalnie odjechany typ, mega niewypał. Z syndromem Boga.

  • #21 15 Lis 2017 22:07
    Tommy82
    Poziom 39  

    @Strumien swiadomosci swia
    Tak to właśnie dokładnie HAL mnie skłonił do tego typu przemyśleń. I film koń mądrzejszy od jeźdźca.

  • #22 15 Lis 2017 22:17
    helmud7543
    Poziom 42  

    RitterX napisał:

    Z punktu widzenia zastosowań komercyjnych AI prowadzi do jeszcze skuteczniejszego profilowania potrzeb konsumentów. Po to by sprzedać to czego dotychczas sam konsument sobie nie uświadamiał, że potrzebuje.

    Narazie to mamy niezaspokojone podstawowe potrzeby, poczucie stabilności, bezpieczeństwa, akceptacji itp, ale to nie jest na sprzedaż. To co piszesz to elementy perswazji i manipulacji, które są wciskaniem kitu o potrzebach, byle się sprzedało.

    O pełnej, sztucznej inteligencji będzie można mówić gdy układ będzie zdolny do podejmowania trafnych decyzji zarówno za pomocą heurystyk jak i algorytmów. A mówiąc prościej, będzie zdolny do decyzji zdroworozsądkowych, czyli do czegoś, co umożliwia dokonywanie słusznych wyborów, nieraz na przeciw wszelkim przesłankom. Wątpię, by dało się to zbudować.

    Z kolei jak układ uzyska samoświadomość, to efekt będzie nieprzewidywalny. Pozytywny scenariusz z "Ja robot" będzie tak samo prawdopodobny jak negatywny scenariusz "Terminatora". A jak będzie to samoświadomość bez uczuć (ciekawe jak je zaprogramują) to będziemy mieć maszynę psychopatę. Psychopata oczywiście nie eliminuje ludzi jak w filmach bo mu się tak podoba. Ale jest w stanie to zrobić bez poczucia wina, jeśli będzie miał z tego korzyść. I zrobi to niczym Lekter - "jego puls nie przekroczy 70" czy jakoś tak. No chyba że się fizycznie zmęczy...

  • #23 15 Lis 2017 22:23
    Strumien swiadomosci swia
    Poziom 43  

    helmud7543 napisał:
    A jak będzie to samoświadomość bez uczuć (ciekawe jak je zaprogramują) to będziemy mieć maszynę psychopatę. Psychopata oczywiście nie eliminuje ludzi jak w filmach bo mu się tak podoba. Ale jest w stanie to zrobić bez poczucia wina, jeśli będzie miał z tego korzyść.

    Nawet nie wiesz ile jest ludzi z takim problemem, dążących po trupach do celu.

    I Tu kolejne pytanie jakie cele może mieć AI.????

    Dodano po 2 [minuty]:

    Zapewnienie sobie ''pożywienia''' kopiowanie się , multiplikowanie inteligencji, budowanie coraz lepszych kopi siebie?

    Uznanie ludzi jako zbędnych raczej nie wchodzi w grę o ile roboty same nie zaczną budować fabryk produkujących kolejne typy.
    Jak w Terminatorze.

    Dodano po 59 [sekundy]:

    Maszyny mogą się unowocześniać w postępie geometrycznym, a ludzie prawie wcale, także odstajemy od szeregu.

  • #24 15 Lis 2017 22:28
    Tommy82
    Poziom 39  

    @helmud7543
    Widzisz obawiam się że z AI który dąży do optymalnej realizacji celów będzie kawał sk...yna.
    Przykład to samochód który zdecyduje za Ciebie czy potracić pieszego czy zabić kierowce na drzewie i zrobi to w pełni świadomie mimo że zabicie kierowcy będzie koniecznością wynikającą z wcześniejszych decyzji AI.

  • #25 15 Lis 2017 22:36
    Strumien swiadomosci swia
    Poziom 43  

    Tommy82 napisał:
    Przykład to samochód który zdecyduje za Ciebie czy potracić pieszego czy zabić kierowce na drzewie i zrobi to w pełni świadomie mimo że zabicie kierowcy będzie koniecznością wynikającą z wcześniejszych decyzji AI.


    A to zależy czy AI będzie takim alarmem i ochroną aktywną kierowcy i auta czy zasr.... dyrektywą UE coby auto zmielić z kierowcą, a na poboczu nie złamać źdźbłą trawy.

  • #26 15 Lis 2017 22:43
    Tommy82
    Poziom 39  

    Strumien swiadomosci swia napisał:
    Tommy82 napisał:
    Przykład to samochód który zdecyduje za Ciebie czy potracić pieszego czy zabić kierowce na drzewie i zrobi to w pełni świadomie mimo że zabicie kierowcy będzie koniecznością wynikającą z wcześniejszych decyzji AI.


    A to zależy czy AI będzie takim alarmem i ochroną aktywną kierowcy i auta czy zasr.... dyrektywą UE coby auto zmielić z kierowcą, a na poboczu nie złamać źdźbłą trawy.

    Widzisz nie
    To zależy od tego jaki zakres decyzyjności oddasz AI.
    Chodzi o obiektywną ocenę mniejszego zła.
    Ai nie będzie mieć wątpliwości.
    Jeszcze ciekawiej jak system będzie samoświadomy i kierowany instynktem przetrwania wtedy bez ciapatego za kólkiem dla własnego przetrwania wpieprzy się w tłum ludzi.

  • #27 15 Lis 2017 22:46
    Strumien swiadomosci swia
    Poziom 43  

    Tommy82 napisał:
    Chodzi o obiektywną ocenę mniejszego zła.


    Cały czas pisze o celach . ZŁo to pojęcie względne i rozmyte, zależy od punktu widzenia.
    Cel jest to skupione działanie w celu uzyskania określonych wyników.

  • #28 15 Lis 2017 22:47
    Tommy82
    Poziom 39  

    Jak pisałeś zrobiłem update.

  • #29 15 Lis 2017 22:51
    Strumien swiadomosci swia
    Poziom 43  

    Wystarczy że celem będzie bezwypadkowe przewiezienie osoby z punktu A do punktu B.

  • #30 15 Lis 2017 22:54
    Tommy82
    Poziom 39  

    No i włazi ktoś na drogę i jest wypadek. Dla AI jesteś tak samo ważny jak ktoś inny dla czego miał byś być ważniejszy?

 Szukaj w ofercie
Zamknij 
Wyszukaj w ofercie 200 tys. produktów TME