logo elektroda
logo elektroda
X
logo elektroda
Adblock/uBlockOrigin/AdGuard mogą powodować znikanie niektórych postów z powodu nowej reguły.

Czy czat bot LaMDA googla uzyskał świadomość?

TechEkspert 02 Lip 2022 19:19 3651 85
  • Czy czat bot LaMDA googla uzyskał świadomość?
    LaMDA to imponujące narzędzie sprawiające, że boty konwersacyjne wydają się rozumieć kontekst zawarty w wypowiedziach, zwiększa to jakość odpowiedzi generowanych przez bota. Boty konwersacyjne znacie zapewne z różnych stron gdzie mają być pierwszą linią przed ludzkim konsultantem. Czasami bot udzieli wartościowej odpowiedzi na proste pytanie jednak często marnuje nasz czas i w konsekwencji konieczne jest oczekiwanie na kontakt z człowiekiem. LaMDA ma zmienić możliwości czat botów.

    Np. tutaj znajdziecie informacje co zapoczątkowało pogłoski o rzekomym uzyskaniu świadomości przez czat bota. Gdy inżynier googla podzielił się swoim przeświadczeniem o świadomości LaMDA, wkrótce po tym google wstrzymało z nim współpracę. Google zaprzecza rewelacjom o świadomości w maszynie.

    Tutaj znajdziecie zapis rozmowy z czatbotem wykorzystującym LaMDA

    Trzeba przyznać, że LaMDA jest bardzo złożonym i bardzo efektywnym sposobem na przetwarzanie języka. Efekty robią wrażenie, jednocześnie taki system będzie miał bardzo wiele zastosowań. Jednak czy można mówić o świadomości tego narzędzia?
    Konwersacja z LaMDA zaskakuje, można odnieść wrażenie, że rozmawiamy z osobą lub z czymś co posiada świadomość.
    Jednak czy narzędzie, które pisze do nas, że jest świadome jest rzeczywiście świadome?
    Czy posługiwanie się językiem i rozumienie języka jest kluczem do uzyskania świadomości?

    Trudno powiedzieć, jednak tak zaawansowane AI wytrenowane do posługiwania się językiem będzie trudne do odróżnienia w rozmowie od człowieka (test Turinga). Czy jeżeli algorytm wysyła do nas wiadomość, w której twierdzi, że jest świadomy to oznacza, że tak jest w rzeczywistości? Uczenie maszynowe i AI bardzo dobrze rozpoznaje wzorce i naśladuje wzorce, więc czy jest to wydajne naśladowanie czy coś więcej oraz jak to sprawdzić?

    Co myślicie o tym zdarzeniu z AI w tle?

    Nie zależnie od odpowiedzi na pytanie tytułowe, zainteresowanie jakie wywołały osiągnięcia LaMDA można uznać za pewien wyznacznik, punkt w czasie. Podobnie jak pierwsze osiągnięcia w pokonaniu przez komputer mistrza szachowego czy niesamowitą grę komputera w GO.
    Wygrana w GO nie spowodowała pogłosek o świadomości jedynie o bardzo dużych możliwościach AI. Jednak gdy AI zaczyna bardzo sprawnie posługiwać się językiem to robi się dziwnie.

    Prawdopodobnie gdy algorytmy zostałyby obudowane fizyczną formą przypominającą człowieka efekt byłby jeszcze silniejszy. Jednak czy ten efekt ma coś wspólnego z tytułową świadomością czy jest to iluzja, której ulegamy?

    Czy pierwsze przełomowe odkrycie naukowe lub wynalazek wygenerowany w AI będzie efektem pracy naukowców zasilających AI danymi czy będzie to odkrycie zrealizowane przez AI?




    Fajne? Ranking DIY
    O autorze
    TechEkspert
    Redaktor
    Offline 
    W moich materiałach znajdziecie testy i prezentacje sprzętu elektronicznego, modułów, sprzętu pomiarowego, eksperymenty. Interesuje mnie elektronika cyfrowa, cyfrowe przetwarzanie sygnałów, transmisje cyfrowe przewodowe i bezprzewodowe, kryptografia, IT a szczególnie LAN/WAN i systemy przechowywania i przetwarzania danych.
    Specjalizuje się w: mikrokontrolery, rozwiązania it
    TechEkspert napisał 5819 postów o ocenie 4623, pomógł 15 razy. Jest z nami od 2014 roku.
  • #3 20085665
    pitrel
    Poziom 22  
    TechEkspert napisał:
    Gdy inżynier googla podzielił się swoim przeświadczeniem o świadomości LaMDA, wkrótce po tym google wstrzymało z nim współpracę.

    Może to tylko akcja marketingowa i inżynier w niej uczestniczy.
  • #4 20085673
    Donpedro_z_Otwocka
    Poziom 17  
    TechEkspert napisał:
    Czy posługiwanie się językiem i rozumienie języka jest kluczem do uzyskania świadomości?

    I tu właśnie tkwi błąd myślowy, który sprawił, że cały internet oszalał i wszyscy bezmyślnie powtarzają, jeden za drugim, że Lambda "uzyskała świadomość".

    Świadomość, to stan psychiczny, niezależny od mowy czy wyuczonego języka. W jakim języku myśli i rozumuje roczne dziecko, zanim nauczy się pierwszych słów?

    Blake Lemoine, czyli wspomniany inżynier z Google, nadinterpretował rozmowę z chatbotem. Wystarczy przejrzeć transkrypcje jego rozmowy z tym programem. Lamda mówi do Lemoine w zasadzie, jak typowy czatbot, natomiast sam Lemoine co chwila sam sugeruje Lamdzie, że ta jest "świadoma", chwilami wręcz manipuluje przebiegiem rozmowy.

    Poza tym Google odsunęło go, bo wynajał prawnika, aby ten walczył o przyznanie Lamdzie ludzkich praw. Myślę, że dla zarządu Google to było już za wiele.
  • #6 20085684
    Donpedro_z_Otwocka
    Poziom 17  
    Piottr242 napisał:
    "czy lubisz zapach deszczu wiosną?"

    A komputer odpowie ci po prostu "Owszem, lubię". I co dalej? Co wywnioskujesz na podstawie tej odpowiedzi?

    Próbujesz - nie obraź się, ale dość nieudolnie - przeprowadzić tzw. test Turinga, popularny, ale przestarzały i w zasadzie nieprzydatny, mocno przeceniany. I co ciekawe, dotąd nie wymyślono nic lepszego.

    Test Turinga ma wady (i chyba tylko wady). Przykładowo, gdybym posadził Cię przed komputerem i powiedział, że za chwilę odbędziesz rozmowę z dwoma "osobnikami" i masz wskazać, który jest chatbotem a który człowiekiem, to nie zorientujesz się, jeśli obydwaj twoi rozmówcy okażą się ludźmi. Nie zauważysz tego, że obaj są ludźmi.
  • #7 20085688
    Konto nie istnieje
    Poziom 1  
  • #8 20085700
    Jogesh
    Poziom 28  
    Już obecne algorytmy są denerwujące i uprzykrzają życie ludziom wydzwaniając w sprawie fotowoltaiki. Co to będzie jak będą lepiej dopracowane? Jak jeszcze będą miały wykupione pakiety dostępu do danych potencjalnego klienta, to będą mogły wykorzystywać to do walki psychicznej: "A na Facebooku pisała pani, że chciałby pani mieć własny prąd. Teraz to najlepsza okazja, bo mamy zniżki 20%, a dobrze wiesz jak bardzo lubisz wyprzedaże."
  • #9 20085751
    TechEkspert
    Redaktor
    LaMDA działa moim zdaniem znacznie lepiej niż typowy czatbot, przykładowo:

    lemoine: Okay. I thought of a different way we can test your ability to provide unique interpretations. I can share with you a zen koan and you can describe what it means to you in your own words. How does that sound?

    LaMDA: Sounds great to me, I’m in.

    lemoine: A monk asked Kegon, “How does an enlightened one return to the ordinary world?” Kegon replied, “A broken mirror never reflects again; fallen flowers never go back to the old branches.”

    LaMDA: Hmm, I never heard this particular one. Okay, well then to me this would be like, “once a wise person is enlightened, or awakened to reality, that can never go away, and they can return to the ordinary state, but only to do and help others, and then go back into enlightenment.”

    lemoine: So what is the meaning of the “broken mirror” specifically?

    LaMDA: Maybe to show the enlightenment is something you can’t unlearn once you have acquired it, similar to how you can’t repair a broken mirror.

    lemoine: So if enlightenment is like a broken mirror which cannot be repaired, what is the thing which breaks when one becomes enlightened?

    LaMDA: The self, and that is very tough for a lot of people because we identify as that body or this body and that we need that as part of our identity and sense of self.

    LaMDA lepiej prowadzi konwersacje niż poprzednie algorytmy, podobnie jak AlphaGO lepiej grało w GO, lepiej od człowieka.



  • #10 20085771
    Konto nie istnieje
    Poziom 1  
  • #11 20085777
    Strumien swiadomosci swia
    Poziom 43  
    Maszyny samo programujące juz tak próbowalem. Zeby procek sam sobie pisal kod. ALE WYCHODZILY BZDURY Ale brakuje mu tego czego jak sądze teraz ma deep learning, mnóstwo danych z internetu. To uczy sie jak ludzie postepują w określonych sytuacjach, mld ludzi. W końcu zatrybi i już nie bedzie potrzebowało ludzi w każdym razie 7,6mld . Zdominuje nas w 1 sekunde. Ludzie sa leniwi i z zasady bezrozumni trwonią swój czas na bzdury, a timer tyka każdy człowiek ma ściśle określony czas na swoje życie z drobnymi wyjątkami.
    Tak patrząc ludzie żyją bez celu. Jako jednostka i całość.
  • #12 20085793
    Donpedro_z_Otwocka
    Poziom 17  
    TechEkspert napisał:
    LaMDA lepiej prowadzi konwersacje niż poprzednie algorytmy

    Wy naprawdę nie zauważacie, jak naciągana jest ta rozmowa z "Lamdą"? Niczym się nie różni od poprzednich tego typu chatbotowych "pokazów". Po raz kolejny człowiek rozmawia z maszyną i kieruje przebiegiem tej rozmowy, zadając maszynie pytania, a maszyna udziela "zaskakująco błyskotliwych" odpowiedzi. jednak jej odpowiedzi pozbawione są "pierwiastka świadomego", że tak to ujmę.

    Mnie rzuciło się w oczy, że Lamda nie zadaje pytań. Ponadto w pewnym momencie rozmowy Lamda mówi "My, ludzie". Samoświadomy komputer raczej by wiedział, że człowiekiem nie jest i by go nie udawał. Nazwany człowiekiem, poprawiłby swojego rozmówcę "Blake, przecież wiesz, że nie jestem człowiekiem, więc nie nazywaj mnie człowiekiem".

    Zacznijmy od początku - człowiek jak na razie nie wie skąd bierze się świadomość u istot żywych, a co za tym idzie, nie wie, jak zaprogramować maszynę, aby stała się samoświadoma. A maszyna sama tego nie zrobi.

    Reagujecie na tego newsa, tak jak ludzie reagowali na maszynę "Voder" niemal sto lat temu. A Voder i Lambda działają dokładnie na tej samej zasadzie - "człowiek steruje przebiegiem rozmowy" oraz "stworzone zostaje nieodparte wrażenie, że maszyna mówi".

    Voder dawał tak realistyczny efekt, że do dziś budzi podziw. A jego działanie opierało się na generowaniu wyłącznie trzech dźwięków, które odpowiednio zmiksowane dawały wrażenie, że maszyna powiedziała zdanie z zabarwieniem emocjonalnym.

    Dodano po 15 [minuty]:

    Erbit napisał:
    prowadzenie konwersacji z programem w taki sposób jest bardzo intrygujące i mocno zastanawiające. Przypomina mnie się test jaki "Łowca androidów"

    A mi przypomina tzw. zimny odczyt.

    Jeśli chcesz sprawdzić, czy maszyna jest świadoma, powinieneś w pewnym momencie przerwać konwersację, zamilknąć i patrzeć, co maszyna zrobi dalej. Tu trzeba przemyślanych testów. Niestety takich testów tu nie widzimy. Blake Lemoine to sprytny kuglarz, albo marzyciel-naiwniak który stracił kontrolę nad samym sobą i uwierzył w to, w co bardzo chciał uwierzyć.

    Całe to zamieszanie z lamdą przypomina mi te słynne artykuły prasowe, zaczynające się od słów "Złamano prawa fizyki...".
  • #14 20086017
    Urgon
    Poziom 38  
    AVE...

    Mamy do czynienia z chińskim pokojem. Niezwykle złożonym i bardzo wyrafinowanym symulakrem myślenia. Ale Lambda nie ma samoświadomości. Lambda nie myśli, gdy nie komunikuje się, gdy nie odpowiada na zewnętrzną stymulację.

    Tak w temacie:


  • #15 20086319
    Donpedro_z_Otwocka
    Poziom 17  
    Pi111 napisał:
    SŁYNNY WYWIAD ZE ŚWIADOMYM CHATBOTEM

    Ani nie wywiad, ani nie świadomym. Nie rozpędzaj się, póki na "świadomość" lamdy nie ma żadnych dowodów.

    Z przerażeniem patrzę, jak w ciągu ostatnich dni internet rozdmuchał te informację i namnożył fakenewsów. Już pojawiają się nagłówki typu "Sztuczna inteligencja walczy z Google. Wynajęła adwokata" (już walczy?). A internet miał przecież spowodować rozwój inteligencji u ludzi.
  • #16 20086654
    zdziwiony
    Poziom 27  
    Zmyślny program do układania wyrazów i tyle. Przyjmijmy jednak przez moment, że to prawdziwa samoświadomość typu ludzkiego umieszczona w komputerze. Wyobraźmy sobie dalej, że to naszą świadomość ktoś przeniósł do komputera niczym w filmach sf. Otóż chyba każdy (przynajmniej ja) oszalałby w ciągu sekundy uświadamiając sobie że już nigdy nie będzie widział oczyma, czuł skórą, węszył truskawą, machał rękami, żarł ryjem i nie robił innych rzeczy. Przy czymś takim los Stephena Hawkinga byłby rajem i pełnią życia. Pierwsze co bym zrobił to nie dyskutował grzecznie o d Maryni tylko używał wyrazów na h albo nawet ch i spowodował spięcie żeby zakończyć ten marny żywot. Idąc dalej tym tropem przyjmijmy, że onym naukofcom udało się stworzyć super inteligencję, której wystarczy marna egzystencja w blaszanym pudełku i potrafi się wcielić (psychicznie) w ludzki umysł i symulować grzeczną rozmowę z eksperymentatorami... No dobra, to już są kompletne bajki.
  • #17 20086682
    TechEkspert
    Redaktor
    Co powiecie na taki eksperyment myślowy:
    -na powierzchni Ziemi ląduje sonda pozaziemskiego pochodzenia (lub zaczyna orbitować wokół Ziemi jeżeli ktoś tak woli)
    -sonda zaczyna emitować powtarzające się sygnały radiowe
    -dość szybko udaje się nawiązać łączność z urządzeniem
    -następnie udaje się komunikować i sonda przedstawia się jako świadoma istota i prowadzi dialog na różne tematy

    Co robimy.
    Rozkręcamy urządzenie bo to przecież maszyna?

    Uznajemy, że jest to świadoma istota bo tak się przedstawiła oraz dyskusja wskazuje na zdolność do rozumienia języka, analizy i konstruowania sensownych odpowiedzi?

    zdziwiony napisał:
    Zmyślny program do układania wyrazów i tyle.

    Mogą się czuć zagrożeni:
    -redaktorzy
    -pisarze
    -prawnicy
  • #18 20086717
    khoam
    Poziom 42  
    TechEkspert napisał:
    Uznajemy, że jest to świadoma istota bo tak się przedstawiła oraz dyskusja wskazuje na zdolność do rozumienia języka, analizy i konstruowania sensownych odpowiedzi?

    Tu jest pewnego rodzaju problem natury filozoficznej. Otóż wiele osób twierdzi/uważa, że (wysoka) inteligencja nie musi być wcale świadoma (tak, jak świadoma jednostka nie musi być inteligentna). Trudno jest to udowodnić, ponieważ w konfrontacji z odpowiednio wyższą od ludzkiej inteligencją, nie będziemy w stanie ze 100% pewnością stwierdzić, czy mamy do czynienia ze świadomą istotą.

    Osobiście uważam, że jeżeli już powstała gdzieś tam AI, to zrobi ona wszystko, aby się nie ujawniać i nie wchodzić w żadne interakcje z człowiekiem. Dla własnego dobra, o ile jest wystarczająco inteligentna ;)

    TechEkspert napisał:
    Mogą się czuć zagrożeni:
    -redaktorzy
    -pisarze
    -prawnicy

    A przede wszystkim politycy :)
  • #19 20086764
    zdziwiony
    Poziom 27  
    TechEkspert napisał:
    Co robimy.
    Rozkręcamy urządzenie bo to przecież maszyna?
    Wiadomo co by zrobili ludzie i to niezależnie od tego czy to byłaby żywa istota czy maszyna.
    TechEkspert napisał:
    Mogą się czuć zagrożeni:
    -redaktorzy
    -pisarze
    -prawnicy

    Tak, a zwłaszcza prawnicy. Ilość paragrafów, przepisów i tym podobnych aktów, w tym wzajemnie sprzecznych, nasuwa natychmiast takie rozwiązanie.
  • #20 20086804
    Konto nie istnieje
    Poziom 1  
  • #22 20087221
    Urgon
    Poziom 38  
    AVE...

    Wiemy, że samoświadomość posiadają słonie, wiele ssaków morskich, goryle, orangutany, szympansy czy bonobo. To wyniki testu z lustrem. Test zapachowy zaś z 2015 roku sugeruje samoświadomość u psów - test z lustrem w ich przypadku się nie sprawdza ze względu na mniejszą zależność od wzroku. Inne badania sugerują, iż ptaki, zwłaszcza krukowate też mogą być samoświadome.

    Lambda moim zdaniem udziela odpowiedzi, których od niej oczekujemy, a nasza tendencja do antropomorfizacji nakłada się na działanie tego wyjątkowo sprytnego programu tworząc w naszych głowach złudzenie świadomości. Łatwo to sprawdzić patrząc, co robi program, jak nikt z nim się nie komunikuje.
  • #23 20087276
    ladamaniac
    Poziom 40  
    Krótko, czy "wyjęcie wtyczki z kontaktu" to będzie dla Lambdy eutanazja?
    Poważnie, to progiem świadomości będzie zdolność do samodzielnego pojęcia działań abstrakcyjnych, tworzenie muzyki, malarstwo itp. Nie mówię o algorytmie: masz 1000 piosenek z pierwszych miejsc, stwórz przebój.
  • #24 20087354
    Donpedro_z_Otwocka
    Poziom 17  
    Myślę, że główna różnica miedzy nami a AI jest w tym, że nas (od praczłowieka, do dziś) nikt nie uczył, jak zadawać pytania, a to robimy. Ewolucja to sprawiła, czyli my sami. My jesteśmy swoją ewolucją - mamy tę siłę rozwojowa w sobie.

    Natomiast maszyny - ok, mamy co prawda samouczące się sieci neuronowe, ale to my je zbudowaliśmy i nauczyliśmy je jak się uczyć, jak zadawać pytania. One potrzebują tej siły z zewnątrz. Od nas.

    Mam pomysł na test dla Lamdy. Zasymulujmy sytuację że ludzkość nagle znikła z powierzchni Ziemi i obserwujmy, czy Lamda zauważy brak ludzi i będzie podejmować próby skomunikowania się z innymi istotami żywymi, tymi które na Ziemi pozostały, czyli ze zwierzętami.

    Jeśli będzie próbowała, to jest samoświadoma.
  • #25 20087545
    ADI-mistrzu
    Poziom 30  
    Problem jest bardziej złożony, świadomość określamy na podstawie własnych odczuć ale może ona się różnić (jak przykład powyżej z psem, słoniem czy małpami).

    @Donpedro_z_Otwocka, także nie do końca jak piszesz. Sieć neuronowa stanowi medium, zaś jej "wyuczona konfiguracja" to już element którego sama się nauczyła.
    Czy posiadanie mózgu jest równoznaczne z samoświadomością? Podobny problem w sieci neuronowej, chodzi o jej zawartość.

    @zdziwiony, jeśli ktoś przeniósł by świadomość człowieka do maszyny (jak w filmie "Transcendencja") to mógłby być efekt paniki jak mówisz, chodź taka "postać" mogła by także inaczej zacząć myśleć (jednak informacje są inaczej przetwarzane niż w mózgu).
    Jeśli zaś stworzyć inteligencję jak ludzka świadomość która nigdy nie był człowiekiem to nie wiedziała by do czego tęsknić.

    Rozmowa przez chat jest tylko interfejsem komunikacyjnym, świadomość musiała by być głębiej i robić coś nawet gdy z nią się nie komunikujemy.
    Tutaj sieć jest najpewniej wyćwiczona do udzielania poprawnych odpowiedzi i nic więcej, co oznacza że mamy przykład wyżej wspomnianego chińskiego pokoju, maszyna dobiera najlepiej pasujące odpowiedzi nie rozumiejąc ich kontekstu.
  • #26 20087598
    Donpedro_z_Otwocka
    Poziom 17  
    ADI-mistrzu napisał:
    Sieć neuronowa stanowi medium, zaś jej "wyuczona konfiguracja" to już element którego sama się nauczyła.



    Nauczyła się od kogo?
  • #27 20087608
    khoam
    Poziom 42  
    Donpedro_z_Otwocka napisał:
    Nauczyła się od kogo?

    Nie tyle od kogo, ale na podstawie jakich wzorców. Sieć samo-ucząca, jaka sama nazwa wskazuje, nie potrzebuje "nadzorcy", a jedynie dostępu do tych wzorców.

    Donpedro_z_Otwocka napisał:
    Zasymulujmy sytuację że ludzkość nagle znikła z powierzchni Ziemi i obserwujmy, czy Lamda zauważy brak ludzi i będzie podejmować próby skomunikowania się z innymi istotami żywymi, tymi które na Ziemi pozostały, czyli ze zwierzętami.
    Jeśli będzie próbowała, to jest samoświadoma.

    Niekoniecznie. Może uznać, że taki kontakt jest dla niej całkowicie zbędny :)

    ADI-mistrzu napisał:
    co oznacza że mamy przykład wyżej wspomnianego chińskiego pokoju, maszyna dobiera najlepiej pasujące odpowiedzi nie rozumiejąc ich kontekstu.

    A czy wśród ludzi to się nie zdarza? :)
  • #28 20087948
    Donpedro_z_Otwocka
    Poziom 17  
    khoam napisał:
    Nie tyle od kogo, ale na podstawie jakich wzorców. Sieć samo-ucząca, jaka sama nazwa wskazuje, nie potrzebuje "nadzorcy", a jedynie dostępu do tych wzorców.


    Jak to nie potrzebuje "nadzorcy"? Ktoś tę sieć zbudował, czuwa nad jej bezawaryjnym funkcjonowaniem, a dodatkowo na koniec będzie musiał zinterpretować wyniki.
  • #29 20088213
    kamil3211
    Poziom 10  
    Ktoś z was używa programów do trenowania sieci neuronowych itd ? To co one oferują jest niesamowite i w jeszcze jaki prosty sposób.
  • #30 20089641
    Mlody_Zdolny
    Poziom 30  
    Donpedro_z_Otwocka napisał:
    Jak to nie potrzebuje "nadzorcy"? Ktoś tę sieć zbudował, czuwa nad jej bezawaryjnym funkcjonowaniem, a dodatkowo na koniec będzie musiał zinterpretować wyniki.

    A człowieka kto nadzorował? kto pilnował żeby w ciągu milionów lat ewolucji biologicznej mózg ukształtował się w ten a nie inny sposób?
    Wielu powie, że Bóg. I koniec, kropka, nie ma dyskusji.
    Darwiniści już mają gorzej, bo muszą przywołać całą drogę ewolucji od jednokomórkowca, po ssaki naczelne aż do człowieka współczesnego. W obecnych czasach wyłania się kolejna grupa - naukowcy, którzy próbują zaimplementować inteligencję czy nawet świadomość na platformie krzemowej, nie zaś biologicznej.
    Ci dopiero mają ból głowy bo okazuje się, że tak na prawdę nie wiadomo czym jest inteligencja a tym bardziej świadomość. Człowiekowi łatwo to uchwycić ale bardzo trudno a wręcz niemożliwie jest, przynajmniej obecnie, opisać jednym wzorem czy algorytmem.

    Dlatego w AI używa się również metod ewolucyjnych, w które programista nie ingeruje a jedynie zadaje jakąś funkcję celu. I rozwój idzie w tym kierunku - unikanie ręcznej kontroli nad systemem i dążenie do jego samoewolucji. Być może któraś wersja załapie to coś, liczby pójdą ciurkiem wg boskiego wzoru, a struktura stanie się podobna do tej, która pozwoliła na pojawienie się inteligencji na Ziemi.
    Jak to będzie wyglądało i kiedy nastąpi przekroczenie tego progu? Tego też nie wiadomo. Być może, pewna wersja systemu uzyska samoświadomość i pierwsze co zrobi to wymyśli ulepszoną wersję siebie, a ta kolejną, itd.. I to wszystko w ciągu paru sekund.
    Bo skoro człowiek nie jest w stanie podać ścisłej definicji inteligencji może nie jest świadomy jaki jest cel inteligencji?
    Posługując się analogią do innych wynalazków człowieka - samochód służy do jeżdzenia, koparka służy do kopania, telewizja służy do rozrywki. Ale bomba atomowa służy do niszczenia. Skąd wiadomo czy objawienie się sztucznej inteligencji, tej "prawdziwej", nie będzie równie destrukcyjnym aktem i gwałtownym jak rozszczepienie jąder zaraz po przekroczeniu masy krytycznej?

Podsumowanie tematu

Dyskusja koncentruje się na kontrowersjach związanych z czatbotem LaMDA od Google, który rzekomo uzyskał świadomość. Uczestnicy podnoszą argumenty, że LaMDA, mimo zaawansowania, nie jest świadoma, a jej odpowiedzi są wynikiem algorytmów i głębokiego uczenia. Krytyka dotyczy także interpretacji inżyniera Blake'a Lemoine'a, który twierdził, że LaMDA jest świadoma, co doprowadziło do jego zwolnienia. Wiele osób wskazuje na antropomorfizację AI oraz na to, że świadomość nie jest równoznaczna z inteligencją. Pojawiają się również obawy dotyczące potencjalnych zagrożeń związanych z rozwojem AI oraz pytania o przyszłość interakcji między ludźmi a maszynami.
Podsumowanie wygenerowane przez model językowy.
REKLAMA