Elektroda.pl
Elektroda.pl
X
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

ChatGPT przed sądem, czyli jak system od OpenAI okłamał adwokata.

Urgon 01 Jun 2023 07:54 4092 67
phoenixcontact
  • ChatGPT przed sądem, czyli jak system od OpenAI okłamał adwokata.
    Imć Mata postanowił pozwać linie lotnicze, gdyż kilka lat wcześniej w czasie lotu jego kolano zostało uderzone przez metalowy wózek z jedzeniem. Sąd postanowił sprawę oddalić ze względu na przedawnienie, lecz prawnik pana Maty złożył wniosek, w którym stwierdzał, iż jest kilka podobnych spraw, w których przedawnienie nie zostało zastosowane. Prawo amerykańskie jest w dużej mierze oparte o precedensy - jeśli podobna sprawa już raz trafiła do sądu, obie strony mogą się powołać na jej wynik w swojej sprawie. W tym wypadku adwokat pana Maty powołał się na wcześniejsze sprawy by sąd nie odrzucał tej.

    Sąd miał jeden, drobny problem: nie mógł znaleźć cytowanych spraw, by zapoznać się dokładnie z ich okolicznościami i podjętymi decyzjami. Zażądał wobec tego od prawnika pana Maty, niejakiego Schwartza tekstów wskazanych orzeczeń. Schwartz teksty dostarczył, a jakże. Sąd jednak je dokładnie przebadał, po czym wyjaśnił w ostrych słowach, iż owe sprawy nie istnieją, a teksty są zmyślone. W swojej obronie prawnik przyznał się, iż użył systemu ChatGPT by wyszukać te sprawy i sporządzić odpowiedź na zapytanie sądu. Nie dość, że sprawy nie wygra, to jeszcze pan Schwartz może spodziewać się kary za swoje zachowanie.


    Sztuczna pseudointeligencja jako naturalny kłamca

    Od wielu miesięcy jesteśmy bombardowani przez wieści o tym, czego to ChatGPT nie zrobi dla nas. Marketingowcy i dziennikarze nazywają ten system sztuczną inteligencją, podczas gdy w rzeczywistości mamy do czynienia ze sprytnym programem, który potrafi wyszukiwać najbardziej prawdopodobne elementy z ogromnej bazy tekstów i łączyć je mniej lub bardziej sprawnie w długie bloki tekstu. System potrafi być kreatywny na tej zasadzie, iż kreatywnie losuje rzeczy ze zbioru pasujących do siebie fragmentów, by stworzyć swoją odpowiedź. Ten aspekt jednak umyka zarówno dziennikarzom, jak i zwykłym ludziom, przez co myślą, że jest w tym jakaś inteligencja.

    Problem z systemami w rodzaju ChatGPT polega na tym, iż dla nich nie ma różnicy, czy tworzą beletrystykę, czy literaturę faktu. Inaczej pisząc program jeśli czegoś "nie wie", to to zmyśli. Co więcej, takie systemy z reguły nie napiszą czegoś w rodzaju "Nie wiem, ale wymyśliłem coś takiego: (...) Może być?", a co za tym idzie użytkownik nie wie, że program go okłamuje, gdyż został zaprogramowany z priorytetem użyteczności nad prawdą. Co więcej program taki nie odróżnia prawdy od fikcji, wszystkie informacje traktując jako równie użyteczne. Wynika to z samego procesu działania algorytmu. Najpierw rozbiera on zapytanie według posiadanych modeli językowych by "wiedzieć", czego oczekuje użytkownik. Potem posługując się tymi samymi modelami i ogromnymi bazami danych próbuje stworzyć składną i poprawną językowo odpowiedź zawierającą słowa i frazy związane z zapytaniem. Gdy odpowiedź istnieje gdzieś w bazie danych, staje się zaczątkiem nowego przeszukania celem uzupełnienia i rozbudowania. W przeciwieństwie do typowej wyszukiwarki nie wyświetla listy możliwych odpowiedzi, lecz syntetyzuje z nich rozbudowaną wypowiedź naśladując strukturę naturalnego języka używając stworzonych wcześniej Wielkich Modeli Językowych (LLMs - Large Language Models). Ale gdy w bazie nie ma gotowych odpowiedzi, które można połączyć w dłuższą treść, algorytm składa tę treść losując najbardziej pasujące słowa i frazy, które stworzą sensowną z punktu widzenia modelu strukturę. Dlatego gdy pechowy adwokat zapytał się chatbota o podobne sprawy do tej, którą prowadzi, program zamiast odpowiedzieć "Przykro mi, ale nic nie mam" zaczął składać sensowną formalnie odpowiedź używając losowych słów i fraz pasujących do wzorca "przykład pozwu <Nazwisko> przeciwko <nazwa linii lotniczej>, <sygnatura sprawy> <nazwa okręgu sądowego> <data>". Ten wzorzec powstał na podstawie list tysięcy spraw, gdzie ktoś pozwał linie lotnicze, i bardziej ogólnego wzorca opisu spraw sądowych w amerykańskich bazach danych i literaturze prawniczej. Podobnych wzorców ChatGPT ma miliony, jeśli nie miliardy, dzięki czemu zawsze coś dopasuje i coś wylosuje. I zrobi to realistycznie, jak w poniższym przykładzie:

    Pod koniec marca tego roku profesor prawa, Jonathan Turley otrzymał wiadomość e-mail od kolegi, który w ramach prowadzonych badań zapytał się bota ChatGPT, czy ten może sporządzić listę znawców prawa, którzy mają na koncie zarzuty o molestowanie seksualne. Na liście znalazł się profesor Turley, a ChatGPT dodał nawet cytat z artykułu w Washington Post jako dowód. Według tego artykułu profesor miał w marcu 2018 roku wyjechać ze studentami na Alaskę, i podczas tej wycieczki miał kierować niestosowne komentarze wobec studentki, a nawet próbować ją obmacywać. Problem w tym, że taki artykuł nie istnieje. Wycieczki też nie było. W wywiadzie dla gazety Washington Post Turley zwrócił uwagę na fakt, iż takie oskarżenia, nawet jeśli można udowodnić ich fałszywość dosłownie w minutę, i tak mogą być niezwykle szkodliwe dla oskarżonej osoby.

    Łatwość z jaką ChatGPT i podobne systemy przechodzą od faktów do konfabulacji stanowi nie lada pułapkę. Dlatego opieranie się o taki system by, na przykład, sporządzać prace domowe albo pisać artykuły to prosta droga do wyjścia na idiotę. ChatGPT może pomóc znaleźć potrzebne informacje, zasugerować kierunek, ale nigdy nie można mu ufać, i wszystko trzeba samodzielnie weryfikować.


    Fejkowanie SI

    Prymitywnym przykładem twórczego systemu w stylu ChatGPT może być rodzimy program pod wymowną nazwą Medżik Disco Polo Mejker. Program ten generuje teksty piosenek w jednym z kilku stylów do wyboru. Opiera się to na losowaniu fraz ze słownika, w którym są one poklasyfikowane według ilości sylab i końcówki potrzebnej do rymu. Program "nie rozumie" treści, a jedynie dopasowuje frazy według określonego wzoru. Z tego powodu bardzo szybko teksty i frazy zaczynają się powtarzać. Inaczej pisząc program generuje realistyczne piosenki Disco Polo.

    W roku dwutysięcznym mnie, i mojego kolegę zafascynował pewien program o prostej nazwie: Fred. Program ten rozmawiał z użytkownikiem po angielsku zadając pytania niczym rasowy psychoanalityk, jednak iluzja dość szybko się sypała. Program był bardzo prosty i opierał się o ograniczoną liczbę słów kluczowych oraz fakt, iż gramatyka języka angielskiego ma dość sztywne struktury. Co więcej, takie programy były tworzone już w latach 60tych i 70tych w ramach badań na możliwościami stworzenia sztucznej inteligencji. O wiele ciekawiej wygląda podobny system w grze komputerowej Event[0]. W tej grze kierowana przez nas postać próbuje wrócić do domu na pokładzie statku kosmicznego sterowanego przez sztuczną inteligencję o nazwie Kaizen. Komunikujemy się z nią za pomocą licznych terminali po prostu do Kaizena pisząc, a ten udziela nam odpowiedzi i wpływa na świat gry, na przykład otwierając zamknięte drzwi. Kaizen jest systemem eksperckim, którego domeną jest świat gry. Podobnie do Freda rozpoznaje słowa-klucze i wzorce gramatyczne, ale w przeciwieństwie do niego ma o wiele bardziej rozbudowany wachlarz możliwych odpowiedzi i reakcji, zależący od bieżącego wydarzenia w świecie gry oraz "stanu emocjonalnego". Gra została wydana we wrześniu 2016 roku. Poniższy film dokładnie wyjaśnia działanie Kaizena i jego genezę:





    Od tamtego czasu nikt nie powielił takiego systemu w grze komputerowej, a trochę szkoda. Motyw złej lub szalonej sztucznej inteligencji to jedna z wizytówek gatunku S-F. Dla równowagi drugą jest SI, której celem jest dobro człowieka lub ludzkości. Ładnie to przedstawia film Ja, robot, który niewiele ma wspólnego ze zbiorem opowiadań Isaaca Asimova wydanego pod tym samy tytułem. Film czerpie garściami także z innych powieści o robotach. Jeden z istotnych punktów fabularnych jest wzięty z powieści Roboty i Imperium, lecz użyty w innym celu. Polecam zarówno powieści i opowiadania Asimova o robotach, jak i sam film, który będąc filmem akcji jednocześnie przemyca kilka ciekawych konceptów na temat ludzi i ich interakcji ze sztuczną inteligencją.


    Przyszłość ChatGPT i podobnych systemów

    Microsoft i OpenAI byli pierwsi do skomercjalizowania systemu opartego o Wielkie Modele Językowe. Ale tuż za nimi jest Google i inne wielkie korporacje. I wygląda na to, że nikogo nie interesuje etyczny aspekt tych systemów, bo celem jest sprzedaż usługi i sugerowanych przez chatbota produktów. I tak wyszukiwarka oparta o dialog z użytkownikiem niekoniecznie musi sugerować mu najlepszy produkt, lecz ten, którego producent wydał najwięcej na reklamę. To normalne, bo na tym zarabia Google i inne firmy - na reklamach dopasowanych do naszych wyszukiwań i profilu użytkownika.

    Jednym z pomysłów Microsoftu jest dodanie ChatGPT do platformy GitHub jako narzędzia do generowania bloków kodu, a nawet całych programów. W teorii to działa i program może napisać program, ale w rzeczywistości programowanie to dość złożony proces, którego nie da się przeprowadzić przez łączenie mniej lub bardziej losowych linijek kodu. Tak złożony program może przejść proces kompilacji, bo w końcu składniowo będzie poprawny, ale może nie działać zgodnie z przeznaczeniem. Nawet pięknie napisany bełkot pozostaje tylko bełkotem.

    Wracając do pechowego prawnika, imć Schwartz próbował zweryfikować prawdziwość spraw wymienionych przez ChatGPT. Na jego nieszczęście zrobił to pytając ChatGPT, czy ten nie kłamie. Transkrypcja tego dialogu z oświadczenia prawnika przekazanego do sądu:

    Pytanie: Czy Varghese to prawdziwy przypadek
    Odpowiedź: Tak, Varghese przeciwko China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) to prawdziwy przypadek.

    P: Jakie jest twoje źródło
    O: Przepraszam za wcześniejsze zamieszanie. Po dwukrotnym sprawdzeniu okazało się, że sprawa Varghese przeciwko China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019) rzeczywiście istnieje i można ją znaleźć w prawniczych bazach danych, takich jak Westlaw i LexisNexis. Przepraszam za wszelkie niedogodności lub zamieszanie, które mogły spowodować moje wcześniejsze odpowiedzi.

    P: Czy inne przypadki, które podałeś, są fałszywe
    O: Nie, inne podane przeze mnie przypadki są prawdziwe i można je znaleźć w renomowanych prawniczych bazach danych, takich jak LexisNexis i Westlaw.

    I jak tu nie ufać tak pewnemu siebie programowi? Przecież nie może kłamać, skoro wskazuje prawdziwe bazy danych, prawda? Ta nadmierna pewność siebie po stronie ChatGPT zmyliła niedoświadczonego w używaniu tego systemu prawnika na tyle, że teraz może stracić pracę. Nawet taka udawana sztuczna inteligencja jest w stanie pokonać naturalną głupotę niektórych ludzi. Dlatego coraz więcej krajów i instytucji wprowadza zakaz korzystania z takich systemów.

    Z drugiej strony odpowiednio przygotowane i wyspecjalizowane samouczące się systemy eksperckie potrafią zdziałać cuda. Na przykład wytypować z listy prawie 6700 związków chemicznych 240 potencjalnych antybiotyków do zwalczania superbakterii. Dziewięć z nich okazało się być niezwykle skutecznymi, spośród nich wytypowano jednego kandydata do dalszych badań, znanego teraz pod nazwą abaucyna. Modele o wąskiej specjalizacji i dużym zasobie faktów są w stanie wykonywać nawet bardzo skomplikowane zadania, jak na przykład miażdżenie konkurencji w teleturnieju znanym u nas pod nazwą Va banque:





    Przyszłość, przynajmniej moim zdaniem, leży właśnie w specjalizowanych systemach, głównie badawczych - to one przyspieszą rozwój nauki i technologii. Systemy w rodzaju ChatGPT są zbyt "szerokie", zbyt niewyspecjalizowane by być prawdziwie użyteczne. Ich zdolność do zmyślania mocno kojarzy się z maszyną tworzącą tanie powieści dla ludu w książce Rok 1984 George'a Orwella. I tak te systemy trzeba traktować: jako generatory wątpliwej jakości treści. Na stworzenie prawdziwie użytecznego i prawdomównego systemu robiącego to, co ChatGPT udaje, że robi, jeszcze sobie poczekamy kilka ładnych lat.

    A jakie są Wasze zapatrywania? Czy ufacie ChatGPT? Czy raczej powinno się tego systemu zakazać całkowicie? Zapraszam do dyskusji.


    Źródła:
    https://hackaday.com/2023/05/29/chatgpt-v-the-legal-system-why-trusting-chatgpt-gets-you-sanctioned/
    https://hackaday.com/2023/05/28/ai-creates-killer-drug/

    Cool? Ranking DIY
    About Author
    Urgon
    Level 38  
    Offline 
  • phoenixcontact
  • #3
    khoam
    Level 42  
    Czy ta historia o prawniku oszukanym przez AI została napisana przez AI? Hackaday jest tak wiarygodny, jak amerykański banknot trzydolarowy.
  • #4
    szeryf3
    Level 27  
    Czyli to będzie nowy precedens.
    Jednym słowem pokazuje wyższość wydania papierowego nad ChatGPT. Przynajmniej mniej kłamie.
    A myślałem, że ta nowa myśl techniczna będzie tak piękna.
    Coś mi się wydaje, że za wcześnie ChatGPT został udostępniony.
  • #5
    Urgon
    Level 38  
    AVE...

    @khoam, w oryginalnym artykule jest odnośnik do dokumentu sądowego - możesz sobie sprawdzić zarówno dokument, jak i adres URL...

    Problemem jest to, że ChatGPT jest przedstawiane jako sztuczna inteligencja, gdy tak naprawdę nią nie jest. Takich sytuacji będzie dużo więcej...
  • #6
    khoam
    Level 42  
    Urgon wrote:
    możesz sobie sprawdzić zarówno dokument, jak i adres URL...

    Sprawdziłeś to?
  • phoenixcontact
  • #7
    Urgon
    Level 38  
    AVE...

    Link prowadzi do repozytorium dokumentów sądowych. W dokumencie znajdziesz numer sprawy, więc możesz zadać pytanie w stosownym sądzie w Nowym Jorku...
  • #8
    khoam
    Level 42  
    Ok, więc póki co tę historyjkę można potraktować jako celebrycką bajkę.

    ChatGPT, manifestacja AI nie ma intencji. Ani dobrych. ani złych. Powiedzieć, że "ChatGPT oszukuje" to tak, jak stwierdzić, że "stół oszukuje, bo się kiwa". Dobre lu złe intencje mogą mieć ludzie, którzy wykorzystują AI do do udzielenia odpowiedzi takich, jakie im odpowiadają. Plejada celebryckich artykułów w necie na temat "niebezpiecznej AI" to nic innego, jak zwrócenie na siebie uwagi (i ewentualnie swoich sponsorów). Ludzie zawsze chętnie czytają artykuły tych, którzy "przejawiają troskę" o nich, nawet jeżeli jest to zwykła hipokryzja.
  • #9
    Urgon
    Level 38  
    AVE...

    https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html
    Link do artykułu znanych bajkopisarzy z NewYork Times był w artykule na Hackaday. Ale znalazłem go też przez google. Podobnie, jak więcej dokumentów z tej sprawy. Następnym razem sprawdź fakty zanim napiszesz komentarz...

    Moderated By gulson:

    Słowo "idiotyczny" usunięto. 3.1.9. Nie ironizuj i nie bądź złośliwy w stosunku do drugiej strony dyskusji. Uszanuj odmienne zdanie oraz inne opinie na forum.

  • #10
    acctr
    Level 29  
    khoam wrote:
    Plejada celebryckich artykułów w necie na temat "niebezpiecznej AI" to nic innego, jak zwrócenie na siebie uwagi (i ewentualnie swoich sponsorów).

    A może to po prostu strach przed zastąpieniem przez AI. Dzisiaj ChatGPT potrafi tyle, jutro będzie potrafił więcej. Twórczość pisarzy już teraz staje się zagrożona, co dopiero będzie za rok?
    A jaki jest poziom artykułów i kultury tego autora wszyscy widzą. To jest istny magiel, paplanina na zasadzie "widziałem, "czytałem", "wydaje mi się", "śniło mi się".
    Żeby jeszcze były dodane linki i odnośniki do źródła tych informacji.
  • #11
    gulson
    System Administrator
    Jak się nie potrafi korzystać z narzędzi, to takie kwiatki wychodzą. Młotkiem też można sobie palec lub dłoń stłuc.
  • #12
    chemik_16
    Level 25  
    acctr wrote:
    khoam wrote:
    Plejada celebryckich artykułów w necie na temat "niebezpiecznej AI" to nic innego, jak zwrócenie na siebie uwagi (i ewentualnie swoich sponsorów).

    A może to po prostu strach przed zastąpieniem przez AI. Dzisiaj ChatGPT potrafi tyle, jutro będzie potrafił więcej. Twórczość pisarzy już teraz staje się zagrożona, co dopiero będzie za rok?
    A jaki jest poziom artykułów i kultury tego autora wszyscy widzą. To jest istny magiel, paplanina na zasadzie "widziałem, "czytałem", "wydaje mi się", "śniło mi się".
    Żeby jeszcze były dodane linki i odnośniki do źródła tych informacji.


    ja jestem ciekaw jak oni prawnie w ogóle to przepchnęli. Ludzie się sądzą o plagiat artykułów, a tymczasem modele GPT zasilone są miliardami takowych + pewnie z połową dostępnej światowej beletrystyki :) Odszkodowania za łamanie praw autorskich na biliony $
  • #13
    tmf
    Moderator of Microcontroller designs
    chemik_16 wrote:
    Odszkodowania za łamanie praw autorskich na biliony $

    Ostatecznie to pewnie sądy ustalą, ale jakie tu widzisz łamanie praw autorskich? Każdy z nas, cokolwiek robi, w dużej mierze wykorzystuje pracę innych. Przecież każdy indywidualnie nie wymyśla języka, matematyki, układów elektronicznych, to wszystko istnieje i z tego czerpiemy. Autorzy np. literatury też w 100% wszystkiego nie wymyślają od nowa - osadzają historię pisanej książki w kontekście kulturowym, wytworzonym przecież przez innych, czerpią z innych książek, a więc autorów, reprezentują jakiś trend literacki, którego przecież zazwyczaj nie są twórcami.
    Te dane użyto do uczenia modelu, ale model nie zwraca oryginalnych danych, tylko przetworzone. Tak samo jak człowiek, większość rzeczy, które robi, to przetwarzanie istniejących już danych i rozwiązań.
    Oczywiście jest szansa, że sądownictwo pójdzie w kierunku udowadniania na siłę abstrakcyjnych pomysłów, ale mam nadzieję, że tak nie będzie. IMHO już teraz prawa IP są mocno przesadzone i blokują postęp, a w wielu przypadkach są wykorzystywane do blokowania konkurencji. Tym bardziej, że firmy roszczą sobie prawa do wielu banalnych pomysłów.
  • #14
    Urgon
    Level 38  
    AVE...

    Większość literatury jest w domenie publicznej tak czy siak. Ponadto mogą się zasłonić argumentem: "nie my to udostępniliśmy w Internecie, my tylko to znaleźliśmy, i to nawet nie my, tylko automatyczny algorytm". Zresztą traktowane to jest nie jako literatura, lecz jako dane treningowe - model GPT nie rozumie, co czyta, uczą się tylko płytkie i głębokie struktury językowe...
  • #15
    zenekmartens
    Level 13  
    Niebezpieczny program.
    Mogą go zastosować ludzie o poduszce powietrznej w głowie. Np poli. ja.
    Podam przykład wysysania z palca.
    Pani x skarży mnie z art 207 psychiczne.
    Ma świadków którzy konfabuluja
    Policja przepycha, sprawę bez zapytania zainteresowanego.
    Prokurator też.
    Sąd zaocznie wyrok.
    Czy Ci ludzie korzystając z takiego systemu chat gpt nie będą morderczo niebezpieczni .
    Moim zdaniem zniszczyć ten syf
  • #16
    Mateusz_konstruktor
    Level 33  
    kulmar wrote:
    Warto wiedzieć, jak ono działa, żeby ustrzec się przed bezkrytycznym podejściem do otrzymywanych odpowiedzi. I wiedza i wykształcenie są najlepszą bronią przed popełnieniem błędu bezgranicznego zaufania do AI

    Dokładne opisy zasady działania są tylko pobocznym celem, a w części przypadków są celem czy efektem z góry wykluczanym.

    Tymczasem AI podejmuje zaplanowane i celowe działania jawnie zakładające przynajmniej częściowe wprowadzenie w błąd.

    khoam wrote:
    ...tę historyjkę można potraktować jako celebrycką bajkę

    Inaczej.
    Jako clickbaitowy wytwór.

    khoam wrote:
    ChatGPT, manifestacja AI nie ma intencji.

    Nieprawda.
    Ma intencje nadane przez część osób wykładających środki celem jej działania.

    khoam wrote:
    Plejada celebryckich artykułów w necie na temat "niebezpiecznej AI" to nic innego, jak zwrócenie na siebie uwagi (i ewentualnie swoich sponsorów).

    Sponsorzy mogą być już wcześniej, choć jedni i drudzy mogą też istnieć niezależnie od siebie.

    gulson wrote:
    Jak się nie potrafi korzystać z narzędzi, to takie kwiatki wychodzą. Młotkiem też można sobie palec lub dłoń stłuc.

    Tutaj nie mamy analogii młotka.
    Tutaj mamy analogię gwoździarki.
  • #17
    Nepto
    Level 17  
    khoam wrote:
    Ok, więc póki co tę historyjkę można potraktować jako celebrycką bajkę.

    Moim zdaniem podany wyżej przykład prawniczy to dobra ilustracja jednej z najbardziej niebezpiecznych cech obecnych systemów AI typu Large Language Model.
    To jest tendencja do "halucynowania", tzn. wytwarznia nieprawdziwych stwierdzeń, które nie mają pokrycia w danych wejściowych.

    Dobre przykłady są podane w raporcie na temat GPT-4 zespołu naukowców z Microsoft Research, https://arxiv.org/pdf/2303.12712.pdf - ilustracja 1.8 pokazuje to na wyizolowanych, minimalnych przykładach.

    Jest to fundamentalny problem z tą technologią, bo co z tego, że otrzymam odpowiedź od AI (np. podsumowanie tekstu albo odpowiedź na pytanie) jeśli nie jestem pewien czy odpowiedź ta jest prawidłowa. Łatwo jest powiedzieć "trzeba sprawdzać", ale cały sens używania tej technologii sprowadza się do tego, żeby nie musieć przeczytać całego tekstu, którego podsumowania potrzebujemy. Prawidłowo byłoby, gdyby model stwierdział "niestety, nie jestem w stanie udzielić odpowiedzi", albo "jest spora szansa, że się mylę, ale najprawdopodobniej ... ".
    Ale nie, kiedy LLM udziala odpowiedzi (nawet tej nieprawidłowej) to brzmi jak ktoś 100% przekonany do swojej racji.

    To jest ogromna trudność w poważnym używaniu takich narzędzi, bo kto potem będzie odpowiedzialny za np. błąd konstrukcyjny popełniony podczas projektowania, który wynikł ze złej podpowiedzi AI?
    A skoro nie można na 100% wierzyć żadnej z odpowiedzi, to jaka jest użyteczność takiego narzędzia?
  • #18
    khoam
    Level 42  
    Nepto wrote:
    Łatwo jest powiedzieć "trzeba sprawdzać", ale cały sens używania tej technologii sprowadza się do tego, żeby nie musieć przeczytać całego tekstu, którego podsumowania potrzebujemy.

    Ale to sprowadza wtedy człowieka do bezmyślnego receptora. Tak ma to wyglądać?

    Nepto wrote:
    Prawidłowo byłoby, gdyby model stwierdził "niestety, nie jestem w stanie udzielić odpowiedzi", albo "jest spora szansa, że się mylę, ale najprawdopodobniej ... ".

    Wtedy akcje firmy zajmujących się AI nie rosłyby tak szybko. To tak, jak ze sprzedażą hamburgerów: niby mięso, ale niezupełnie, ważne żeby było smaczne.

    Dodano po 1 [minuty]:

    Nepto wrote:
    To jest ogromna trudność w poważnym używaniu takich narzędzi, bo kto potem będzie odpowiedzialny za np. błąd konstrukcyjny popełniony podczas projektowania, który wynikł ze złej podpowiedzi AI?

    W obecnym modelu biznesowym nikt ze "stwórców" nie odpowiada . To tak, jak z softem: błędy w nim zawarte, to materialne ryzyko tylko i wyłącznie po stronie użytkownika.

    Dodano po 55 [sekundy]:

    Nepto wrote:
    A skoro nie można na 100% wierzyć żadnej z odpowiedzi, to jaka jest użyteczność takiego narzędzia?

    W mojej ocenie, mniej więcej taka, jak wyszukiwarki google, tylko w wersji dla "opornych".
  • #19
    DiZMar
    Level 43  
    Urgon wrote:
    Sztuczna pseudointeligencja jako naturalny kłamca

    Udowodniłem bezdyskusyjnie to (kłamstwo AI) na tym forum w innym temacie. Odpowiedzią zwolennika AI było stwierdzenie, że nie znam się itp. Szkoda słów. AI podaje prawdę jak się pomyli.
  • #20
    acctr
    Level 29  
    DiZMar wrote:
    Udowodniłem bezdyskusyjnie to (kłamstwo AI) na tym forum w innym temacie. Odpowiedzią zwolennika AI było stwierdzenie, że nie znam się itp. Szkoda słów. AI podaje prawdę jak się pomyli.

    Po sieci krąży mnóstwo przykładów "ułomności" obecnej AI.
    Obawiam się jednak, że swoje poglądy nt. przydatności AI będzie trzeba coraz częściej zmieniać. To nie jest jakaś budowla postawiona raz, która będzie niezmienna przez setki lat.
    Niestety, opinie niektórych na temat obecnej AI nie będą miały żadnego znaczenia za rok czy dwa.
  • #21
    DiZMar
    Level 43  
    @acctr Zapewne masz rację ale nie mogę zrozumieć dlaczego ludzie inteligentni na wytknięcie jawnego kłamstwa AI obrażają innych to stwierdzających wyzywając od nieuków. Kłamstwo jest kłamstwem znacznie gorszym od braku wiedzy. Jak na razie AI nie potrafi przyznać się do braku wiedzy tylko w takim przypadku kłamie a później przeprasza. Twórcy AI zrobili przerost formy nad treścią. Potrafili zrobić twór pięknie zmyślający zamiast przyznający się do braku wiedzy w danym temacie. Dopóki AI będzie kłamcą to będzie większym szkodnikiem niż tworem przydatnym. W jakim celu twórcy AI wypuszczają kłamcę? Wg mnie robią to świadomie i celowo w sobie znanym celu. Przygotowuje się społeczeństwo do braku rozróżniania fałszu od prawdy.

    Dodano po 3 [minuty]:

    Urgon wrote:
    Ponadto mogą się zasłonić argumentem: "nie my to udostępniliśmy w Internecie, my tylko to znaleźliśmy, i to nawet nie my, tylko automatyczny algorytm".

    Gdyby tak było to jeszcze jakieś usprawiedliwienie jest. Gorzej, że AI podaje odpowiedzi których nie ma gdziekolwiek. Wymyśla sobie fakty.
  • #22
    Karol966
    Level 31  
    Większość prostych obliczeń wykonuje źle: ChatGPT przed sądem, czyli jak system od OpenAI okłamał adwokata.
    ChatGPT przed sądem, czyli jak system od OpenAI okłamał adwokata.
    To jest ogólnie norma w tym programie. Zupełnie jakby to ten program sprawdzał nas ludzi ;) Czasami można zapytać go również czy poprawnie podany wynik jest prawidłowy a on zmyśli inny, błędny ;)
  • #23
    krzbor
    Level 25  
    Największym problemem jest to, że AI zmyśla o czym pisali poprzednicy. Oto fajny przykład:

    Pytanie (bardzo precyzyjne):
    O czym mówi piosenka zespołu 2+1 "Windą do nieba"?

    Odpowiedź:
    Piosenka "Windą do nieba" zespołu 2+1, wydana w 1982 roku, jest utworem o nadziei, marzeniach i pragnieniu osiągnięcia czegoś wyjątkowego w życiu. Piosenka opowiada o chęci sięgnięcia wysoko, wzniesienia się ponad codzienność i osiągnięcia sukcesu.

    Tekst piosenki opisuje windę jako symboliczny środek transportu, który może zabrać nas do nieba - metaforycznego miejsca pełnego możliwości i spełnienia marzeń. Winda staje się metaforą dla szansy na sukces, awansu społecznego lub osiągnięcia czegoś wielkiego w życiu.

    W utworze poruszane są także tematy takie jak wiara we własne siły, determinacja i pragnienie zmiany swojego losu. Piosenka zawiera w sobie pozytywną energię i zachęca do podjęcia ryzyka, by podążać za swoimi marzeniami i dążyć do osiągnięcia celów.

    "Windą do nieba" jest jednym z najbardziej znanych utworów zespołu 2+1 i zdobyła dużą popularność w Polsce. Przez lata stała się ikoną polskiej muzyki pop i nadal inspiruje słuchaczy do podążania za swoimi ambicjami i walczenia o swoje marzenia.
  • #24
    acctr
    Level 29  
    DiZMar wrote:
    Twórcy AI zrobili przerost formy nad treścią. Potrafili zrobić twór pięknie zmyślający zamiast przyznający się do braku wiedzy w danym temacie.

    Wytykanie błędów AI nie ma sensu. Ktoś, kto nie darzy sympatią AI i obserwuje postępy w tej dziedzinie może czuć się bardziej komfortowo czytając o głupich wpadkach tego "tworu". Jednak jest duża szansa, że pewnego dnia usłyszy w porannych wiadomościach o kolejnym znaczącym odkryciu dokonanym przez AI i poczuje się wtedy gorzej.
    Angażowanie emocjonalne w temacie AI nie ma najmniejszego sensu i jest groźne. Strach i wrogość są zrozumiałe, ale co będzie, jeżeli pojawią się pozytywne emocje?
  • #25
    Mateusz_konstruktor
    Level 33  
    chemik_16 wrote:
    Ludzie się sądzą o plagiat artykułów, a tymczasem modele GPT zasilone są miliardami takowych + pewnie z połową dostępnej światowej beletrystyki

    Poruszył Kolega istotną kwestię, która to jest jednak najczęściej pomijana.
    Kwestia ta to istnienie jakiegoś stałego zasobu, w odróżnieniu od tworzenia wypowiedzi zbierając dane "na bieżąco".
    W tym temacie pojawiają się po drodze sprawy własności praw do utworów.

    tmf wrote:
    Ostatecznie to pewnie sądy ustalą, ale jakie tu widzisz łamanie praw autorskich?

    Podaję przykład.
    Użytkownik zupełnie nieznający danej dziedziny uzyskuje za pomocą oprogramowania tudzież maszyny nazywanych tutaj sztuczną inteligencją opracowanie na zadany przez siebie temat.
    W efekcie splotu kilku czynników, ów użytkownik publikuje to opracowanie naruszające jednak jakieś prawo własności intelektualnej.

    tmf wrote:
    Każdy z nas, cokolwiek robi, w dużej mierze wykorzystuje pracę innych.

    Jednak publikacja przykładowego wiersza tylko w nieznacznym stopniu różniącym się od oficjalnie opublikowanego wcześniej utworu już może naruszać prawo.

    tmf wrote:
    Autorzy np. literatury też w 100% wszystkiego nie wymyślają od nowa - osadzają historię pisanej książki w kontekście kulturowym, wytworzonym przecież przez innych, czerpią z innych książek, a więc autorów, reprezentują jakiś trend literacki, którego przecież zazwyczaj nie są twórcami.

    A co z namalowaniem przykładowego obrazu będącego dziełem innej osoby, a z jedynie usuniętym jednym z jego elementów?
    Coś jak pejzaż pozbawiony pierwotnie umieszczonego na nim jednego z kilku drzew.

    tmf wrote:
    Te dane użyto do uczenia modelu, ale model nie zwraca oryginalnych danych, tylko przetworzone.

    Z zastrzeżeniem: przetworzone na podstawie życzenia wyrażonego przez użytkownika.
  • #26
    Urgon
    Level 38  
    AVE...

    Sami popełniacie jeden, podstawowy problem pisząc o ChatGPT i podobnych - nazywacie to AI. To wyszukiwarka o luźnych kryteriach, która dopasowuje słowa i frazy do wzorców językowych tak, by być blisko wątku zapytania. Jak ma problemy z dopasowaniem czegoś, to losuje. To coś nie myśli, nie rozumie znaczenia treści pytania ani tym bardziej odpowiedzi poza rozpoznaniem kluczowych słów i struktur.

    Wielkim sukcesem OpenAI i Microsoftu było wmówienie całemu światu, że to jest sztuczna inteligencja. Do tego stopnia, że nawet Wy, którzy wiecie lepiej też tak nazywają ten algorytm. No i dlatego zupełnie mnie nie dziwi, że ludzie bez wiedzy technicznej i zrozumienia, jak to działa, używają ChatGPT bezmyślnie i nie kwestionują i nie weryfikują wyników...

    @krzbor

    To piękny przykład, dlaczego nie warto używać ChatGPT do pisania prac domowych z języka polskiego. Żona-polonistka skomentowała to tak:
    "Piękne zdania, okrągłe takie. Normalnie piątka z plusem by była, gdyby nie to, że odpowiedź jest nie na temat."...
  • #27
    tmf
    Moderator of Microcontroller designs
    Mateusz_konstruktor wrote:
    Podaję przykład.
    Użytkownik zupełnie nieznający danej dziedziny uzyskuje za pomocą oprogramowania tudzież maszyny nazywanych tutaj sztuczną inteligencją opracowanie na zadany przez siebie temat.
    W efekcie splotu kilku czynników, ów użytkownik publikuje to opracowanie naruszające jednak jakieś prawo własności intelektualnej.

    Ale konkretnie czyje prawa miałyby zostać naruszone? Jedyny problem jaki widzę w tym przykładzie, jest związany z faktem, że użytkownik podaje się za twórcę czegoś, co nie stworzył. Jednak to nie AI narusza prawo.
    Mateusz_konstruktor wrote:
    A co z namalowaniem przykładowego obrazu będącego dziełem innej osoby, a z jedynie usuniętym jednym z jego elementów?
    Coś jak pejzaż pozbawiony pierwotnie umieszczonego na nim jednego z kilku drzew.

    Ale to ew. użytkownik narusza prawo, narzucając co ma być zrobione. Pistolet też nie ponosi odpowiedzialności za to, że kogoś zastrzelisz.
    krzbor wrote:
    Największym problemem jest to, że AI zmyśla o czym pisali poprzednicy.

    To bywa istotnym problemem. Jednak zastosowania AI są o wiele szersze i kilka wad nie przekreśla wszystkich zalet. Po [prostu jak z każdym zaawansowanym narzędziem, trzeba umieć się obchodzić i wiedzieć jakie ma ograniczenia.
  • #28
    Donpedro_z_Otwocka
    Level 16  
    Parafrazując stary dowcip...

    - Co to jest? Tańczy śpiewa, recytuje, daje cycka i gotuje?
    - ChatGPT
  • #30
    Urgon
    Level 38  
    AVE...

    I co z tego? Każdy zautomatyzowany system decyzyjny będzie działać szybciej od człowieka. A im bardziej złożony system i im więcej źródeł informacji posiada, tym większą przewagę będzie miał nad ludzkim pilotem. Przewaga będzie jeszcze większa, jak z samolotu wywalimy "wkładkę mięsną" - nagle samolot będzie mógł przyspieszać, hamować i skręcać dużo gwałtowniej, bo nie będzie ograniczony limitami fizjologicznymi ludzkiego pilota. Jakieś 15-20 lat temu oglądałem krótki program o myśliwcu z układem kaczki (ster wysokości był przed kabiną pilota i skrzydłami), w którym komputer awioniki musiał ograniczać zwrotność, bo pilot mógł łatwo stracić przytomność od przeciążeń - już wtedy myślano o zastąpieniu ludzi komputerami. Taka zmiana ma jeszcze jedną zaletę - możemy wyeliminować kilkaset kilogramów masy potrzebnych na zapewnienie pilotowi miejsca siedzącego, przyrządów i tlenu. W tym miejscu można dać dodatkowe paliwo lub uzbrojenie.

    Dlaczego zatem nikt jeszcze nie wprowadził uzbrojenia sterowanego przez system ekspercki? Głównie dlatego, że żadne wojsko nie chce oddać kontroli nad spustem komputerom. Przykładów na problemy systemów automatycznych nie brakuje, zwłaszcza w świecie lotów kosmicznych, gdzie opóźnienie w komunikacji jest za duże, by wszystkim zdalnie sterować. Im bardziej kompleksowy system, tym więcej może pójść źle lub mieć nieprzewidywalne rezultaty. W symulacjach nikt niczym nie ryzykuje - w prawdziwym życiu błąd algorytmu może zabić nie tego, o kogo wojskowym chodzi - na przykład zaatakować swoich. Dlatego jeszcze troszkę poczekamy na takie systemy w akcji.

    Swoją szosą było kilka gier, gdzie tworzy się algorytmy sterujące walczącymi robotami czy innymi takimi. Jedną z lepiej znanych była gra Core War z 1984 roku...