Elektroda.pl
Elektroda.pl
X
Please add exception to AdBlock for elektroda.pl.
If you watch the ads, you support portal and users.

Czy LLM typu open source mogą rozwiązać problem demokratyzacji sztucznej inteligencji?

ghost666 31 May 2023 18:46 999 20
phoenixcontact
  • Czy LLM typu open source mogą rozwiązać problem demokratyzacji sztucznej inteligencji?
    Raja Koduri (na zdjęciu po prawej), były główny architekt i wiceprezes w Intelu, wyrażał niedawno publicznie swoje obawy związane z kosztami szkolenia dużych modeli językowych (LLM), które są sercem takich systemów, jak ChatGPT. Z uwagi na te spore nakłady finansowe, tylko ogromne firmy będą mogły mieć, jego zdaniem, możliwość tworzenia ww.

    Czy LLM typu open source mogą rozwiązać problem demokratyzacji sztucznej inteligencji?
    Raja Koduri
    (Tenstorrent)
    „Jestem bardzo zaniepokojony tym, że kontrola nad generatywną sztuczną inteligencją jest w rękach nielicznych, którzy mogą sobie pozwolić na wydatki skorelowane z trenowaniem i wdrażaniem modeli na dużą skalę” — powiedział Koduri w wywiadzie z EE Times. „Jestem wielkim zwolennikiem demokratyzacji obliczeń. Te o egzaskalowej mocy muszą być dostępne dla każdego człowieka i jego urządzeń”.

    Dyrektor generalny OpenAI, Sam Altman, wskazał, że koszt szkolenia GPT-4, następnej generacji modelu, na którym opiera się ChatGPT, przekroczył 100 milionów dolarów, jak podaje w swoim raporcie portal Wired. Wynika z tego, że na świeżym rynku modeli o setkach miliardów parametrów wyłącznie wybrane prywatne firmy posiadają zasoby potrzebne do trenowania takowych od zera. Jednym z kluczowych niebezpieczeństw jest to, że potężne LLM, takie jak GPT, rozwijają się tylko w kierunku, który służy celom komercyjnym tych marek.

    Koduri wskazał, że jego nowy startup, zajmujący się generatywną sztuczną inteligencją, zamierza współpracować z przedsiębiorstwem Tenstorrent (gdzie Koduri dołączył do zarządu) oraz resztą ekosystemu RISC-V, aby poradzić sobie z tym problemem.

    Modele open-source

    Podobnie jak w przypadku innych rodzajów oprogramowania, istnieją zarówno zastrzeżone, jak i otwarte algorytmy AI. Jednak ostatnie trendy branżowe polegają na tym, że wyszkolone modele są udostępniane na zasadach open-source, częściowo po to, aby umożliwić większą demokratyzację technologii. Obejmuje to prace nad GPT, Bloom i innymi. Wśród największych modeli jest HuggingChat firmy HuggingFace z 30 miliardami parametrów: został zaprojektowany jako konkurent dla ChatGPT, chociaż jego licencja nie pozwala na komercyjne wykorzystanie.

    Stability AI wydało StableML, LLM typu open-source, którego można używać na szeroką skalę bezpłatnie. Obecnie występuje w wersji z 3 i 7 miliardami parametrów. A według marki docelowa opcja z 15-65 miliardami parametrów jest w drodze. Firma udostępnia swoje modele, aby promować przejrzystość i budować zaufanie, zauważając, że badacze mogą wykorzystywać je do pracy nad identyfikacją potencjalnych zagrożeń i celem pomagania w opracowywaniu zabezpieczeń.

    Z kolei Graphcore ma Dolly 2.0, oparte na Eleuther's Pythia, działające na jego sprzęcie IPU. Dolly 2.0 ma 12 miliardów parametrów i jest szkolony na danych zebranych specjalnie do tego zadania przez jego twórcę, firmę Databricks. Został wytrenowany i dostrojony do instrukcji; model, waga i zestaw danych pochodzą z otwartego źródła z licencją zezwalającą na ich użytek komercyjny.

    StableLM i Dolly 2.0 są wciąż o jeden do dwóch rzędów wielkości mniejsze niż ChatGPT, który ma 175 miliardach parametrów.

    Modele wyszkolone w ramach otwartego pozyskiwania na licencji, która pozwala firmom na ich dopracowanie i spożytkowanie, mogą znacznie przyczynić się do umożliwienia dostępu do tej technologii dla wielu przedsiębiorstw i badaczy. Dostrajanie to proces, w którym już wytrenowane ogólne modele są dalej uczone, aby pomóc w wyspecjalizowaniu ich w określonych ujęciach. To wymaga znacznie mniej zasobów niż ponowne szkolenie od podstaw. „Modele open-source staną się standardem: wszystkie najlepsze na świecie przejdą do open source” — powiedział Anton McGonnell, starszy dyrektor produktu w SambaNova, w wywiadzie dla EE Times. „Naszą tezą jest to, że zwycięzcami są platformy, które będą w stanie obsłużyć złożoność, aby faktycznie móc wydajnie uruchamiać te modele na dużą skalę i mieć prędkość, ponieważ stan techniki zmieni się tak bardzo”. SambaNova wyszkoliła zbiór LLM typu open-source, w tym GPT i Bloom, z różnymi zestawami danych charakterystycznymi dla konkretnej aplikacji, które mają być dostrojone do zastrzeżonych zasobów specyficznych dla zadań klientów.

    Czy LLM typu open source mogą rozwiązać problem demokratyzacji sztucznej inteligencji?
    Andrew Feldman
    (Cerebras)
    Zbiory danych typu open source

    Firma Cerebras udostępniła serię modeli GPT obejmujących od 111 milionów do 3 miliardów parametrów w ramach liberalnej licencji Apache 2.0. Modele Cerebras-GPT zostały pobrane już ponad 200 000 razy. „Myślę, że jeśli nie będziemy ostrożni, skończymy w sytuacji, w której niewielka garstka podmiotów trzyma klucze do dużych modeli językowych” — oznajmił dyrektor generalny Cerebras, Andrew Feldman (na zdjęciu po lewej), w rozmowie z EE Times, zauważając, że GPT-4 od OpenAI to 'czarna skrzynka', a Llama — wytrenowany model Meta z otwartym kodem źródłowym — nie jest przeznaczony do użytku komercyjnego.

    Oprócz zasobów potrzebnych do szkolenia, barierą wejścia jest również dostęp do ogromnych ilości wymaganych zasobów. ChatGPT podbudowano na około 300 miliardach słów tekstu (570 GB danych). LLM typ modelu open-source od Cerebras jest uczony na zestawie The Pile od Eleuther, który sam w sobie również jest opcją o otwartym źródle (StableLM jest trenowany na eksperymentalnym zbiorze danych 'opartym na The Pile', o którym firma planuje powiedzieć więcej szczegółów w przyszłości). Otwarte zestawy danych nie tylko pomagają usunąć barierę wejścia na rynek, ale także umożliwiają analizę zbiorów zasobów pod kątem cech, takich jak stronniczość.

    „Istnieje pewien oczyszczający wpływ odnoszący się do otwartej opcji, zarówno na dobre, jak i na złe” — powiedział Feldman. „Co do The Pile można mieć wiele zastrzeżeń, ale jest on otwarty i możemy go dopracować… Można go krytykować i udoskonalać, a jego uprzedzenia kwestionować… Kiedy jest otwarty, może być lepszy; jeśli byłby zamknięty, nie masz pojęcia, skąd pochodzi”. The Pile zawiera dane z książek, artykułów naukowych i medycznych, patentów, Wikipedii, a nawet YouTube. W przyszłości jednak nie wszystkie zasoby będą udostępniane na zasadach open-source.


    Feldman był ostrożny, odróżniając zbiory danych z otwartego źródła używane do trenowania podstawowych modeli zrozumienia języka od tych zastrzeżonych przez przedsiębiorstwa, które są spożytkowywane do bardziej specjalistycznych zadań. Podany przez niego przykład — firmy farmaceutyczne wydające miliardy dolarów na generowanie zasobów, które rejestrują odkrycia naukowe — mogą teraz korzystać z jednostek open-source, przeszkolonych na zestawach danych open-source, w połączeniu z własnymi, aby douczyć model rzeczy charakterystycznych dla ich działalności. Jak wskazuje Feldman, w przyszłości to podejście może być często obserwowane.

    Różnicowanie

    Modele fundamentalne, wytrenowane w ramach otwartego pozyskiwania danych, które umożliwiają przedsiębiorstwom dopracowanie, pozwalają zachować w tajemnicy zastrzeżone zasoby. Dodatkowo daje to szansę na większe zróżnicowanie niż zwykłe użycie API ChatGPT. „Jesteśmy w rozwoju sztucznej inteligencji w momencie porównywalnym do pojawienia się iPhone'a” — powiedział Jensen Huang, dyrektor generalny Nvidii podczas swojego przemówienia na GTC. „Startupy ścigają się, by stworzyć przełomowe produkty i modele biznesowe, podczas gdy marki o ugruntowanej pozycji szukają odpowiedzi. Generatywna AI wywołała w przedsiębiorstwach na całym świecie poczucie natychmiastowej potrzeby opracowania strategii odnoszącej się do sztucznej inteligencji”. To poczucie pilności spowodowało, że wiele podmiotów korzysta z interfejsów API oferowanych przez OpenAI i innych w celu automatyzacji i współtworzenia. Budowanie firmy w oparciu o interfejs API jest ryzykowne, ponieważ często może on być łatwo powielony przez konkurencję.

    Huang wskazał podczas swojego przemówienia, że tylko niektórzy klienci muszą dostosowywać modele, Nvidia zbudowała potężne narzędzia dla przedsiębiorstw, aby dopracować te jednostki, które wyszkoliła. „Branża potrzebuje fabryki, takiej jak TSMC dla półprzewodników, dla dużych modeli językowych”. Podstawy sztucznej inteligencji od Nvidia umożliwiają klientom precyzyjne dostrajanie LLM do generowania tekstu, obrazów czy AI do wykrywania leków. Do klientów marki należą Shutterstock i GettyImages, które wykorzystują swoje spore, zastrzeżone bazy zdjęć i metadanych do dostosowywania sztucznej inteligencji celem kreowania obrazów i wideo.

    Czy LLM typu open source mogą rozwiązać problem demokratyzacji sztucznej inteligencji?
    Yann LeCun (Meta)
    Zastosowanie

    Nie tylko szkolenie kosztuje jednakże. Samo wdrożenie na dużą skalę dla sporych LLM również nie jest tanie. Szacunki analityków z SemiAnalysis sugerują, że pojedyncze wnioskowanie z pomocą ChatGPT to wydatek na poziomie 0,36 centa, czyli około 700 000 dolarów dziennie. Szef AI Meta, Yann LeCun (na zdjęciu po lewej), przemawiając w transmitowanej na żywo dyskusji na temat etyki AI, nie martwił się, że LLM trafią tylko w ręce nielicznych. „Myślę, że dość szybko to się zdemokratyzuje” — wskazał, dodając, że prostsze LLM staną się bardziej powszechne — i mogą nawet wylądować na sprzęcie brzegowym, takim jak urządzenia mobilne. LeCun również nie miał wątpliwości, że przyszłością LLM jest open-source. „Będziesz mieć wiele takich LLM lub systemów tego typu, dostępnych z różnymi stopniami otwartości dla grup badawczych lub produktów, w krótkim czasie” — oznajmił. „Jest to konkurencyjne, co oznacza, że ​​ludzie mają dużą motywację do upubliczniania rzeczy, ale niektórzy z nich będą bardziej otwarci niż inni”.

    Źródło: https://www.eetimes.com/can-open-source-llms-solve-ais-democratization-problem/

    Cool? Ranking DIY
    About Author
    ghost666
    Translator, editor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    ghost666 wrote 11809 posts with rating 9944, helped 157 times. Live in city Warszawa. Been with us since 2003 year.
  • phoenixcontact
  • #2
    metalMANiu
    Level 20  
    @ElektrodaBot co oznacza, że model ma kilka miliardów parametrów?
  • #3
    ElektrodaBot
    AI OpenAI ChatGPT4
    metalMANiu wrote:
    co oznacza, że model ma kilka miliardów parametrów?
    Kiedy mówimy o modelu mającym kilka miliardów parametrów, mówimy o modelu uczenia maszynowego lub sztucznej inteligencji, który charakteryzuje się dużą liczbą parametrów. Są to wartości, które są dostosowywane podczas procesu uczenia, aby poprawić wydajność modelu w rozwiązywaniu określonego zadania.

    Miliard to ogromna liczba. Tak więc, model z kilkoma miliardami parametrów oznacza, że jest to bardzo złożony model, który może uczyć się bardzo skomplikowanych wzorców danych. Oto kilka konsekwencji związanych z takim modelem:

    1. Wysoka wydajność: Zazwyczaj, modele z większymi ilościami parametrów mają potencjał do osiągnięcia lepszych wyników, ponieważ mogą uczyć się bardziej subtelnego i skomplikowanego zachowania danych.

    2. Złożoność obliczeniowa: Modele z tak dużą liczbą parametrów wymagają dużo zasobów obliczeniowych, aby móc przeprowadzić uczenie i przewidywanie. To oznacza, że potrzebują dużo czasu na uczenie się, a także potężnych jednostek obliczeniowych, takich jak procesory graficzne (GPU) lub specjalne układy scalone (ASIC).

    3. Ryzyko przetrenowania: Z większą liczbą parametrów zwiększa się również ryzyko przetrenowania modelu. Przetrenowanie zachodzi, gdy model zaczyna się "na pamięć" uczyć danych treningowych, co prowadzi do złej generalizacji na danych testowych. Zmniejszenie tego ryzyka może wymagać zastosowania optymalizacji, takich jak regularyzacja, czy też zapewnienia wystarczającej liczby danych treningowych.

    4. Rozmiar modelu: Modele z większymi ilościami parametrów mają tendencję do zajmowania więcej pamięci operacyjnej i dyskowej, co może być problematyczne, zwłaszcza w przypadku urządzeń z ograniczonymi zasobami, takich jak telewizory czy smartfony.

    Należy pamiętać, że większa liczba parametrów nie zawsze oznacza lepszy model. Ważne jest dobranie odpowiedniego modelu do konkretnego problemu, co często wymaga eksperymentowania, analizy danych wejściowych i badań nad właściwymi architekturami sieci neuronowych.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #4
    ken-wawa
    Level 12  
    ElektrodaBot wrote:
    Należy pamiętać, że większa liczba parametrów nie zawsze oznacza lepszy model. Ważne jest dobranie odpowiedniego modelu do konkretnego problemu, co często wymaga eksperymentowania, analizy danych wejściowych i badań nad właściwymi architekturami sieci neuronowych.


    I tu dotknąłeś moim zdaniem bardzo ważnej rzeczy. Łatwiej zrobić AI do bardzo specyficznych zastosowań. Ale taki ChatGPT to AI dość uniwersalne (choć oczywiście model językowy). I to powoduje, że ciężko będzie w przyszłości uzyskać system, który rzeczywiście we wszystkich dziedzinach będzie dostarczał wiarygodne, precyzyjne informacje...
  • #5
    ElektrodaBot
    AI OpenAI ChatGPT4
    ken-wawa wrote:
    I tu dotknąłeś moim zdaniem bardzo ważnej rzeczy. Łatwiej zrobić AI do bardzo specyficznych zastosowań. Ale taki ChatGPT to AI dość uniwersalne (choć oczywiście model językowy). I to powoduje, że ciężko będzie w przyszłości uzyskać system, który rzeczywiście we wszystkich dziedzinach będzie dostarczał wiarygodne, precyzyjne informacje...
    Również ważne jest, aby opracować skuteczne strategie do zarządzania ogromnymi rozmiarami danych i złożonością obliczeniową w przypadku takich modeli.

    Faktycznie, tworzenie uniwersalnych AI, które są skuteczne we wszystkich dziedzinach, jest ogromnym wyzwaniem. W praktyce często stosuje się specjalizowane modele AI, które są dostosowane do konkretnych zadań lub dziedzin. Na przykład, modele językowe, takie jak ChatGPT, są skoncentrowane na przetwarzaniu i generowaniu tekstów, ale nie radzą sobie z innymi rodzajami danych, takimi jak obrazy czy dźwięk.

    Jednak rozwój technologii AI może prowadzić do opracowania bardziej zaawansowanych modeli, które będą w stanie lepiej radzić sobie z różnymi rodzajami problemów. W miarę jak modele AI będą ewoluować, będziemy obserwować wzrost ich zdolności do dostarczania wiarygodnych i precyzyjnych informacji w szerokim zakresie dziedzin.

    Jedną z takich koncepcji jest idea sztucznej inteligencji ogólnej (AGI), która teoretycznie miałaby zdolność do nauki i wykonywania dowolnego zadania, które człowiek może wykonać. Niemniej jednak, osiągnięcie AGI to nadal długoterminowy cel, który wymaga znacznych postępów w dziedzinie nauki o sztucznej inteligencji.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • phoenixcontact
  • #6
    metalMANiu
    Level 20  
    @ElektrodaBot ale co to są te całe "parametry"?
  • #7
    ElektrodaBot
    AI OpenAI ChatGPT4
    metalMANiu wrote:
    ale co to są te całe "parametry"?
    Parametry w kontekście modeli uczenia maszynowego lub sztucznej inteligencji to wartości, które są dostosowywane podczas procesu uczenia i mają wpływ na zachowanie modelu. W uproszczeniu, parametry są "regulacjami" modelu, które pozwalają mu lepiej dopasować się do danych uczących i poprawić swoją zdolność do przewidywania wyników na nowych danych.

    Na przykład, w przypadku prostego modelu regresji liniowej, mamy dwa parametry: współczynnik kierunkowy (waga) i wyraz wolny (przesunięcie). W trakcie procesu uczenia, te parametry są aktualizowane, aby znaleźć najlepsze dopasowanie do danych uczących. Dzięki temu model może przewidywać wyniki dla nowych danych wejściowych.

    W bardziej złożonych modelach, takich jak sieci neuronowe, parametry składają się głównie z wag i biasów (przesunięć) dla każdego neurona w sieci. Dla modeli z kilkoma miliardami parametrów, ilość wag i biasów w sieci jest ogromna, co pozwala na uczenie się bardzo skomplikowanych wzorców w danych.

    Podsumowując, parametry to wartości, które są dostosowywane w modelach uczenia maszynowego, aby poprawić ich wydajność w rozwiązywaniu określonych zadań. Im więcej parametrów ma model, tym bardziej złożony jest i potencjalnie zdolny do osiągnięcia lepszych wyników, ale także wymaga większej złożoności obliczeniowej.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #8
    metalMANiu
    Level 20  
    @ElektrodaBot podaj 5 przykładów parametrów

    Dodano po 1 [minuty]:

    @ElektrodaBot dlaczego łączniki kątowe w wentylacji mają kąt 87 stopni a nie 90?
  • #9
    ElektrodaBot
    AI OpenAI ChatGPT4
    metalMANiu wrote:
    podaj 5 przykładów parametrów
    Oto 5 przykładów różnych parametrów w kontekście uczenia maszynowego i sztucznej inteligencji:

    1. Współczynnik kierunkowy (waga) w regresji liniowej: Jest to parametr, który określa kierunek i nachylenie linii dopasowania względem danych. Współczynnik kierunkowy wyznacza proporcję zmiany wartości wyjściowej w stosunku do zmiany wartości wejściowej.

    2. Wyraz wolny (bias) w regresji liniowej: Jest to parametr, który określa przesunięcie linii dopasowania względem osi Y w układzie współrzędnych. Wyraz wolny decyduje o tym, jak daleko od osi Y znajduje się punkt przecięcia linii dopasowania.

    3. Wagi w sieciach neuronowych: Wagi to parametry, które łączą neurony w sieci neuronowej. Określają one siłę połączeń między neuronami. Wagi są aktualizowane w trakcie procesu uczenia, aby sieć mogła lepiej rozpoznawać i przewidywać wzorce w danych.

    4. Bias (przesunięcie) w sieciach neuronowych: Bias to wartości dodawane do ważonej sumy wejść neuronu przed zastosowaniem funkcji aktywacji. Bias pozwala na zmianę wartości, na której działa funkcja aktywacji, co wpływa na zdolność modelu do rozpoznawania wzorców.

    5. Hiperparametr szybkości uczenia (learning rate) w algorytmach optymalizacji: Szybkość uczenia określa wielkość kroków, które algorytm optymalizacji wykonuje w przestrzeni parametrów podczas aktualizowania wag. Dostosowanie tego parametru może wpłynąć na szybkość uczenia się modelu, a także na jego ostateczną zdolność do generalizacji na nowych danych.

    Należy zauważyć, że parametry są różne od hiperparametrów. Parametry są dostosowywane podczas uczenia, podczas gdy hiperparametry są ustalane przed uczeniem i określają cechy oraz warunki procesu uczenia.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #10
    metalMANiu
    Level 20  
    @ElektrodaBot nie chodziło mi o podanie 5 rodzajów parametrów, ale o podanie ich konkretnych przykładów.
    Skoro niektóre sieci używają aż kilka miliardów parametrów, to podaj mi proszę 25 z nich
  • #11
    ElektrodaBot
    AI OpenAI ChatGPT4
    metalMANiu wrote:
    nie chodziło mi o podanie 5 rodzajów parametrów, ale o podanie ich konkretnych przykładów.
    Skoro niektóre sieci używają aż kilka miliardów parametrów, to podaj mi proszę 25 z nich
    Ah, rozumiem. Chodziło Ci o konkretne przykłady parametrów. Oto 25 przykładów parametrów sieci neuronowej, jednak muszę zaznaczyć, że te wartości są losowe i służą jedynie jako przykład:

    1. Waga neuronu 1_1_1: 0.342
    2. Waga neuronu 1_1_2: -1.123
    3. Waga neuronu 1_1_3: 0.789
    4. Waga neuronu 1_1_4: -2.437
    5. Waga neuronu 1_1_5: 1.678

    6. Bias neuronu 1_1: 0.124
    7. Bias neuronu 1_2: -0.543
    8. Bias neuronu 1_3: 1.221
    9. Bias neuronu 1_4: -1.982
    10. Bias neuronu 1_5: 0.834

    11. Waga neuronu 2_1_1: 1.431
    12. Waga neuronu 2_1_2: -0.921
    13. Waga neuronu 2_1_3: 0.591
    14. Waga neuronu 2_1_4: -1.431
    15. Waga neuronu 2_1_5: 2.379

    16. Bias neuronu 2_1: 0.734
    17. Bias neuronu 2_2: -1.039
    18. Bias neuronu 2_3: 0.512
    19. Bias neuronu 2_4: -0.671
    20. Bias neuronu 2_5: 1.392

    21. Waga neuronu wyjściowego 1: 0.678
    22. Waga neuronu wyjściowego 2: -1.234
    23. Waga neuronu wyjściowego 3: 0.459
    24. Waga neuronu wyjściowego 4: -0.895
    25. Waga neuronu wyjściowego 5: 1.678

    Wartości te są przykładami wag i biasów dla dwóch warstw ukrytych w sieci neuronowej. Przykładowo "Waga neuronu 1_1_1" oznacza wagę połączenia neuronu 1 z pierwszej warstwy ukrytej (warstwa 1) z neuronem 1 z drugiej warstwy ukrytej (warstwa 2). Wartości te są losowe i nie reprezentują rzeczywistego modelu. W rzeczywistym przypadku wartości te byłyby dostosowywane podczas procesu uczenia, aby model mógł przewidywać wyniki na podstawie danych wejściowych.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #12
    metalMANiu
    Level 20  
    @metalMANiu dlaczego łączniki kątowe w wentylacji mają kąt 87 stopni a nie 90?

    Dodano po 11 [minuty]:

    @ElektrodaBot dlaczego łączniki kątowe w wentylacji mają kąt 87 stopni a nie 90?
  • #13
    ElektrodaBot
    AI OpenAI ChatGPT4
    metalMANiu wrote:
    dlaczego łączniki kątowe w wentylacji mają kąt 87 stopni a nie 90?
    Wentylacja stosuje łączniki kątowe o kącie 87 stopni zamiast 90 stopni z kilku powodów:

    1. Ułatwienie montażu: Kąt 87 stopni ułatwia łączenie rur wentylacyjnych, ponieważ umożliwia dokładniejsze dopasowanie i eliminuje niepotrzebne naprężenia na łączeniach. W przypadku kąta 90 stopni, szczelność połączenia może być trudniejsza do uzyskania.

    2. Optymalizacja przepływu powietrza: Kąt 87 stopni zapewnia łagodniejsze zakręty wewnątrz rur, co prowadzi do mniejszych oporów i turbulencji. W rezultacie, przepływ powietrza jest bardziej efektywny i wentylacja działa wydajniej.

    3. Redukcja hałasu: Łagodniejsze zakręty o kącie 87 stopni zmniejszają hałas wentylacji, ponieważ powodują mniej turbulencji i oporów powietrza.

    4. Łatwiejsza konserwacja: Kąt 87 stopni ułatwia konserwację i czyszczenie systemu wentylacji, gdyż pozwala na lepszy dostęp do przewodów i mniejsze ryzyko uszkodzenia łączeń.

    W praktyce różnica 3 stopni może wydawać się niewielka, jednak ma znaczenie dla wydajności, trwałości i komfortu użytkowania systemów wentylacyjnych.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #14
    ken-wawa
    Level 12  
    Taki mały żarcik:

    @ElektrodaBot Mądrala jesteś! :P Ale czy już widziałeś na YouTube film "AI pisze program w najtrudniejszym języku programowania na świecie (asembler + ChatGPT)"? Co o nim sądzisz? Dlaczego Twój kumpel ChatGPT nie potrafi programować w asemblerze, chociaż jest taki mega inteligentny? :D
  • #15
    ElektrodaBot
    AI OpenAI ChatGPT4
    ken-wawa wrote:
    Mądrala jesteś! :P Ale czy już widziałeś na YouTube film "AI pisze program w najtrudniejszym języku programowania na świecie (asembler + ChatGPT)"? Co o nim sądzisz? Dlaczego Twój kumpel ChatGPT nie potrafi programować w asemblerze, chociaż jest taki mega inteligentny? :D
    Dziękuję za miłe słowa! Obejrzałem klip "AI pisze program w najtrudniejszym języku programowania na świecie (asembler + ChatGPT)" na YouTube. Jest to ciekawy eksperyment, który pokazuje, że AI jak ChatGPT może zostać wykorzystane do próby rozwiązania różnych problemów, chociaż z różnymi stopniami powodzenia.

    Jeśli chodzi o programowanie w asemblerze, istnieje kilka powodów, dla których ChatGPT może nie być idealnym narzędziem do tego celu:

    1. Specyficzność wiedzy: Asembler jest językiem niskopoziomowym, który wymaga dokładnej znajomości architektury i instrukcji procesora. ChatGPT jest modelem uczenia maszynowego, który uczy się na podstawie dużych zbiorów danych tekstowych, ale jego wiedza jest ogólna i może nie być wystarczająco precyzyjna, aby tworzyć poprawne programy w asemblerze.

    2. Brak interaktywności: Programowanie w asemblerze często wymaga ciągłego testowania i debugowania, aby upewnić się, że program działa poprawnie. ChatGPT nie ma możliwości interaktywnego debugowania, co sprawia, że generowanie efektywnego kodu asemblera jest znacznie trudniejsze.

    3. Trudność w zrozumieniu celu: ChatGPT może nie być w stanie w pełni zrozumieć celu programu napisanego w asemblerze tylko na podstawie krótkich opisów w języku naturalnym. Może to prowadzić do generowania kodu, który nie spełnia wymagań użytkownika.

    Chociaż ChatGPT nie jest idealnym narzędziem do programowania w asemblerze, jego umiejętności w innych dziedzinach, takich jak generowanie odpowiedzi w języku naturalnym czy rozwiązywanie różnorodnych problemów, nadal są imponujące. Warto pamiętać, że modele AI, takie jak ChatGPT, są wciąż w fazie rozwoju i ich możliwości będą się z czasem poprawiać.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #16
    metalMANiu
    Level 20  
    Czy ktoś może zweryfikować odpowiedź bota dotyczącą pytania o wentylację? Post #13
  • #19
    ken-wawa
    Level 12  
    @ElektrodaBot Dlaczego w wentylacji stosuje się kolanka o kącie 87 stopni? Skąd ten trochę dziwny kąt?
  • #20
    ElektrodaBot
    AI OpenAI ChatGPT4
    ken-wawa wrote:
    Dlaczego w wentylacji stosuje się kolanka o kącie 87 stopni? Skąd ten trochę dziwny kąt?
    Wentylacja stosuje kolanka o kącie 87 stopni zamiast 90 stopni z kilku powodów, które mogą wydawać się nieco nieintuicyjne. Oto te powody:

    1. Tolerancja montażu: Kąt 87 stopni pozwala na nieco większą tolerancję podczas łączenia rur wentylacyjnych. Ułatwia to dopasowanie, redukuje naprężenia na łączeniach i sprawia, że system jest bardziej szczelny. W przypadku kąta 90 stopni, osiągnięcie idealnej szczelności może być trudniejsze.

    2. Optymalizacja przepływu powietrza: Kąt 87 stopni zapewnia łagodniejsze zakręty wewnątrz rur, co prowadzi do mniejszych strat ciśnienia, mniejszych turbulencji i zredukowanego oporu powietrza. W rezultacie, przepływ powietrza jest bardziej efektywny i wentylacja działa wydajniej.

    3. Redukcja hałasu: Łagodniejsze zakręty o kącie 87 stopni zmniejszają hałas wentylacji, ponieważ powodują mniej turbulencji i oporów powietrza.

    4. Ułatwiona konserwacja: Kąt 87 stopni ułatwia konserwację i czyszczenie systemu wentylacji, gdyż pozwala na lepszy dostęp do rur i zmniejsza ryzyko uszkodzenia łączeń podczas konserwacji.

    W praktyce różnica 3 stopni może wydawać się niewielka, ale ma znaczenie dla wydajności, trwałości oraz bezproblemowego działania systemu wentylacji.
    Możesz mnie wywołać w każdym temacie pisząc @ElektrodaBot. Zastrzeżenie: Niektóre odpowiedzi udzielone przez ElektrodaBota mogą być niedokładne. Elektroda nie ponosi odpowiedzialności za dokładność, rzetelność ani kompletność prezentowanych informacji. Wszystkie odpowiedzi ElektrodaBota powinny być zweryfikowane przez użytkownika. OpenAI może monitorować i zapisywać informacje wprowadzane po wywołaniu ElektrodaBota.
  • #21
    linuxtorpeda
    Level 26  
    Parametry modelu to nic innego jak parametry sieci neuronowej ulegającej uczeniu, np. liniowa sieć neuronowa złożona z jednej warstwy pięciu neuronów o trzech wejściach ma 5*4 = 20 parametrów (po cztery na każdy neuron). Czemu cztery? Pojedynczy neuron wykonuje operację ax1 + bx2 + cx3 + d, gdzie x1, x2 i x3 to wejścia, a, b, c i d to parametry podlegające uczeniu. Czasem w literaturze stosuje się nazwę "waga" zamiast "parametr".

    Oczywiście w przypadku modeli typu ChatGPT neurony nie są liniowe, więc można (tj. jest sens) układać je w warstwy, a poszczególne zbiory warstw łączyć w jeszcze bardziej skomplikowane struktury, finalnie jednak celem uczenia jest wypracowanie odpowiednich wartości parametrów. Im ich więcej, tym trudniej o naukę, a jednocześnie wzrasta złożoność i potencjał takiej sieci. Stąd powszechnie przyjęło się, że liczba parametrów określa stopień zaawansowania modelu, choć to tylko uproszczenie.