logo elektroda
logo elektroda
X
logo elektroda
Adblock/uBlockOrigin/AdGuard mogą powodować znikanie niektórych postów z powodu nowej reguły.

Walka o AI na krawędzi dopiero się zaczyna

ghost666 24 Paź 2019 15:54 3180 26
  • Walka o AI na krawędzi dopiero się zaczyna
    W ciągu ostatnich dwóch lat sztuczna inteligencja zmieniła się z akademickiego cudu i ciekawostki w globalny megatrend w wielu dziedzinach technologii. Uczenie maszynowe w jakiejś formie ma zrewolucjonizować prawie wszystko - sektory elektroniki konsumenckiej, motoryzacyjnen, automatykę przemysłową... a ponadto systemy AI mają wpłynąć na społeczeństwo i nasze życie w sposób - w jaki sposób? tego jeszcze nie wiemy.

    Dla branży oznacza to, że praktycznie każdy dostawca procesorów zidentyfikował uczenie maszynowe jako gęś, która złoży złote jaja. Obecnie trwa wyścig, który ma na celu ustalić jakie podejście jest właściwe do rozwiązanie zagadnienia przyspieszenia określonych obciążeń w obszarze o największym potencjale: uczenie maszynowe poza centrum danych czyli sztuczna inteligencja na krawędzi.

    Sztuczna inteligencja na krawędzi jest bardzo obiecującym trendem, ponieważ można ją zastosować w praktycznie każdym urządzeniu elektronicznym, od pojazdów autonomicznych, które widzą pieszych na drodze, po ekspresy do kawy reagujące na polecenia głosowe. Aplikacje wymagające dowolnej kombinacji niskiego opóźnienia, prywatności danych, niskiej pobieranej mocy i niskich kosztów ostatecznie zostaną przeniesione do wnioskowania AI na krawędzi (zwróćcie uwagę, że „Edge AI” jest jedynym punktem na wykresie Gartnera (po lewej stronie), który jest bliżej niż za pięć lat od nas).

    Obciążenia dla wnioskowania AI są specyficzne: Wymagają masowego, równoległego przetwarzania ogromnych ilości danych o dosyć niskiej precyzji, a dostęp do pamięci staje się tutaj wąskim gardłem. Większość, jeśli nie wszystkie, typy procesorów próbują nagiąć się, aby spełnić właśnie takie wymagania.

    Obecną wiodącą technologią jest procesor graficzny - obecnie jest to segment jednego przedsiębiorstwa. Szczęśliwie, architektura GPU z jedną instrukcją i wieloma danymi (SIMD), opracowana w celu przyspieszenia grafiki komputerowej, okazała się bardzo dobrym rozwiązaniem dla obciążeń uczenia maszynowego. Nvidia leci na tej fali na tyle, na ile to możliwe, opracowując superkomputery AI dla centrów danych i systemów autonomicznej jazdy, a także zmniejszone wersje dla urządzeń brzegowych. Nie może to jednak trwać w nieskończoność.

    Inne firmy także chcą kawałek tego rynku. Dostawcy układów programowalnych (FPGA), od dawna wykorzystywanych do przyspieszania algorytmów matematycznych, udoskonalają swoją ofertę, aby dopasować ją do zaawansowanego przetwarzania w systemach uczenia maszynowego. Xilinx przyjmuje koncepcję architektury specyficznej dla domeny i działa z nią, łącząc programowalną logikę z innymi typami układów do obliczeń, aby umożliwić dostosowanie przepływów danych w tych systemach do nowych typów obciążeń. Tymczasem Lattice ukierunkowuje się na przetwarzanie obrazu w urządzeniach o niskiej mocy.

    Istnieją również dziesiątki startupów, które przedstawiają swoje nowatorskie architektury jako kolejną wielką rzecz. Obejmują one techniki od procesora (Mythic, Syntiant, Gyrfalcon) po procesory blisko związane z pamięciami (Hailo); od logiki programowalnej (Flex Logix) do rdzeni RISC-V (Esperanto, GreenWaves); i od bardzo małego (Eta Compute) do hiperskali (Cerebras, Graphcore). Większość tych pomysłów dotyczy systemów sztucznej inteligencji na krawędzi. Czy jest wystarczająco dużo nisz, aby pomieścić ich wszystkich, gdy walczą z takimi gigantami jak Nvidia i Intel? Tylko czas to zweryfikuje.

    Istnieje również szereg startupów, które podchodzą do problemu z innej strony: dostosowują algorytmy AI do wydajniejszego działania na tradycyjnym sprzęcie, takim jak mikrokontrolery. Firmy takie jak PicoVoice i Xnor znajdują nowe sposoby wykorzystania zestawów instrukcji istniejących już urządzeń do przeprowadzania np. mnożenia macierzy – elementu bardzo wielu algorytmów uczenia maszynowego. W połączeniu z pracą Google nad TensorFlow Lite - kompilatorem, który zmniejsza modele uczenia maszynowego do punktu, w którym można je zmieścić do zwykłego mikrokontrolera - bez wątpienia otworzy to drogę do nowej klasy urządzeń takich jak aktywowane głosem systemy sterowania, które nie muszą być podłączone do systemu w chmurze, aby przeprowadzać wnioskowanie.

    Deweloperzy, w obliczu nowatorskich akceleratorów AI, będą musieli nauczyć się je obsługiwać. Oprogramowanie to ogromny kawałek tej układanki. Tutaj widać ogromną przewagę klasycznego podejścia z tradycyjnym CPU lub mikrokontrolerem.

    Chociaż zbudowanie społeczności programistów wokół nowej platformy nie jest niemożliwe, nie jest to łatwe. Nvidii zajęło to dekadę, aby stworzyć i spopularyzować platformę oprogramowania GPU – CUDA. Dzisiaj nikt nie wyobraża sobie systemów AI bez tej technologii. Każdy obecny w tej przestrzeni będzie musiał stworzyć własne biblioteki i zestawy narzędzi, a także pracować nad edukacją programistów poprzez konferencje i fora, takie jak Nasze. Tak ogromne zadanie może przerosnąć ograniczone zasoby start-upu.

    Elastyczność jest kolejnym ważnym składnikiem przepisu na sukces. Podczas gdy dzisiejsze modele przetwarzania obrazu opierają się na splotowych sieciach neuronowych (CNN), różne inne typy sieci neuronowych nadają się do zastosowań, takich jak rozpoznawanie mowy Społeczność akademicka cały czas opracowuje nowe koncepcje sieci neuronowych. Zaawansowane sieci mogą wymagać bardziej złożonych schematów przepływu danych niż stosuje się obecnie. Istnieje niebezpieczeństwo, że sprzęt opracowany w celu przyspieszenia dzisiejszych sieci CNN będzie zbyt specjalistyczny, aby przyspieszyć przyszłe platformy sieciowe. Charakter obciążeń związanych z uczeniem maszynowym należy zatem uznać za ruchomy cel – nie można skupiać się na jednym rodzaju zadań i należy zachować równowagą elastyczności i wydajności. Dzięki temu systemy te będą gotowe na przyszłość.

    Bitwa o tę przestrzeń dopiero się zaczyna. Zwycięzcami będą firmy, które wybiorą właściwą dla siebie niszę i pójdą za ciosem, zainwestują nie tylko w rozwój sprzętu, ale także w stworzenie odpowiedniego oprogramowania i edukację branżę. Jednocześnie firmy te muszą utrzymać element elastyczności w tym szybko rozwijającym się sektorze. I to wszystko oczywiście we właściwej – niskiej – cenie.

    Źródło: https://www.eetimes.eu/the-battle-for-ai-at-the-edge-is-just-beginning/

    Fajne? Ranking DIY
    O autorze
    ghost666
    Tłumacz Redaktor
    Offline 
    Fizyk z wykształcenia. Po zrobieniu doktoratu i dwóch latach pracy na uczelni, przeszedł do sektora prywatnego, gdzie zajmuje się projektowaniem urządzeń elektronicznych i programowaniem. Od 2003 roku na forum Elektroda.pl, od 2008 roku członek zespołu redakcyjnego.
    https://twitter.com/Moonstreet_Labs
    ghost666 napisał 11960 postów o ocenie 10197, pomógł 157 razy. Mieszka w mieście Warszawa. Jest z nami od 2003 roku.
  • #2 18238264
    freebsd
    Poziom 42  
    No cóż, obecnie dowolny kot posiada większą zdolność do adaptacji i uczenia się. Do tego jest mobilny i nawet potrafi wykazać się empatią :) I zużywa mniej energii...
  • #3 18238288
    pawelr98
    Poziom 39  
    freebsd napisał:
    No cóż, obecnie dowolny kot posiada większą zdolność do adaptacji i uczenia się. Do tego jest mobilny i nawet potrafi wykazać się empatią :) I zużywa mniej energii...


    Są eksperymenty polegające na użyciu mózgu zwierzęcia jako "komputera".

    Można znaleźć film gdzie fragment mózgu szczura pracuje jako autopilot w symulatorze samolotu.
  • #4 18238292
    freebsd
    Poziom 42  
    pawelr98 napisał:
    Są eksperymenty polegające na użyciu mózgu zwierzęcia jako "komputera".

    Można znaleźć film gdzie fragment mózgu szczura pracuje jako autopilot w symulatorze samolotu.

    Szkoda, że sam eksperymentator, nie robi eksperymentów na sobie.
  • #5 18238312
    pawelr98
    Poziom 39  
    freebsd napisał:
    pawelr98 napisał:
    Są eksperymenty polegające na użyciu mózgu zwierzęcia jako "komputera".

    Można znaleźć film gdzie fragment mózgu szczura pracuje jako autopilot w symulatorze samolotu.

    Szkoda, że sam eksperymentator, nie robi eksperymentów na sobie.


    Podobne eksperymenty ale na ludziach również się robi.

    Może nie stricte jako komputer ale z powodzeniem wszczepia się elektrody dające bodźce prosto do mózgu. Udało się w ten sposób częściowo przywrócić wzrok osobie ślepej.

    Tak samo kombinuje się ze sterowaniem urządzeniami za pomocą mózgu. Tutaj czasem idzie obejść się bez grzebania w głowie, stosując zewnętrzne elektrody.

    Uczenie maszynowe i sztuczna inteligencja natomiast to nic innego jak naśladowanie natury.
    Choćby algorytmy neuronowe. One naśladują działanie układu nerwowego za pomocą matematyki. Podobnie jak normalny mózg, sieć neuronową można nauczyć działania i reagowania na bodźce w taki sposób w jaki sobie życzymy.
  • #6 18239445
    CC_PL
    Poziom 13  
    Artykuł ciekawy, w mocno skondensowanej formie. Przydałoby się więcej takich i podobnych!

    Cytat:
    Uczenie maszynowe i sztuczna inteligencja natomiast to nic innego jak naśladowanie natury.


    Jasne, tylko kolega piszący wcześniej miał na myśli ingerencję w naturę, a nie samo naśladowanie natury.
  • #7 18244829
    PEJO
    Poziom 22  
    Poziom 21   Online
    Nic dobrego z tego nie bedzie... W imie wygody i pseudo bezpieczeństwa oddamy wolność.
  • #8 18245271
    RitterX
    Poziom 39  
    CUDA do zaawansowanego AI była niezastąpiona bo była tania czyli jak wino :) "Tanie wino jest dobre bo jest tanie". CUDA ma pewne ograniczenia co do skalowalności kodu w dół. W ostatnim czasie gdy wreszcie na rynku zagościły wielordzeniowe procesory w akceptowalnych cenach CUDA już tak rewelacyjna nie jest. Do zastosowań praktycznych czasu rzeczywistego często wykorzystuje się sprzętowe sieci neuronowe oraz ich programowe odpowiedniki na bazie FPGA.
    Sporym nieobecnym artykułu jest Micron ze sprzętowym akceleratorem Automata.

    Małe systemy samodzielnie działającej sztucznej inteligencji to zapewne przyszłość ale każda technologia wymaga odpowiednio przygotowanych ludzi i to na każdym etapie wdrożenia. Przez najbliższą dekadę lub dwie całość sensownego narybku wygarną systemy finansowe i wojskowe. To co zostanie?
    Problemem numer dwa są bardzo skąpe możliwości sprzętowego, dedykowanego przetwarzania tego co jest dostępne jak choćby ograniczenia w Sieci Hopfielda. Najnowsze topowe telefony komórkowe są wyposażone w procesory sztucznej inteligencji mniej więcej o ekwiwalencie 256 neuronów czyli do rozpoznawania twarzy, odciska palca kilku osób to jeszcze jeszcze. W porywach rozpoznawanie mowy ale więcej to już nie koniecznie.

    Wielordzeniowe macierze procesorów są obarczone problemem dokładności obliczeń gdyż zwykle dokonują na etapie uczenia operacji na macierzach, faktoryzacji SVD . W tym przypadku jest konieczna brutalna moc obliczeniowa, która ma się odwrotnie proporcjonalnie do eko i 158 trybów uśpienia i oszczędzania energii ;) .

    Układy sterowania i bez sieci neuronowych są mocno skomplikowanymi bytami i obawiam się, że bez przebrnięcia przez klasykę ;) nikt niczego lepszego od tak nie zbuduje. Optymalizować coś można pod warunkiem, że zna się zasady działania układu bez AI.

    Póki co nie poradzono sobie z zakładaną popularyzacją IoT a ma się to udać ze sztuczną inteligencją?! No bez jaj :) .
  • #9 18245983
    CC_PL
    Poziom 13  
    Cytat:
    Póki co nie poradzono sobie z zakładaną popularyzacją IoT a ma się to udać ze sztuczną inteligencją?! No bez jaj :) .


    Dokładnie! Iot się nie upowszechnił bo nie każdy chce / potrzebuje gadać z czajnikiem, tosterem czy lodówką :)

    Żeby spopularyzować IoT to musi powstać moda. Media prawdopodobnie będą wciskać nam kit, że tego potrzebujemy i tego pragniemy, trochę jak ze smarkfonami. Zauważyłem, ze w niektórych mediach wykreowano obraz smarkfonów, jakby to były niemal dobra luksusowe :) Spotkałem się na kilku forach (np. na benchmarku), że niektórzy traktowali smarkfona jak by to był co najmniej samochód luksusowej marki czy drogi jacht. Smarkfon dla niektórych jest symbolem statusu majątkowego i społecznego w PL :D Jaja jak berety. Nie robię sobie jaj, tylko tak to biednie wygląda u nas :)

    Podobnie może być z IoT, najpierw trzeba ludziom wmówić, że potrzebują i pragną autonomicznych odkurzaczy czy lodówek robiących automatycznie zakupy w pobliskim sklepie i wtedy to ruszy. Wtedy prawie każdy będzie chciał to mieć.

    Tak na siłę będzie się wprowadzać autonomiczne samochody. Oglądałem w TV sondy przeprowadzone w USA i większość zapytanych ludzi stwierdziła, że nie chce auta autonomicznego, że to kompletna głupota. Ale zobaczycie, że za 10-20 lat rządy będą forsować wprowadzenie ich na szeroką skalę, by nieco później zupełnie zrezygnować z tradycyjnych samochodów. Oczywiście dla naszego dobra. Jakiś argument się znajdzie :)

    PEJO napisał:
    Nic dobrego z tego nie bedzie... W imię wygody i pseudo bezpieczeństwa oddamy wolność.


    A ile tej wolności zostało ?!?!? ;) A co do bezpieczeństwa to jest coraz gorzej. Przykładowo dyrektywa PSD z UE zamiast podwyższyć bezpieczeństwo kont bankowych (i co za tym idzie pieniędzy tam przechowywanych) mocno je obniżyła!!! Cofnęliśmy się z zabezpieczeniami o 20 lat. To tylko jeden z przykładów.
  • #10 18247077
    PEJO
    Poziom 22  
    Faktycznie powinienem napisać w czasie teraźniejszym. Ale to tylko czas...
    Z tym cofaniem to prosze mów za siebie:) poza tym cofneliście się czy was cofnięto?
  • #11 18247780
    Konto nie istnieje
    Poziom 1  
  • #12 18248181
    CC_PL
    Poziom 13  
    Cytat:
    Z tym cofaniem to prosze mów za siebie:) poza tym cofneliście się czy was cofnięto?


    Poczytaj sobie na forach bankowych.
  • #13 18248200
    helmud7543
    Poziom 43  
    PEJO napisał:
    Poziom 21   Online
    Nic dobrego z tego nie bedzie... W imie wygody i pseudo bezpieczeństwa oddamy wolność.

    A wtedy skończy się wygoda i zacznie walka o wolność. Terminator. Matrix jest za bardzo odjechany.
  • #14 18248223
    Konto nie istnieje
    Poziom 1  
  • #15 18248226
    CC_PL
    Poziom 13  
    Zgadzam się w pełnej rozciągłości z Erbit-em. Nic dodać, nic ująć.
  • #16 18248420
    PEJO
    Poziom 22  
    "Szlachetne zdrowie!
    Ile cię trzeba cenić ten tylko się dowie kto cię stracił."
    Ten sonecik pana Kochanowskiego tłumaczy wiecej jak nie jedna książka o psychologi ludzi.
    Al nie zniewala. Heroina też nie.
    Wszystko można użyć na wiele sposobów. Inteligencja czy imitowana czy naturalna zawsze działa o jakieś dane i to od doktryny zależy...
  • #17 18248441
    Konto nie istnieje
    Poziom 1  
  • #18 18249230
    RitterX
    Poziom 39  
    Erbit napisał:
    Matrix? Terminator?

    "Idiotokracja" :) . Był taki film z 2006r, wart uwagi.
  • #19 18249588
    Konto nie istnieje
    Poziom 1  
  • #20 18250821
    RitterX
    Poziom 39  
    Erbit napisał:
    Sorry, nie szło tego obejrzeć choć wmawiałem sobie "zobacz, jest tego wart". Nie doczekałem końca. Ten rodzaj (chyba komedii sci-fi) jest zupełnie poza moim zasięgiem. Może nie obejrzałem najważniejszego (zakończenia) ale naprawdę nie dałem rady. Pomysł na film może i ciekawy ale realizacja... nie, dziękuję.

    Tak jak "Iron Sky" pierwotnie miała być to komedia ale z czasem jakoś tak mniej komediowo, w to miejsce realistycznie. Epilog "Idiotokracja" jest mało optymistyczny. Ujęte w filmie rozwiązywanie problemów przez polityków jak ulał pasuje do naszych czasów.

    Wracając do meritum problemu. To nie Matrix albo Terminator stanowi największe zagrożenie. Dużo prościej można produkować energię elektryczną z alg jak na matrixowych polach po horyzont. Terminator już się dzieje w systemach wojskowych choć mało kto się do tego przyznaje. Bardziej jak maszyny nam samym zagrażamy sami sobie. Powoli wysycamy otoczenie technologią do tego stopnia, że przeciętni ludzie z niej korzystają ale już nie rozumieją jak ona działa. To jeden z najważniejszych powodów, o które rozbija się IoT. Im bardziej AI będzie się upowszechniała tym będzie większy opór przeciw niej. Po prostu ludzie będą mieli z czasem dość "udogodnień" Wielkiego Brata.
    AI o odpowiedniej gęstości elementów przetwarzających i niskim zapotrzebowaniu na energię to śpiew przyszłości. Do tego będą potrzebne, pasowały jak ulał, komputery kwantowe i semikwantowe czyli takie, które wprawdzie nie są do końca kwantowe ale umożliwiają prowadzenie obliczeń w tym stylu np. memrystory.
    Tak jak teraz na piechotę, metodami budowy pamięci półprzewodnikowych i procesorów to jednak nie bardzo. To nie jest technologia skalowalna. Wraz ze wzrostem wielkości podłoża rośnie liczba defektów. Dlatego lepiej pchać się z wymiarem charakterystycznym w dół jak starać się produkować megaukłady wielkości spodka od herbaty. Tym samym małe są szanse na to by krzem to pomieścił. Przynajmniej na tyle by było to użyteczne i przenośne a nie barką z centrum obliczeniowym chłodzonym wodą pod jej dnem.
  • #21 18250892
    Konto nie istnieje
    Poziom 1  
  • #22 18250992
    RitterX
    Poziom 39  
    Erbit napisał:
    Czy do użytkowania jest potrzebne zrozumienie technologii?

    Ponad 20 lat temu Norweg nie mógł się nadziwić, że ja tyle rzeczy umiem sam zrobić a On jechał 12 km do warsztatu wymienić żarówkę w samochodzie. Dziś już nie wymieniam żarówek (bo zwyczajnie mnie się nie chce) i pewno następne pokolenia też już nie będą umiały. Norwedzy dawno już "nie umieją" a my za chwilę zaczniemy "nie umieć". Czy to oznacza, że Norwedzyi są głupsi albo, że my idiociejemy? Z takim stwierdzeniem nie mogę się zgodzić.

    Jest dobry historyczny przykład. W dawnych Chinach rozwijano naukę ale w pewnym momencie przestano stosować kryterium doboru do tego najzdolniejszych a zaczęto stosować kryterium dziedziczenia. Nie wyszło to Chińczykom na dobre.
    Erbit napisał:
    Tu się zgadzam. W moim przekonaniu konsumpcyjność nas zabije. Dla zobrazowania piękne porównanie zrobił Cameron w Avatarze (społeczność konsumpcyjna i społeczność tubylcza żyjąca w zgodzie z naturą) i do tego stopniowa przemiana głównego bohatera.

    W moim przekonaniu "Terminator" czy też "Ja, Robot" to fikcja, do której nigdy nie dojdzie. Nie dojdzie dlatego, że wcześniej przestaniemy istnieć jako społeczeństwo, które w tej technologii zdąży to osiągnąć. Zabraknie nam surowców, energii by to wszystko utrzymać w takim stylu i właśnie te dwa filmy w tym kontekście mówią o tym samym - o przekraczaniu przez ludzkość granic, których nie powinna przekraczać. W obydwu przypadkach maszyny lepiej rozumieją problem przetrwania gatunku ludzkiego niż my sami.

    Wcześniej jak później dojdzie do efektu samoregulacji populacyjnej, depopulacji i to z ostrym przegięciem w drugą stronę. Tak już bywało w przeszłości. Sposobów jest wiele i sumarycznie będzie jak zwykle. Nie będą to zapewne hordy Zombi a zwyczajne mordowanie się na wzajem o to samo co zwykle.
    Do Terminatora albo NS5 nie mamy niczego. Źródła energii, lekkich i wytrzymałych filmowo materiałów na egzoszkielet ani też przedmiotu tego artykułu czyli sztucznej inteligencji o takiej objętościowo koncentracji elementów przetwarzających by to miało choć inteligencję psa lub kota. Dlatego możemy spać spokojnie a to co zapodają fantaści traktować jak jedne z wielu "fake news-y".
  • #23 18251161
    Konto nie istnieje
    Poziom 1  
  • #24 18251875
    RitterX
    Poziom 39  
    Erbit napisał:
    Niestety (a może "stety") tylko według zasady czym wyże podskoczysz tym mocniej upadniesz, obecnie może to być bardzo bolesna depopulacja i pytanie czy (choćby ze względu na wyniszczenie i zaśmiecenie planety) będzie jeszcze co odbudowywać bo jeśli przyjdzie jakaś "globalna grypa" to przetrwają najsilniejsze jednostki, jeśli wojna to.... ale jeśli to matka natura się na nas wypnie?

    W Teorii Darwina nie ma nic o najsilniejszych jest za to o najlepiej przystosowanych i najszybciej przystosowujących się.
    Moim zdaniem za bardzo się tym wszystkim przejmujesz. Ziemia jest prawie układem zamkniętym. Z całą pewnością ostra depopulacja wpłynie na jednostkowy wzrost dóbr. To jeden z mechanizmów walki z brakami.

    Erbit napisał:
    Jeśli myślimy o rzeczywistym obrazie przedstawionym w filmach to takiego obrazu długo możemy się nie obawiać ale jeśli Surogaci (i ich świat, w którym żyją i pracują) to dzisiejszy internet to .... ? To znaczy, że to się już dzieje na naszych oczach a dane o zachowaniach internautów mogą za chwilę posłużyć do gry na giełdzie, przewrotów gospodarczych czy też przewrotów politycznych, podobnie jak to pokazano w Surogatach (działalność podziemna).

    Rynek kryptowalut jest jednoznacznie profilowany przez sztuczną inteligencję. Ten mechanizm nie ma na celu maksymalizacji zysku jak w przypadku klasycznych algorytmów ale podtrzymanie płynności, zainteresowania rynku. By przychód na określonym poziomie był generowany stale. Taki splot funkcji celu i np. aktywności grup dyskusyjnych, komunikatorów, portali społecznościowych. Obecna sztuczna inteligencja jest w stanie analizować wpisy pod kątem nie tyle tego co myślą użytkownicy ale jak myślą. Po to by popychać ich nieco w odpowiednim kierunku.
    Nie zajmują się tym systemy z gatunku "AI na krawędzi" a klastry obliczeniowe. Trochę przykre widzieć ludzkich inwestorów nieubłaganie skubanych z realnych pieniędzy ale skoro uznali, że są w stanie konkurować na tym rynku ze sztuczną inteligencją to już ich spawa. Nawet jeżeli coś zarobią to tylko po to by nie wyszli z niewielką stratą z rynku. Z całą pewnością nie sterują tym rynkiem a są jedynie biernymi widzami cyrku zwanego rynkiem krypto.
    Na normalnej giełdzie na mniejszą skalę dzieje się podobnie. Z tą różnicą, że towary wytwarzane przez spółki bardzo skutecznie hamują by rynek nie odleciał. Towar nie jest jedynie zapisem księgowym.
  • #25 18253482
    CC_PL
    Poziom 13  
    Jak już poruszyliście temat depopulacji, to przypomnę, że tym od kilku lat zajmuje się ONZ. Są od kilku lat obrady, gdzie "mądre głowy" myślą jak to przeprowadzić.

    Zobaczcie np: https://prawy.pl/9967-ta-kobieta-to-straznik-...depopulacji-ma-zniknac-nawet-szesc-mld-ludzi/

    https://wolna-polska.pl/wiadomosci/sekretarz-...e-konieczne-aby-pomoc-naszej-planecie-2015-06

    Wpisujac w Google "depopulacja ONZ", znajdziecie mnóstwo linków na ten temat. I to nie jest fake news ani teoria spiskowa. To się dzieje.
  • #26 18389349
    wojteklobo
    Poziom 10  
    Nawiążę tutaj do tego co zostało napisane wcześniej w dyskusji, a mianowicie że AI nie przyjmie sie tak jak nie przyjął się IoT. Na obecnym etapie rozwoju te technologie nie mają aż tak dużego zastosowania komercyjnego, ale w przemyśle ich potencjał jest ogromny. IoT jest w niewielkim stopniu implementowany w sterownikach PLC i ta technologia będzie się tam rozwijać. Na razie zastosowanie jest niewielkie, ale w najbliższym czasie będzie rosnąć.
    Podobnie sztuczna inteligencja będzie implementowana w coraz większej ilości miejsc gdzie zostanie znalezione dla niej rozwiązanie. Wspomaganie codziennych komercyjnych zadań dla przeciętnego konsumenta zwiekszyłoby szybkość rozwoju, ale nawet bez tego ten temat będzie coraz bardziej eksplorowany.
    Obecnie śmiało możemy mówić o pewnego rodzaju rewolucji, która odbywa się na naszych oczach i zmienia otaczającą nas rzeczywistość. W końcu, biorąc pod uwagę kiedy został wymyślony model sieci neuronowych, możemy optymalizować różne modele sztucznej inteligencji na niespotykaną wcześniej skalę.
    Niech przykładem będzie tutaj obecnie rozwijana technologia używania algorytmów genetycznych do dopasowywania konkretnych typów sieci neuronowych do rozwiązywania problemów w których nie mamy pewności jakich technologii systemów decyzyjnych użyć. Obecnie nie ma to zastosowania dla przeciętnego użytkownika, ale w przypadku implementacji lepiej działających sieci neuronowych będziemy mogli rozwinąć np. rozpoznawanie obrazówna znacznie szerszą skalę.
  • #27 18390387
    RitterX
    Poziom 39  
    Nie zapominaj o problemie oporu materii. Dzisiaj lepiej powiedzieć odbiorcy, że urządzeniem steruje zaawansowany algorytm adaptacyjny jak powiedzieć wprost prawdę, że sieć neuronowa. Nie ma znaczenia jak bardzo by nie było konieczne jej zastosowanie choćby w przypadku układu niestacjonarnego, nieliniowego, którego nie da się metodami analitycznymi zlinearyzować i doprowadzić do reguł klasycznych metod sterowania.
    Skoro urządzenie działa poprawnie i otrzymało gwarancję to dla odbiorcy powinno być w sumie wszystko jedno. Tym nie mniej zwykle dopytuje bo ileś iteracji wcześniej nikomu się nie udało doprowadzić urządzenia do takiego stanu funkcjonalności.
    Spotkałem przypadek, że odbiorca już dłuższy czas po pozytywnym wdrożeniu nadal optował za klasycznym rozwiązaniem i wydał sporo pieniędzy na kolejną klasyczną porażkę. Niejako przymuszony, dał wreszcie spokój i powrócił do tego co działa choć nie podoba mu się na jakich zasadach,
    Póki AI odnosi się do nieryzykownych rozwiązań typu rozpoznawanie obrazu albo dźwięku to opory będą małe ale jak będzie konieczna do zastosowania w układzie stabilizacji samolotu pasażerskiego to już będzie inna sprawa. Tym bardziej, że tego typu rozwiązania stosuje się wszędzie tam gdzie klasyczne metody się nie sprawdzają czyli na krawędzi ale innej od tej jak się ową krawędź definiuje obecnie.
    Najważniejszym problemem do rozwiązania pozostanie i tak znalezienie odpowiedniej ilości ludzi z doświadczeniem do aplikacji AI w określonych zastosowaniach. Nie chcąc nikogo obrażać, taka jest prawda, że gro obecnych zastosowań należy do zbioru problemów infantylnych i zajmują się tym mniej więcej tacy specjaliści. Skoro jest na to rynek to w porządku niech aplikują AI w takich zastosowaniach ale czy powierzyłbyś swoje życie i życie bliskich rozwiązaniom AI przez nich przygotowanym? I to jest najważniejsze w tym wszystkim pytanie, pytanie o odpowiedzialność.
REKLAMA