Elektroda.pl
Elektroda.pl
X
Relpol
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

IBM stworzył najbardziej skomplikowany chip inspirowany ludzkim mózgiem

jacu007 09 Sie 2014 22:03 7233 24
  • IBM stworzył najbardziej skomplikowany chip inspirowany ludzkim mózgiem Firma IBM zaprezentowała nowy typ chipu komputerowego, inspirowanego budową ludzkiego mózgu. Choć przewyższa on tradycyjne mikroprocesory, jeżeli chodzi o stopień skomplikowania, zużywa znacznie mniej energii i doskonale nadaje się do przetwarzani dźwięków, obrazów i innych danych sensorycznych.

    Nowy chip firmy IBM ? TrueNorth, przetwarza dane za pomocą sieci ponad miliona neuronów, które komunikują się ze sobą za pomocą elektrycznych ramion, podobne jak robią jak tradycyjne neurony. Układ wykorzystuje takie same krzemowe tranzystory CMOS, z jakimi mamy do czynienia w tradycyjnych CPU domowych komputerów. Struktura połączeń jest tu jednak odmienna od tradycyjnej, tranzystory są skonfigurowane, aby naśladować połączenia neuronów poprzez synapsy.

    Chip skonstruowany przez IBM jest jednym z najbardziej skomplikowanych układów neuromorficznych, jakie do tej pory skonstruowano. Choć naukowcy pracują nad układami symulującymi pracę naszego mózgu od lat ?80 XX wieku to jednak do tej pory zawsze były one bardzo skomplikowane i niewystarczająco wydajne, aby mogły być stosowane komercyjnie.

    Układ TrueNorth posiada ponad milion programowalnych neuronów i 256 synaps, tworzących 4096 indywidualnych neurosynaptycznych rdzeni. Został wyprodukowany w 28 nm procesie produkcyjnym firmy Samsung przy liczbie tranzystorów w układzie wynoszącej 5,4 miliarda. Można powiedzieć, że to jeden z najbardziej masowo równoległy układ w historii. Co ważne, TrueNorth jest niezwykle oszczędny, zużywając jedynie 72 miliwaty przy maksymalnym obciążeniu, co daje około 400 mld synaptycznych operacji na sekundę na wat. Jest to wydajność około 176 tysięcy razy wyższa niż w przypadku podobnie obciążonego tradycyjnego procesora.

    Chip TrueNorth składa się z 4096 neurosynaptycznych rdzeni zgrupowanych w siatkę 64 x 64. Każdy z takich niezależnych rdzeni posiada 256 wejść (aksonów), 256 wyjść (neuronów), duży bank pamięci SRAM (przechowujący dane dla każdego neuronu) oraz router pozwalający każdemu neuronowi na transmisję do dowolnego aksonu w głąb 255 rdzeni. Architektura ta bazuje na asynchronicznym rozwiązaniu opracowanym w Cornell Tech i udoskonalonym przez IBM w 2008 roku.
    Budowa układu TrueNorth stanowią ukoronowanie trwającego od 2008 roku projektu SyNAPSE realizowanego przez IBM Research.

    Choć chip nie jest jeszcze komercyjnym produktem już można było zobaczyć jak sprawuje się on podczas pracy z realnymi problemami. W centrum rozwojowym IBM w Almaden wykorzystano go do obsługi na bieżąco rozpoznania samochodów, ludzi i rowerów podczas analizy video z kamer drogowych. W pobliżu leżał też laptop, który był zaprogramowany do wykonywana tego samego zadania i jak się okazało robił to 100 razy wolniej pobierając przy tym 100000 więcej prądu niż testowany chip IBM.

    Jedynym minusem jest to, że nowy układ będzie wymagał zupełnie innego podejścia do programowania. Nawet najlepsi programiści będą się musieli nauczyć pracy z nowymi układami. Aby wspomóc tę prace firma IBM stworzyła w zeszłym roku język programowania Corelet oraz symulator Compass, które umożliwiają tworzenie i testowanie neurosynaptycznych programów przed ich zapisaniem. Zespół pracuje aktualnie nad stworzeniem bibliotek, które ułatwią programowanie.

    Źródła:
    http://www.extremetech.com/extreme/187612-ibm...res-1-million-neurons-5-4-billion-transistors
    http://www.technologyreview.com/news/529691/i...sses-data-similar-to-the-way-your-brain-does/

  • Relpol
  • #2 09 Sie 2014 22:42
    bambus94
    Poziom 21  

    Programowanie tego układu będzie pewnie jak nauka dziecka.
    Podoba mi się ten kierunek rozwoju, ogólnie badania nad wykorzystaniem biokomponentów w technice i techniki w żywych organizmach.
    Pamiętam jeden z dokumentów w TV, naukowcy wzięli ok 10'000 neuronów z mózgu szczura, było to rozpuszczone w jakimś płynie który zawierał glukozę.
    Wylali to na szalkę petriego która miała zamontowane metalowe piny, wyglądało to jak pady do SQFP. Podłączyli to do komputera i o dziwo dało się ten twór czegoś nauczyć. Nauczyli go latać jakimś symulatorem myśliwca w takich warunkach pogodowych że żaden najlepszy pilot nie dawał sobie rady.
    Było tam też ciekawe porównanie, że któraś z małych muszek ma ok 10'000 neuronów w całym układzie nerwowym, i że to jest minimum wymagane do egzystencji tak złożonego organizmu wielokomórkowego.

  • #3 10 Sie 2014 00:34
    iagre
    Poziom 35  

    bambus94 napisał:
    Programowanie tego układu będzie pewnie jak nauka dziecka.

    Tak jak w Ananke Stanisława Lema...?

  • #4 10 Sie 2014 09:01
    Atreyu Makiavel
    Poziom 34  

    bambus94 napisał:
    naukowcy wzięli ok 10'000 neuronów z mózgu szczura, było to rozpuszczone w jakimś płynie który zawierał glukozę.
    Wylali to na szalkę petriego która miała zamontowane metalowe piny, wyglądało to jak pady do SQFP. Podłączyli to do komputera i o dziwo dało się ten twór czegoś nauczyć. Nauczyli go latać jakimś symulatorem myśliwca w takich warunkach pogodowych że żaden najlepszy pilot nie dawał sobie rady.
    Było tam też ciekawe porównanie, że któraś z małych muszek ma ok 10'000 neuronów w całym układzie nerwowym, i że to jest minimum wymagane do egzystencji tak złożonego organizmu wielokomórkowego

    Znam ludzi których nawet 100 000 neuronów nie starczyłoby na ogarnięcie Snake'a.

  • Relpol
  • #5 10 Sie 2014 11:05
    Nathir
    Poziom 14  

    jacu007 napisał:
    176 tys. wyższa

    jacu007 napisał:
    100000 więcej prądu


    To mnie za bardzo raziło, musiałem wytknąć :P

    176 tys. RAZY wyższa.

    Jeśli to co opisują to realne dane, a nie jakiś poszczególny przypadek (chodzi mi o obliczenia / moc) to super, że jest postęp.

    Co do programowania - jeśli się sporo różni to raczej ciężko będzie 'normalnemu' programiście się na to przestawić.
    Ale następne pokolenia...

  • #6 10 Sie 2014 13:03
    999602
    Użytkownik usunął konto  
  • #7 10 Sie 2014 15:35
    deus.ex.machina
    Poziom 32  

    Normalni programiści maja problemy z ogarnięciem programowania wielowątkowego i przetwarzania równoległego - niestety z jakością kodu jest podobnie jak z jakością języka potocznego - coraz gorzej a nie coraz lepiej.

    Co do układu - nie jest to pierwszy układ tego typu - w latach 80 ubiegłego wieku (koniec lat 80 i początek 90) Intel wypuścił znacznie prostszy ale jednak procesor bazujący na neuronach - Intel 80170NX . Niestety w internecie jest relatywne mało materiałów na ten temat - znamienne jest np ze nie ma oddzielnego hasła w Wikipedii dotyczącego tej konstrukcji.

  • #8 10 Sie 2014 20:48
    RitterX
    Poziom 36  

    Układy tego typu można z grubsza podzielić na dwa rodzaje. Pierwszy prostszy to implementacja sieci w krzemie po to by wykonywała znacznie szybciej zadania klasyfikacyjno-optymalizacyjne zaprogramowane np. w Octave, Matlabie, C,... . Tego typu zadaniem jest choćby nauczenie sieci wzorców np. twarzy i wyłuskiwanie potencjalnych "kandydatów do odsiadki" na lotniskach, kasynach, centrach miast czy metrze. To się już dzieje.
    Drugi typ sieci, czyli wyżej opisany, o znacznie wyższej złożoności nastawiony jest na zadania optymalizacyjne np. sterowanie złożonymi obiektami w nieprzewidywalnym środowisku, symulacji leków, białek, zaawansowanego DSP i programowanie. Tu problem nie sprowadza się do wklepywania i sklejania tabelek lecz jest nim formułowanie problemu optymalizacyjnego. Na dodatek w taki sposób by sieć w procesie swojej rekonfiguracji mogła osiągnąć możliwie optymalne rozwiązanie problemu. Przy tym sieć wcale nie musi ewoluować zgodnie ze schematem "nauki z nauczycielem" lecz może być samoorganizującą.
    Powyższe zadania wymagają zupełnie innych kwalifikacji jak umiejętność programowania w tym czy innym języku.To tak jakby pytać kogoś kto potrafi projektować samoloty w jakim języku dokonuje stosownych obliczeń?

  • #9 11 Sie 2014 14:56
    SQLmaster
    Poziom 24  

    kikiz napisał:
    Prosty przykład, który jest niemal nie do przebrnięcia dla przeciętnego informatyka to programowanie układów FPGA. Większość elektroników nie zauważa różnicy, a informatycy niestety nie rozumieją idei tych układów.
    Dlatego też sądzę, że elektronicy i w tym przypadku nie zauważą żadnej różnicy.


    Kto to jest dla Ciebie "przeciętny informatyk"? Ten co drukarki instaluje i windowsy? Taki faktycznie może i nie ogarnie tematu.

    Znam wielu elektroników pracujących jako programiści i vice versa. Znam też człowiekia który jest z wykształcenia biotechnologiem, a który obecnie programuje FPGA. Jak ktos jest bystry to się wszystkiego nauczy.
    Nie róbmy z elektroników takich niezastąpionych bogów, bo jak by takimi bogami byli, to by stawiali warunki, wszyscy zarabiali po 30tys na miesiąc, mieli wille i super limuzyny.

    I tak samo wspomianego tu języka Corelet programisci jak trzeba to sie nauczą moment. Jak trzeba, bo jak sugeruje kolega:
    deus.ex.machina napisał:
    Co do układu - nie jest to pierwszy układ tego typu - w latach 80 ubiegłego wieku (koniec lat 80 i początek 90) Intel wypuścił znacznie prostszy ale jednak procesor bazujący na neuronach - Intel 80170NX . Niestety w internecie jest relatywne mało materiałów na ten temat - znamienne jest np ze nie ma oddzielnego hasła w Wikipedii dotyczącego tej konstrukcji.

    ... po prostu nikogo takiego nie potrzeba a procesory tego typu niespecjalnie są komuś potrzebne. Jesli są potrzebne - staną się popularne a ludzie nauczą się je programoeać i to szybciutko.

  • #10 11 Sie 2014 15:05
    999602
    Użytkownik usunął konto  
  • #11 11 Sie 2014 15:14
    ety
    Poziom 14  

    kikiz VHDL, Verilog, Abel czy CUPL, to nie tyle języki programowania, co języki opisu sprzętu (Link). Właśnie w tym miejscu wychodzi różnica i ja tak to rozumiem - zestawiając np. mikrokontroler i układ programowalny. Przy uC korzystamy np. z języka C i programujemy, albo w ogóle używamy BASCOM'a, nie musi nas za bardzo interesować struktura wewnętrzna układu, itd. W przypadku układu programowalnego mamy do czynienia z tym, co możemy też uzyskać łącząc układy scalone TTL czy CMOS - bramki, rejestry, liczniki, etc.

    Tak staram się sobie tłumaczyć różnicę pomiędzy jednym i drugim :D

  • #12 11 Sie 2014 16:55
    deus.ex.machina
    Poziom 32  

    Nie ma programistów uniwersalnych - idę o zakład ze elektronik piszący oprogramowanie w środowisku embedded stworzy kod o klasę lepszy niż programista np Spiszacy w środowisku bazodanowym - myślę ze w druga stronę spokojnie można założyć podobna prawidłowość - po prostu nie ma uniwersalnego podejścia bo i specyfika problemów do rozwiązania jest inna.

  • #13 11 Sie 2014 21:22
    SQLmaster
    Poziom 24  

    Dokładnie - co innego oznacza 'dobry kod' keśli piszemy na Atmega8 i liczy się by upchnąć ile sie da do skromnych zasobów, a co innego oznacza 'dobry kod' dla programisty Java pracującego w 100 osobowej grupie. Gdzie bardziej liczy się czytelność kodu i łatwośc zarządzania nim, niż apetyt na zasoby których jest wystarczająco dużo. Z apetytem sobie poradzimy bo 1GB RAM kosztuje ze 30zł. A z kodem którym nie da się zarządzać, to nasz projekt się "wykopyrtnie" jak przestaniemy nad nim panować.

    Niektórzy zarzucają obecnym twórcom oprogramowania że ich kod nie jest zoptymalizowany. Ale patrząc na oprogramowanie od strony biznesowej - jest wiele bardziej istotnych elementów jak: funkcjonalność, szybkość dostarczenia, łatwość modyfikacji, cena itp itp. I to one się najpierw liczą, a optymalizacją mozna zająć się jak powstanie cała reszta. Tak zrobił np Google z Androidem i jest na szczycie - cóż z tego że taki Symbian był techniczie lepszy i zoptymalizowany. To już nie czasy ZX Spectrum Plus żeby się tak bawić. Jak będzie trzeba wydajności to się kupi chocby taki procesor jak z tego newsa - jest 100 razy szybszy i rozwiązanie nawet nie do końca wydajne powstanie już i sprzeda się już. Wydajnosci nawet na mało wydajny kod mu starczy, skoro jest to takie szybkie.

  • #14 11 Sie 2014 23:28
    999602
    Użytkownik usunął konto  
  • #15 12 Sie 2014 07:59
    OldSkull
    Poziom 27  

    @up: są różne definicje czytelności - i reguł tak naprawdę jest bardzo wiele, ale wiele z nich jest sprzeczna (np. gdzie stawiać otwarcia nawiasów). Ale faktem jest, że liczy się efekt i czas - a czytelność się wymusza aby w przyszłości oszczędzać więcej czasu niż się poświęciło na "uczytelnienie". Natomiast optymalizacja końcowa pojawia się dopiero kiedy się okaże, że aplikacja jest niewystarczająco wydajna. W przeciwnym razie to niepotrzebny wydatek.

  • #16 12 Sie 2014 13:58
    SQLmaster
    Poziom 24  

    kikiz napisał:
    Bzdury powtarzane wyłącznie przez leniwych. Od strony biznesowej Mercedes pakuje 3 mm blachy do samochodów, które rdzewieją po kilku latach

    Ale się mimo to super sprzedają - bo widzisz klient, który bierze nowego Mercedesa nie zamierza nim jezdzić 20 lat. On go kupuje na kilka lat, a później kupi sobie nowy. Nie zdąży zauważyć rdzy - zauważy natomiast inne, dużo ważniejsze cechy auta. I dlatego kupi Mercedesa. Aby to zrozumieć, trzeba tylko wyjść z dochodami poza pułap aut-złomów wartych max 10 tys które są tak pordzewiałe, że człowiek tylko o tym myśli.

    Tak samo z oprogramowaniem - dopóki się tym nie zajmujesz biznesowo, to możesz sobie dłubać w kodzie i 10 lat. W biznesie masz mieć gotowy produkt na za miesiąc i jest to ważniejsze jak super optymalizacja. Nikt jej nie oczekuje, jeśli bez niej jest akceptowalnie. Tak jak użytkownikowi, który korzysta z Mercedesa max 4 lata, zwisa i powiewa czy 15 letni Mercedes to durszlak.

    kikiz napisał:
    Wystarczy chwycić co większe projekty open source, mam tutaj na myśli na prawdę duże projekty takie jak pakiety biurowe. Zrozumienie działania całego systemu na podstawie schematu blokowego jest dziecinnie proste, natomiast naprawienie jakiegokolwiek błędu trwa często kilka wersji kodowych bo jak kolejni programiści zaczynają się poddawać to ktoś wpada na świetny pomysł "dopiszmy nowy moduł blokujący problematyczną metodę" tak się dziś tworzy oprogramowanie.


    Moje doświadczenie z utrzymywaniem takiego dużego kodu, jest takie, że tak właśnie się robi i jest to rozsądne. Bo dopisanie nowego sztucznego modułu mimo, że technicznie okropne, ma jedną zaletę: Nie grzebiesz za dużo w module który działa i nie ryzykujesz że po takiej ingerencji nagle coś popsujesz (a na pewno popsujesz jak za dużo będziesz grzebał w g...nie) i klienci przyślą tyle zgłoszeń że zbankrutujesz a wokół programu rozejdzie się smród. Dopiero przy kolejnej głównej wersji można to jakoś rozsądnie przeprojektować. Możesz się z tym nie zgadzać - ale oprogramowanie to nie tylko technologia. Trzeba patrzeć szerzej.

    kikiz napisał:
    Polecam ściągnąć dowolny terminal płatniczy z Chin wraz z oprogramowaniem. W kodzie znajdziesz fragmenty odpowiedzialne za obsługę wyświetlacza kasy marketowej czy takie kwiatki jak obsługa klawiatury USB mimo, że urządzenie nie posiada takiego portu (nawet wyprowadzenia na płycie głównej).

    Dostajesz tyle, za ile zapłaciłeś. Chciałeś mieć za grosze, to programista też był za grosze i spędził nad kodem czasu za grosze. I tyle w temacie tego typu pretensji.

    kikiz napisał:
    Elektronika też od dłuższego czasu to po prostu składanka coraz większej ilości klocków, więc warto pamiętać o tym, że pewnego dnia lenistwo programisty może spotkać się z lenistwem firmy produkującej układy scalone

    Pralka też powstała z lenistwa a jednak w efekcie kobieta miała czas na cos innego zamiast prać w rzece. Niech programisci też mają swoje "pralki" zamiast prać ręcznie jak za średniowiecza.

  • #17 12 Sie 2014 21:45
    rafels
    Poziom 22  

    Od dawna interesuje się wykorzystaniem sztucznych sieci neuronowych i muszę przyznać, że specyfikacja tego chipa robi na mnie duże wrażenie. Wydaje się, że umożliwi on olbrzymi krok w praktycznym wykorzystaniu takich sieci i możliwe staną się realizacje projektów, będących dotąd jedynie w sferze marzeń konstruktorów. Mam nadzieje, że układ ten znajdzie swoje miejsce na rynku, co umożliwiło by dalszy rozwój tej linii.

    A jako dla fana fantastyki, układ ten budzi jeszcze większe emocje bo zbliża ludzkość do stworzenia cyber życia :)

  • #18 12 Sie 2014 23:57
    Atreyu Makiavel
    Poziom 34  

    Ach te science-fiction... Rzadko kiedy z "science" coś wspólnego...

  • #19 13 Sie 2014 13:38
    deus.ex.machina
    Poziom 32  

    kikiz napisał:

    Bzdury powtarzane wyłącznie przez leniwych. Od strony biznesowej Mercedes pakuje 3 mm blachy do samochodów, które rdzewieją po kilku latach, płytki klejone Atlasem odpadają od ścian, Apple jedna z najlepszych firm pod względem jakości produktu wypuszcza takie badziewia jak Newton. I takich przykładów można mnożyć na potęgę.
    Model biznesowy to jest kit, który doskonale się sprzedaje ale z jakością nie ma nic wspólnego.


    Inni pakują blachę 1.2 która tez rdzewieje - szczerze mówiąc nie rdzewieje aluminium (ale tez koroduje) - żyjemy w czasach gdy sprzęt projektują księgowi i stado dyletantów - inżynierowie maja najmniejszy wpływ na jakość, funkcjonalność i trwałość produktów - wiem to z autopsji pracując w firmie gdzie o rzeczach technicznych decydują ludzie bez wiedzy technicznej - nazywa się to "agility".

    A przykładu z Newtonem nie rozumiem bo był to produkt stworzony w czasach gdy procesory miały może 10 - 20MIPS a nie jak dziś 1200 - 8000MIPS.
    Co do jakości produktów Apple również można zastrzeżenia i nie uważam by Apple był przykładem firmy jakoś specjalnie wyróżniającej się na tle porównywalnych konkurentów.

  • #20 14 Sie 2014 00:00
    REVISOR
    Poziom 25  

    Witam, widzę że rozgorzała dyskusja ale chyba daleko od tematu , przypominam jest to rozwiązanie technologiczne które nie ma jeszcze zaplecza w sofcie, to jest nowy teren którego jeszcze nikt nie zbadał i opanował, przypominają mi się czasy gdy weszły wielordzeniowe procesory i i jak na tamte czasy stary ale sprawdzony win xp który już zaczął pokazywać swoje słabe strony pod względem dostosowania się do nowszych rozwiązań, moim zdaniem teraz trzeba mysleć jak optymalnie programowo wykorzystywać rozproszoną grupę wielu "rdzeni" które komunikują się już w dosyć niestandardowy sposób jak to robi się dotychczas. Fakt faktem są informatycy którzy behawiuralnie podchodzą do komputera a są też informatycy elektronicy którzy "czują" sprzęt, ale i pracodawca stawia swoje warunki i z tego wszystkiego wychodzą koślawe otyłe i powolne twory tak jak dzisiejsi ludzie z lokali typu fast food, ale ważne że działają i spełniają swoje funkcje i wszystko jest na czas.

  • #21 14 Sie 2014 08:28
    SQLmaster
    Poziom 24  

    REVISOR napisał:
    wychodzą koślawe otyłe i powolne twory tak jak dzisiejsi ludzie z lokali typu fast food, ale ważne że działają i spełniają swoje funkcje i wszystko jest na czas.


    Cóż z dwojga złego: nie mieć w ogołe nic na czas, lub mieć na czas koślawego osła który w zasadzie robi to czego się od niego oczekuje... wolę osiołka. A że brzydki - co z tego. Po co się tak straszliwie koledzy "jarają" tym czy jest ono napisane optymalnie czy też nie - tego kompletnie nie rozumiem. A teorii spiskowych na ten temat to już w ogóle.... Niech koledzy założą własną firmę, zaczną pisać super optymalny soft i utrą nosa innym jesli to takie łatwe i proste. Dla przykładu FlexyCore była taką firmą i Google ją kupiło za górę pieniędzy. Pokażcie na co was stać zamiast narzekać. Bo narzekać, to Polacy umieją najlepiej.

    A co do procesora - oczywiście że musi na to powstać zupełnie nowy soft którego nie ma. A póki nie ma softu (i zastosowania) to procesor jest kompletnie bezużyteczny. Generalnie wydaje mi się że taki procesor może być IBM potrzebny do zastosowań 'Big Data' jak np hadoop. Czyli to inwigilacji społeczeństw (o tak, kolejny gorący temat na forum elektroda.pl) :)

    Przecież nawet news jasno i klarownie mówi po co im w IBM ten procesor: "W centrum rozwojowym IBM w Almaden wykorzystano go do obsługi na bieżąco rozpoznania samochodów, ludzi i rowerów podczas analizy video z kamer drogowych.". Czyli do śledzenia ludzi, może też do tzw 'sentiment analysis' czyli wykrywania emocji autora w słowie pisanym / mówionym. (w skrócie sentiment analysis udziela odpowiedzi na znane i lubiane z lekcji języka polskiego pytanie "co poeta miał na myśli"). Czyli potrzebują wydajnego sprzętu do monitorowania co robimy, gdzie i kiedy oraz jakie są wtedy nasze emocje. Nie do poszukiwania związków chemicznych nowoczesnych leków itp. Nie, inny bardzo przyziemny (ale dochodowy) biznes się szykuje.... Fajny kierunek w którym to idzie, prawda?

  • #22 14 Sie 2014 21:41
    RitterX
    Poziom 36  

    Jak już pisałem jest sporo konkretnych zastosowań. A skoro są implementacje to i jest oprogramowanie. A skoro są zastosowania i jest oprogtamowanie to także muszą być gdzieś po drodze programujący. Aby projekt "spinał" się finansowo to muszą być zleceniodawcy. Jak najbardziej są.
    Zastosowanie w kamerach drogowych to jedynie taki żart ;) dla rozładowania napięcia tych, którzy nie badzo rozumieją w jakie czasy wdepnęli :) . Procesory neuromorficzne są najzwyczajniej zbyt drogie by je tam stosować. Poza tym tego typu technologii nie rozpowszechnia się od tak.

    Umiejętność poprawnego programowania to przdszkole a do optymalizacji algorytmów przykłada się dużo uwagi. Czyni się tak ponieważ implementowane algorytmy często muszą przez pewien czas trenować sieć bądź sieć musi się trenować sama zgodnie z pewnym algorytmem. To zajmuje sporo czasu.

    Świat powoli acz nieubłaganie oddala się tym, którzy na to pozwalają. Dlatego jedni będą nadal pisali algorytmy do pralek i jeździli pordzewiałymi samochodami a inni tworzyli coś zupełnie nowego i jeździli Mercedesami nie zwracając uwagi na rdzę. Oba zajęcia są potrzebne jednak z pewnego niewyjaśnionego powodu różnie wynagradzane.
    Nie przypuszczam, ale może się mylę, by było możliwe szybkie nauczenie się tej drugiej umiejętności. Jest to równie prawdopodobne jak powstanie w Polsce elektrowni atomowej, którą zaprojektowali i zbudowali ci, którzy "szybko się nauczyli".

  • #23 01 Paź 2014 16:12
    Trzyzet
    Poziom 18  

    Czyli w pełni sztuczna inteligencja przed 2045tym rokiem? :) Zaczyna się robić ciekawie.

  • #24 01 Paź 2014 16:45
    tronics
    Poziom 36  

    Porównania nie ma żadnego na szczęście/niestety *
    Ludzki mózg ma kilka miliardów neuronów i coś ok 10^15 synaps więc to nie ta skala. A to tylko sam mózg gdzie neurony mamy jeszcze przecież w rdzeniu (jak mi się zdaje w rdzeniu przedłużonym są funkcje autonomiczne dot. oddychania, akcji serca etc.) więc już tam jest taki "komputerek embedded" do zarządzania podstawowymi akcjami organizmu. Jasna sprawa, że ten układ to ogromny krok naprzód, niemniej nie ma co się zapędzać w porównaniach. Inna sprawa, że znaczącej ilości z synaps człowiek do końca życia nie wykorzysta wcale. Bardzo dobrze, że te ANN się rozwijają gdyż pozwoli to na rozsądniejsze wykorzystanie zasobów (po co np. rozbudowany program do rozpoznawania pisma ręcznego i obrazów który do pracy w czasie rzeczywistym wymaga super komputera gdy wystarczy np. jeden dedykowany scalak).

  • #25 01 Paź 2014 21:41
    polczyk
    Poziom 9  

    Generalnie "sprzęt" to nie wszystko. Szczególnie dotyczy to sieci neuronowych. Nawet człowiek zaraz po urodzeniu jest swoistym sprzętem bez znaczącego "oprogramowania". Mózg człowieka aby nabyć "oprogramowania" potrzebuje dziesiątek lat.
    Tak więc nie dość że, te układy to nie ta skala to jeszcze bez stosownego procesu uczenia.

    No i podstawowa sprawa to to że nadal człowiek nie wie jak tak naprawdę działa jego mózg. Czyli próbujemy zrobić coś czego nie rozumiemy jak działa.