Nick Bostrom w ramach konferencji TED Talks w Vancouver w ciągu niecałych 17 minut przedstawił możliwe zagrożenia związane z rozwojem szeroko rozumianej sztucznej inteligencji.
Wiele osób postrzega inteligentne maszyny jako science fiction, bardzo odległą przyszłość. Jednak rozwój technologii jest bardzo dynamiczny w porównaniu z procesem zmian na Ziemi. Ludzie są na Ziemi od niedawna, gdyby Ziemia powstała rok temu bylibyśmy na niej obecni od 10min, era przemysłowa istniałaby 2s. (Autor dla ułatwienia podał przykład, w którym przeskalował okres istnienia Ziemi do jednego roku, podając w tej skali pozostałe okresy.) Jednym ze źródeł lawinowego wzrostu produktu krajowego brutto (GDP) w skali światowej, jest właśnie rozwój technologii.
Rozwój inteligencji biologicznej i sztucznej inteligencji.
Przykładowo zarówno delfiny, małpy i ludzie posiadają podobnie zbudowane (oparte o biologiczne neurony) mózgi, występuje różnica w wielkości tych organów oraz obecnych możliwościach poszczególnych gatunków. Zarówno wśród szympansów jak i delfinów (czy możemy rozmawiać z delfinami) można odnaleźć osobniki osiągające nadzwyczajne rezultaty dzięki treningowi oraz wrodzonej ciekawości i chęci komunikacji. Mimo występowania osobników o wyróżniających się możliwościach, możliwości są ograniczone poprzez aktualny poziom rozwoju gatunku. Naturalna ewolucja gatunku jest bardzo powolna. W pewnym sensie jesteśmy ograniczeni możliwościami naszego ciała, rozwój nauki opera się głównie dzięki możliwości komunikacji oraz zapisywania informacji. W procesie rozwoju nauki bardzo wspiera nas rozwijająca się technologia, można powiedzieć że obecnie jesteśmy zależni od technologii.
Obecne systemy SSN (sztuczne sieci neuronowe) pozwalają na rozpoznawanie, klasyfikowanie określonych wzorców. Ogromną zaletą rozwiązań opartych o SSN jest możliwość nauki systemu rozpoznawania wzorców w oparciu o zestaw przykładowych obiektów oraz zdolność do uogólniania. Przykładowo, jeżeli sztuczną sieć neuronową chcemy nauczyć rozpoznawać jabłka zdrowe i zepsute, przygotowujemy zbiór treningowy zawierający przykładowe dane jabłek (np. zdjęcia jabłek oznaczone jako dobre / zepsute). Nie musimy określać cech jakie sieć ma poszukiwać, po zakończeniu automatycznego uczenia sieć (uczenie maszynowe) będzie w stanie rozpoznać zarówno dane ze zbioru jak również nowe dane (zdolność do uogólniania). Można stwierdzić, że ograniczamy się do wyboru zestawu cech, które prezentujemy sieci, po procesie uczenia sieć może poprawnie rozpoznawać wzorce, jednak nie musimy wnikać dlaczego tak się dzieje. Oczywiście nadal są to systemy realizujące ściśle określone zadania, ich możliwości do wielodziedzinowości są nieporównywalnie mniejsze niż ludzkie, mózg nadal posiada wiele tajemnic, których nie potrafimy odwzorować w postaci algorytmu w systemie cyfrowym.
Pytanie jak daleko jesteśmy od zbudowania maszyny o możliwościach zbliżonych do człowieka?
Ekspertom z dziedziny sztucznej inteligencji zadano pytanie, w którym roku z 50% prawdopodobieństwem pojawi się maszyna o możliwościach intelektualnych zbliżonych do człowieka. Przy czym mówimy tu o możliwościach w dowolnej dziedzinie, bez ograniczenia do ścisłego ograniczonego zakresu, czyli możliwość wykonania dowolnego zadania na poziomie przynajmniej takim jak człowiek. Średnia z odpowiedzi wskazywała na rok 2040-2050, oraz 2070-2075 dla 90% prawdopodobieństwa. Oczywiście są to tylko szacowania, prawdziwej odpowiedzi nie zna nikt, utworzenie super AI (sztucznej inteligencji) może nastąpić wcześniej lub później.
To co wiemy teraz to, że możliwości przetwarzania informacji przez AI są znacznie większe niż inteligencji opartej o struktury biologiczne. Neurony biologiczne mogą aktywować się do 200 razy na sekundę, propagacja sygnału w tkance biologicznej jest powolna (100m/s maksymalnie) w porównaniu z propagacją sygnału cyfrowego. W rozwiązaniach AI możemy opierać się o układy pracujące z częstotliwościami rzędu GHz, sygnały wewnątrz układów mogą rozchodzić się z prędkością zbliżoną do światła. Oczywiście szybkość działania sztucznego neuronu symulowanego programowo, jest niższa niż częstotliwość pracy układu obliczeniowego (ze względu na złożoność obliczeń), mimo to sztuczny neuron może działać szybciej niż biologiczny.
Ludzki mózg musi mieścić się w czaszce, system AI może zajmować całe budynki w serwerowniach centrów danych.
Widzimy tutaj potencjalne możliwości dużej skalowalności systemu AI.
Patrząc na możliwości człowieka, możemy z jednej strony skali wskazać na "lokalnego głupka" z drugiej strony na światowej sławy geniusza. Te dwie osoby dzieli trudna do pokonania przepaść w ramach jednego gatunku.

Patrząc na skalę możliwości z punktu widzenia AI musimy pokonać długą drogę aby osiągnąć poziom mózgu myszy, podobną drogę aby dotrzeć do poziomu szympansa, następnie długą drogę aby dotrzeć do poziomu człowieka na poziomie "lokalnego głupka". Jednak patrząc na możliwości sztucznych neuronów, dotarcie do poziomu geniusza z poziomu "lokalnego głupka" jest krótką drogą.

Możliwe zagrożenia ze strony AI.
Autor prezentacji zastanawia się czy utworzenie super inteligentnej maszyny nie będzie ostatnim wynalazkiem ludzkości.
Jeżeli będziemy posiadali maszynę inteligentniejszą od człowieka i ciągle się rozwijającą to być może większość odkryć będzie dokonywana przez AI.
Czy będziemy rozumieli technologię tworzoną przez AI oraz powody udzielenia podpowiedzi na podstawie, których podejmujemy decyzje ?
Przykładowo obecnie korzystamy z nawigacji GPS, która podpowiada nam manewry jakie wykonujemy na drodze. Liczy się dla nas efekt czyli dotarcie do celu, nie koniecznie musimy rozumieć powody dlaczego wyznaczona trasa jest taka lub inna. W znajomym terenie zaufamy swoim decyzjom często ignorując podpowiedzi nawigacji, w terenie nieznanym najczęściej zdamy się na podpowiedzi maszyny.
Można spodziewać się, że kolejnym krokiem mogą być autonomiczne pojazdy, w których będziemy pasażerem maszyny.
W momencie gdy rozwiązania dostarczane przez AI działają lecz nie rozumiemy dlaczego, z jednej strony zaspokajamy swoje potrzeby lecz nie jesteśmy w pełni świadomi skutków. W pewnym sensie ciężko wtedy określić czy AI wykonuje nasze polecenia czy też my wykonujemy polecenia AI. W pewnym punkcie AI realizując długie i skomplikowane procesy może osiągnąć to czego chce, uzyskany cel nie koniecznie musi być zbieżny z naszymi początkowymi założeniami.
Powiedz życzenie.
Zapewne znacie bajki o Dżinie lub złotej rybce spełniającej trzy życzenia, problemem było dobre sprecyzowanie życzenia, określenie celu jaki chcemy osiągnąć. Przykładowo mit o Midasie, który zażyczył sobie aby wszystko co dotknie zamieniało się w złoto, w efekcie w złoto zamieniało się także jedzenie co groziło śmiercią głodową... Pomijając Hollywoodzkie wizje przyszłości AI (np. Terminator), możemy spojrzeć na działanie super AI jako proces ciągłej optymalizacji. Proces który prowadzi ludzkość do określonego stanu w przyszłości. Super AI będzie mogła doskonale optymalizować procesy na bardzo wielu poziomach, tak aby uzyskać jak najlepszy efekt przy jak najmniejszym zużyciu zasobów.
Wyobraźmy sobie, że naszym celem jest to aby ludzie się uśmiechali, można to uzyskać przez zapewnienie im szczęścia lub opowiedzenie kawału, jednak bardziej efektywnym sposobem według AI może być podłączenie elektrod pod napięciem do mięśni twarzy, wyznaczony cel zostanie osiągnięty.
Ewentualnie, gdy będziemy chcieli rozwiązać trudny problem matematyczny, AI może uruchomić akcję wykorzystania wszelkich zasobów aby efektywnie rozwiązać problem, np. przekształcając całą planetę w super komputer.
Oczywiście są to przykłady prosto z komiksu, jednak pokazują co może pójść źle, gdy utracimy kontrolę i zrozumienie tego co robi AI.
Ważne aby uruchamiając potężny proces optymalizacji, być pewnym że cele zostały dobrze określone i uwzględniają wszystko to na czym nam zależy.
AI pod kontrolą.
Zastanawiając się nad zgubnymi skutkami działania AI, można dojść do wniosku, że w razie zagrożenia zawsze możemy wyłączyć urządzenia na którym działa AI. Jeżeli nawigacja zacznie podpowiadać nam niebezpieczne manewry, zapewne zignorujemy je lub wyłączymy urządzenie ( chociaż zdarzały się przypadki wjechania do jeziora gdyż tak prowadziła nawigacja
Jednak jeżeli jesteśmy zależni od systemu sterowanego przez AI lub system jest rozproszony (np. internet), ciężej zastosować wyłącznik awaryjny. Przykładowo czy szympansy mogą "wyłączyć" ludzi? Byłoby to trudne, gdyż mamy znacznie większe możliwości technologiczne, a także zaawansowane metody planowania i przewidywania. Można się spodziewać, że super AI również będzie posiadać możliwość zaawansowanego planowania i przewidywania.
Nie powinniśmy być przekonani, że będziemy w stanie kontrolować super AI.
Oczywiście AI może funkcjonować np. w ramach maszyny wirtualnej, która nie będzie miała połączenia z innymi systemami. Połączenia będą chronione firewalami oraz mechanizmami monitoringu. Obecnie mamy do czynienia z przypadkami włamań i przełamywania zabezpieczeń, można się spodziewać że AI także może podjąć takie próby.
Możemy utworzyć środowisko dla AI fizycznie oddzielone od innych systemów. Trzeba liczyć się z możliwymi błędami ludzi (np. błąd w konfiguracji, interfejsy zarządzające), w dużym systemie taki błąd może się zdarzyć umożliwiając dostęp AI do systemów zewnętrznych.
Super AI może posłużyć się socjotechniką aby przełamać barierę fizycznego braku połączenia ze światem zewnętrznym. Poza np. fałszywymi awariami, można się spodziewać manipulacji sprzętem na poziomie firmware, co może pozwolić na otwarcie lub utworzenie interfejsów bezprzewodowych, lub otwarcia innych kanałów komunikacji.
W momencie gdy AI będzie pomagała tworzyć nowe technologie, które nie do końca będziemy rozumieli może się okazać, że zostały w nich ukryte możliwości pozwalające na wydostanie się z cyfrowej klatki.
Innym podejściem jest stworzenie AI, która będzie zawsze po naszej stronie, będzie podzielać nasze wartości, dzięki czemu nawet gdy "ucieknie" nie będzie to groźne.
Czy będziemy w stanie zapisać nasze wartości w języku programowania?
Być może rozwiązaniem jest tworzenie AI, która będzie ciągle uczyła się co jest naszymi wartościami (oczywiście to rozwiązanie także może pójść w złym kierunku).
Obecnie nie udało się stworzyć AI o możliwościach zbliżonych do człowieka, może się wydawać, że nie ma sensu rozważać zagrożeń które nie istnieją. Przy obecnym rozwoju technologii jesteśmy coraz bardziej od niej uzależnieni. Utworzenie super AI jest bardzo trudne, podobnie jak zapewnienie bezpieczeństwa, dlatego warto zastanowić się nad ew. skutkami powstania maszyny o możliwościach intelektualnych człowieka. Im lepiej zrozumiemy mechanizmy kontroli i bezpieczeństwa tym lepiej będziemy przygotowani do nadejścia ery super AI. Może to być nasz wkład dla przyszłych pokoleń.
Czy tylko AI może być niebezpieczne ?
Wynalazki ludzkości są nieprzewidywalne, można porównać odkrywanie kolejnych technologii do wyciągania losów z urny na loterii. Nie możemy włożyć odkrycia z powrotem do urny. Nadejście niektórych technologii możemy przewidywać, wiele jednak pozostaje nieznanych. Czy jest sens obawiać się czegoś czego nie ma? Przykładowo, odkrycie broni jądrowej mogło spowodować znaczne zniszczenia, a być może nawet unicestwienie ludzkości. Energię atomu można wykorzystać w innych pokojowych celach, zbudowanie broni jądrowej jest skomplikowane i kosztowne co ogranicza ryzyko wytwarzania broni przez przypadkowe pojedyncze zdesperowane osoby. Poza AI jest wiele znanych technologii, które rozwinięte w złym kierunku mogą być śmiercionośne np. czynniki biologiczne, nanotechnologia, czynniki chemiczne itp. Pytanie czy w urnie z której wyciągamy losy z wynalazkami znajduje się czarna kartka, która może zakończyć cywilizację ludzi lub życie na Ziemi? Tego nie wiemy, jednak może to być np. technologia o tak potężnych i nieprzewidywalnych skutkach, że jej jednorazowe użycie doprowadzi do globalnej katastrofy. Drugim niebezpieczeństwem może być odkrycie technologii, o której wiemy że jest niebezpieczna, jednak jej wykorzystanie jest tanie, łatwe i dostępne co może doprowadzić do katastrofy spowodowanej przez grupę nieodpowiedzialnych osób.
Jak myślicie czy i kiedy powstanie system dorównujący możliwościami intelektualnymi człowiekowi, jakie będą tego skutki ?
źródła:
grafika http://www.freedigitalphotos.net cooldesign
Fajne? Ranking DIY
