Elektroda.pl
Elektroda.pl
X

Wyszukiwarki naszych partnerów

Wyszukaj w ofercie 200 tys. produktów TME
Europejski lider sprzedaży techniki i elektroniki.
Proszę, dodaj wyjątek elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Czy przyszłość informatyki i telekomunikacji jest (nie)przewidywalna?

TechEkspert 01 Lip 2017 11:15 3372 2
  • #1 01 Lip 2017 11:15
    TechEkspert
    Redaktor

    Czy przyszłość informatyki i telekomunikacji jest (nie)przewidywalna?
    ICT (information and communication technologies) w dużej mierze zaczęło się od mainframe drogich i niezawodnych systemów komputerowych posiadających zasoby obliczeniowe, pamięci operacyjnej oraz bardzo wiele interfejsów wejścia/wyjścia zapewniających komunikację z pamięciami masowymi, urządzeniami wejściowymi, drukarkami, terminalami, interfejsami komunikacji zdalnej i lokalnej. Ciekawą sprawą były terminale o maksymalnie uproszczonej konstrukcji, wyposażone w monitor i klawiaturę, które bez połączenia z mainframe były praktycznie bezużyteczne. Można zaryzykować stwierdzenie, że w tych czasach wszyscy pracowali w terminalu z użyciem CLI co można porównać do np. połączenia ssh do serwera z wykorzystaniem popularnego PuTTY.



    Komputery osobiste dodały sporo mocy obliczeniowej i pamięci masowej do końcówki na której pracował operator, nadal mogły się łączyć z mainframe, ale mogły pracować samodzielnie i w wielu przypadkach pojedynczy komputer lub komputery osobiste były wystarczające dla firmy, która nie potrzebowała mainframe.

    Serwery rack lub tower można powiedzieć, że przypominają swoją konstrukcją stację roboczą/ PC, jednak posiadają dodatkowe mechanizmy niezawodności a dzięki rosnącej mocy obliczeniowej i pojemności pamięci były czymś interesującym dla firmy, której nie wystarczyły zwykłe pecety. Dzięki sieci komputerowej, do serwera mogły łączyć się firmowe PCty.

    Klastry komputerowe połączenie serwerów siecią komputerową (zarówno lokalną jak i rozległą) pozwoliło na budowanie grupy urządzeń zapewniających zwiększone bezpieczeństwo lub wydajność, trudną do uzyskania z wykorzystaniem pojedynczego serwera.

    Superkomputery serwery połączone w zoptymalizowany klaster wydajnościowy przetwarzający równolegle informacje, pozwalały na obliczanie w sensownym czasie określonych problemów (np. badania naukowe, symulacje, prognoza pogody).

    Zasoby specjalizowane GPU/FPGA wykorzystanie w superkomputerach zasobów takich jak karty GPU pozwoliło na przyspieszenie określonej grupy operacji, które na CPU wykonywały się wolniej.

    Wirtualizacja pozwoliła na oderwanie się od fizycznego sprzętu, serwera jako metalowej skrzynki w serwerowni, na jednym hoście wirtualizacji (sprzętowym fizycznym serwerze) może działać wiele wirtualnych maszyn, maszyny mogą być łatwo przenoszone między hostami, kopiowane, modyfikowane (parametry wirtualnych procesorów, pamięci RAM, pamięci masowej przypisanej do VM), sprzęt fizyczny jest współdzielony.





    Serwery kasetowe, HPC kolokacja i współdzielenie zasobów do wirtualizacji oraz budowanie coraz szybszych komputerów wymusza optymalizację konstrukcji pojedynczego węzła czyli serwera. Serwery kasetowe (blade) wykonane są jako karty (moduły) wkładane do obudowy (chassis) ze wspólnym zasilaczem i komunikacją oraz systemem chłodzenia. W niektórych rozwiązaniach HPC (high performance computing) chłodzenie może wykorzystywać ciecz zamiast przepływu powietrza.

    Konteneryzacja o ile "jednostką" wirtualizacji była maszyna wirtualna to w przypadku kontenerów mówimy o automatyzacji, zwiększeniu bezpieczeństwa, ułatwieniu wytwarzania oprogramowania i "lżejszych" obiektach, w przybliżeniu można określić że w kontenerze zamknięty jest główny proces wraz z elementami pomocniczymi. Startujący kontener w przeciwieństwie do VM nie wymaga uruchomienia całego systemu operacyjnego a bardziej przypomina uruchomienie procesu w systemie operacyjnym. Ze względu na popularność Dockera możecie czasami trafić na określenie dokeryzacja.

    Chmura obliczeniowa, IaaS, PaaS, SaaS zakładam że o chmurze obliczeniowej słyszał każdy, korzystając z zasobów chmurowych nie zajmujemy się zasilaniem, chłodzeniem, serwisowaniem naszej serwerowni. Możemy kupić zasoby (RAM/CPU/HDD) na czas kiedy są potrzebne. Skalowanie zasobów to kwestia wyklikania innych wartości i uiszczenia odpowiednich opłat. Nasze dane są w rękach innej firmy, ale płacimy za to aby firma zewnętrzna starała się zapewnić bezpieczeństwo i dostępność usług z których korzystamy. O cloud computing możemy myśleć jak o wirtualizacji na zasobach firmy trzeciej a nawet o konkretnych usługach (np. baza danych, storage, backup, scrubbing center) na zasobach firmy zewnętrznej.

    Zmiany sposobów działania ICT ściśle związane są ze zmianami w możliwościach sprzętu, wydajność CPU i specjalizowanych układów GPU/FPGA rośnie, podobnie jak pojemność i szybkość pamięci RAM i pamięci masowej. Magnetyczne dyski twarde 3.5" mieściły kiedyś MB, teraz dysponują pojemnością 10TB. Dyskietki i inne wymienne nośniki magnetyczne nie nadążały z rozwojem swojej pojemności w porównaniu z nośnikami optycznymi CD/DVD/BD. Pamięci flash pojawiły się zarówno w dyskach twardych jak również w postaci pendrive silnie zagroziły nośnikom optycznym. Wbrew pozorom nośniki taśmowe nadal znajdują zastosowanie (szczególnie jako element biblioteki taśmowej) tam gdzie potrzeba jest archiwizowania ogromnych ilości danych oraz akceptowalny jest długi czas dostępu. W innych przypadkach mamy do czynienia ze wspólną pamięcią masową (macierze dyskowe) udostępniające zasoby serwerom (np. wirtualizacja), lub pamięci masowej rozproszonej w wielu serwerach (niektóre modele przetwarzania równoległego).

    Komunikacja zarówno w sieciach LAN przyspieszała 10Mb/s, 100Mb/s, 1Gb/s, 10Gb/s, 100Gb/s stopniowo odchodząc od połączeń miedzianych na rzecz światłowodów a także połączeń bezprzewodowych. Interfejsy urządzeń podłączonych wewnątrz i na zewnątrz komputera także przyspieszyły podobnie jak przewodowe i bezprzewodowe sposoby dostępu do interentu.
    Nawet tak banalna usługa jak analogowa linia telefoniczna, zmieniła swoje oblicze, nasz telefon stacjonarny (o ile ktoś jeszcze z niego korzysta) rzadko kiedy połączony jest długą parą miedzianą biegnącą systemem kanałów przez pół miasta do centrali miejskiej. Częściej kilkumetrowa para miedziana od telefonu połączona jest z routerem LTE lub operatora kablowego, ew. kończy się w pobliskiej szafie operatora telekomunikacyjnego w której urządzenie końcowe połączone jest dalej światłowodem.

    Patrząc jak na przestrzeni lat rozwijał się rynek ICT moje zdanie jest takie, że
    nie da się przewidzieć jak będzie wyglądała informatyka i telekomunikacja "od środka" w bardziej odległej przyszłości.

    Pojawienie się nowej technologii częściowo zabiera rynek starym rozwiązaniom i przez chwilę wygląda na to, że nowe rozwiązanie jest panaceum na wszelkie dotychczasowe problemy.

    Jestem bardzo ciekawy waszego zdania, czy możliwe jest przewidzenie jak ICT będzie wyglądać w przyszłości, czy zgadzacie się z moim pomysłem że jest to praktycznie nieprzewidywalne?

  • Ups
  • #2 01 Lip 2017 11:40
    Jawi_P
    Poziom 29  

    TechEkspert napisał:
    Nawet tak banalna usługa jak analogowa linia telefoniczna, zmieniła swoje oblicze, nasz telefon stacjonarny (o ile ktoś jeszcze z niego korzysta) rzadko kiedy połączony jest długą parą miedzianą biegnącą systemem kanałów przez pół miasta do centrali miejskiej. Częściej kilkumetrowa para miedziana od telefonu połączona jest z routerem LTE lub operatora kablowego, ew. kończy się w pobliskiej szafie operatora telekomunikacyjnego w której urządzenie końcowe połączone jest dalej światłowodem.

    Albo nawet światłowodem w domu abonenta.
    Natomiast to co się definitywnie kończy i przestaje istnieć, to centrale telefoniczne w każdej postaci komutowanej.

  • Ups
  • #3 01 Lip 2017 16:49
    TechEkspert
    Redaktor

    @Jawi_P FTTH stopniowo zwiększa swój "zasięg" i tak jak piszesz analogowy telefon może być wpięty w terminal GPON co z punktu widzenia kilkunastu lat jest bardzo dużą zmianą technologii. Prawdopodobnie gdy kiedyś ktoś uruchamiał w domu linię telefoniczną ISDN (BRA) odbierał takie łącze jako zaawansowane i ciężko było przypuszczać że kiedyś w domu pojawi się światłowód przenoszący głos w warstwie IP.

    Cóż, centrale telefoniczne komutowalne być może po stronie abonenckiej będą jeszcze przez pewien czas popularne (np. w małych biurach) ze względu na niskie koszty analogowego telefonu na biurku osoby która dużo rozmawia. Telefony bezprzewodowe i komórki dzięki swojej mobilności skutecznie ograniczają zastosowanie telefonów "stacjonarnych" podobnie jak wymarły budki telefoniczne.

    Przeniesienie całości telefonii do IP daje znaczące korzyści, redukcję kosztów i elastyczność, przy okazji sporo osób i firm pewnie straciło źródło dochodu i konieczne było szybkie przekwalifikowanie.

    Obserwuję od dłuższego czasu temat: Centrale i sieci kablowe telefonii stacjonarnej - dyskusja widać tam ile technologii "poszło na złom" ale taka jest konsekwencja rozwoju i optymalizacji kosztów.

    Podejrzewam, że podobnie w świecie ICT firmy i osoby muszą być otwarte na zmiany, gdyż specjalistyczna wiedza i praktyka z obszaru X za kilka lat może przydać się jedynie w muzeum techniki...

 
Black Friday do -15%
Zamknij 
Wyszukaj w ofercie 200 tys. produktów TME
Ferguson