Elektroda.pl
Elektroda.pl
X
OptexOptex
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

IBM sprzedał dział produkcji procesorów i mikroelektroniki

SQLmaster 06 Lis 2014 11:51 3810 19
  • IBM sprzedał dział produkcji procesorów i mikroelektronikiKorporacja IBM zawarła porozumienie w sprawie przekazania działów produkcji mikroelektroniki firmie GlobalFoundries. Link oraz Link.

    Co ciekawe - będzie to nietypowa transakcja: za dopłatą, bo IBM zapłaci 1.5 mld USD za przekazanie tych aktywów firmie GlobalFoundries. Amerykanie szukali kupca już od 2013 roku, ale wszystkie próby okazały się nieskuteczne, więc skupili się na znalezieniu partnera typu joint-venture. Pierwsza oferta dla Globalfoundries wynosiła 1 mld USD, ale propozycja ta miała zostać odrzucona, ponieważ według nieoficjalnych doniesień koncern zażądał 2 mld USD rekompensaty za "biznes" przynoszący od co najmniej 10 kwartałów straty. Po kilku miesiącach rozmów obie strony doszły do porozumienia, czego owocem ma być umowa zawierająca kwotę 1.5 mld USD.

    Zatem po sprzedaży działu produkcji komputerów osobistych (2007) i serwerów opartych o procesory Intel (2013), IBM pozbył się także działu mikroelektroniki i procesorów Power, i w zasadzie stał się firmą działającą w branży oprogramowania i usług. Porzucając dotychczasową działalność związaną z produkcją i rozwijając nowe kierunki swojej działalności IBM odcina się od tych dziedzin działalności, które przynoszą mu stosunkowo niewielkie zyski w odniesieniu do kosztów produkcji.

    GlobalFoundries to producent mikroelektroniki wydzielony ze znanej wszystkim firmy AMD w 2009 roku, obecnie własność emiratu Abu Dhabi. AMD nadal pozostaje firmą projektującą procesory, ale już ich fizyczna produkcja odbywa się w GlobalFoundries. Na razie nie wiadomo, czy IBM zrobił taki sam ruch i chodzi tylko o produkcję, czy również o laboratoria badawczo-rozwojowe.

    Jeśli przekazano do GlobalFoundries całość wraz z laboratoriami, to być może nie przeczytamy już newsów, jak chociażby te dotyczące IBM z roku 2014:
    IBM stworzył najbardziej skomplikowany chip inspirowany ludzkim mózgiem
    To nie ARM, lecz IBM POWER ma szansę konkurować z Intel x86(chociaż nowa umowa wymusza na GlobalFoundries kontynuację tematu)
    IBM przedstawia hybrydową strukturę z pamięciami przemiany fazowej
    Nanodruty stworzone przez naukowców z IBM szansą na nowe chipy optyczne

    Oraz nie zobaczymy już więcej filmów jak "chłopiec i jego atom":

    Link


    Co ciekawe ruch ten przyniósł bardzo sceptyczną i odwrotną od zamierzonej reakcję analityków oraz akcjonariuszy, czego efektem jest wyrażny i mocny spadek akcji spółki. W większości pojawiają się opinie o krótkowzrocznych decyzjach zarządu dążącego tylko do osiągnięcia maksymalnego zysku w najbliższym okresie, bez pomysłu na długoplanowe cele firmy.
    IBM sprzedał dział produkcji procesorów i mikroelektroniki(źródło: Bloomberg)

    Fajne! Ranking DIY
    Darmowe szkolenie: Ethernet w przemyśle dziś i jutro. Zarejestruj się za darmo.
    O autorze
    SQLmaster
    Poziom 24  
    Offline 
    SQLmaster napisał 829 postów o ocenie 157, pomógł 31 razy. Jest z nami od 2014 roku.
  • OptexOptex
  • #2
    master kleo
    Poziom 13  
    Pachnie powolnym upadkiem IBM. Wolny rynek ma swoje prawa.
  • #3
    studisat
    Specjalista - lampowe odbiorniki radiowe
    master kleo napisał:
    Pachnie powolnym upadkiem IBM.

    To już gwóźdź do trumny.

    master kleo napisał:

    Wolny rynek ma swoje prawa.

    Co doprowadziło do monopolu Intela z kiepskimi procesorami oraz durnych kafelków Microsoftu.
  • #4
    master kleo
    Poziom 13  
    W sumie szkoda, bo te procesory z wbudowanymi światłowodami to był dobry pomysł (nanophotonics). Widać jak Intel nie chce wprowadzić rozwiązań wielordzeniowych, ale może to napędzi AMD (8 rdzeni już jest). Może USA uznało, że IBM zrobił swoje (obecne PC, ATX).
  • OptexOptex
  • #5
    SQLmaster
    Poziom 24  
    studisat napisał:
    master kleo napisał:
    Pachnie powolnym upadkiem IBM.

    To już gwóźdź do trumny.


    Ale tylko wtedy, jeśli dotyczy to również laboratoriów - a tego nie dowiedziałem się w trakcie pisania newsa. Mnie się jednak wydaje że po prostu 'oddelegowano' samą produkcję i nic więcej. Tak samo zrobiło AMD, oddelegowali produkcję do tej samej firmy Glomal Foundries. Tak samo Qualcomm, NVIDIA, MediaTek, Marvell czy Broadcom nie produkują same procesorów tylko zlecają to tajwańskiej firmie TSMC.

    Tak samo Apple też przecież nie produkuje samo swoich iPhone, tylko zleca to firmie Foxconn. To by tłumaczyło tę dziwną dopłatę do biznesu - IBM zapłaci za wykonywanie im później procesorów. Wówczas uznałbym to za całkiem sensowny i mądry ruch.

    Ale najpierw trzeba się dowiedzieć co tak naprawdę sprzedano.
  • #6
    studisat
    Specjalista - lampowe odbiorniki radiowe
    SQLmaster napisał:
    Wówczas uznałbym to za całkiem sensowny i mądry ruch.

    Jakoś po cenach akcji nie widać potwierdzenia.

    Nie tak dawno Hewlett-Packard sprzedał to od czego zaczynał. Efekt nawet zaczęto plotkować o powrocie marki Compaq. PA-RISC już tez pogrzebano.

    SPARC tez w zasadzie juz ś.p. Procesory Power moga zniknąć i praktycznie zostanie Intel z topornymi procesorami. Nawet Microsoft porzuca OS dla komputera zmuszając do durnych kafelków. Jakoś nie widzę edytowania złożonej dukumentacji przez grupę autorów za pomocą kafelkowego Worda na tabletach.

    Kwestia tylko czy ktoś pojawi się z kasa który zapełni lukę. Bo niestety ale powoli to zmierza do monopolu. A monopol jak to monopol nie zachęca do jakości.
  • #7
    SQLmaster
    Poziom 24  
    studisat napisał:
    SQLmaster napisał:
    Wówczas uznałbym to za całkiem sensowny i mądry ruch.

    Jakoś po cenach akcji nie widać potwierdzenia.

    Przeoczyłeś pod jakim warunkiem uznałbym, że byłby to dobry ruch. Przeczytaj jeszcze raz, tym razem ze zrozumieniem i nie wyrywając zdania z kontekstu, bo myślę że mamy takie samo zdanie o sytuacji.

    Dodano po 3 [minuty]:

    studisat napisał:
    Kwestia tylko czy ktoś pojawi się z kasa który zapełni lukę. Bo niestety ale powoli to zmierza do monopolu.

    Ale przecież już w tym momencie wolumen sprzedaży ARM bije Intela na głowę. W kwestii konkurencji dla procesorów najmocniejszych OpenPower w zaistaniałej sytacji chyba pogromcą Intela nie zostanie... Ale kto wie, może właśnie GlobalFoundry będzie o wiele bardziej zależeć na tej inicjatywie, byle sprzedać jak najwięcej procesorów? Emiraty bogate, więc mogą wyłożyć forsę. Dla IBM było to trochę robienie sobie samemu konkurencji, ale dla GlobalFoundry będzie to po prostu maksymalizacja ew. zysku.
  • #8
    RitterX
    Poziom 38  
    Kiedy IBM pozostawił otwartą paltformę PC sceptycy pisali, że tak się nie robi biznesu. Rynek PC zaczął wzrastać "w kosmos" ale tym słabym jednostkom obliczeniowym była potrzebna sieć i duże systemy obliczeniowe dla korporacji, banków, firm ubezpieczeniowych,... A te dostarczał... IBM .
    Minęło trochę czasu i IBM sprzedał "na górce" cenowej swój dział pancernych laptopów do Lenovo. Sceptycy wietrzyli nie tylko spisek ale i samobójstwo. I co? Rynek laptopów przestał być mocno dochodowym biznesem i dzisiaj ich produkcja jest na tyle prosta i pospolita, że zleca się ją firmom kontraktowym.
    Podobny efekt katastrofy miała przynieść sprzedaż działu słynnych dysków twardych IBM firmie Hitachi. Znani "analitycy" rwali włosy z głowy i bredzili o katastrofie kursu akcji IBM. Okazało się, że medialne błazny nie mają zielonego pojęcia o biznesie na temat, którego się wypowiadają.
    Teraz IBM pozbył się działu produkcji jednocześnie wzmacniając firmę, której przekazał dział co ma istotne znaczenie na przyszłość umożliwiając sobie produkcję układów, o których błazny "eksperci" nie mają pojęcia...
  • #9
    Użytkownik usunął konto
    Użytkownik usunął konto  
  • #10
    studisat
    Specjalista - lampowe odbiorniki radiowe
    SQLmaster napisał:

    Przeoczyłeś pod jakim warunkiem uznałbym, że byłby to dobry ruch. Przeczytaj jeszcze raz, tym razem ze zrozumieniem i nie wyrywając zdania z kontekstu, bo myślę że mamy takie samo zdanie o sytuacji.

    Nie ma sie co kłócić. Teoretycznie może być to dobry, ale pod warunkiem ze produkowane podzespoły przeznaczone są nie tylko do produktów IBM. Platforma Power to przecież kiedyś nie tylko serwery RISC, ale tez komputery osobiste a nawet set-top-boxy (Np. pierwsza seria tunerów DVB Dreambox - procesor PowerPC, pierwsze dedykowane terminale Cyfrowego Polsatu - też...). Praktycznie niemalże to samo co obecnie ARM.

    Przykład IPhone - ma te złę stronę że dotyczy masowego produktu ząś IBM aktualnie masówki nie produkuje. Dlatego wątpię w sukces, a inwestorzy jak widać podobnie myslą. Podwykonawca nie będzie zainteresowany rozwojem niszowym produktem zwłaszcza gdy zamawiający tonie.

    SQLmaster napisał:

    Ale przecież już w tym momencie wolumen sprzedaży ARM bije Intela na głowę.
    Wysokowydajne serwera na ARM jakoś (jeszcze) nie widzę.
    ARM był odpowiedzią na to ze kiedyś jedne z producentów olał swój produkt bo otrzymał bardziej intratne zamówienie. Owszem jest to dobry produkt dla urzadzeń embedded itd. Akurat na tym segmencie nie potafił Intel niczego dobrego zaprezentować. Jego wg mnie całkiem nieudany Intel Atom pogrzebał m.in. netbooki.
    Intel to miał chyba tylko jednej dobry produkt 8051. Reszta to zawsze coś w tyle.
    Tyko masowy produkt wykorzystujacy jego 8086 pozwolił mu zdominować rynek.
    Choćby tez i z tego powodu niem ma optymistycznego nastawienia na sprzedaż połprzewodników przez IBM.

    SQLmaster napisał:

    w zaistaniałej sytacji chyba pogromcą Intela nie zostanie... Ale kto wie, może właśnie GlobalFoundry będzie o wiele bardziej zależeć na tej inicjatywie, byle sprzedać jak najwięcej procesorów?

    Kiedyś tam, początki Pentium i jeszcze istniejące procesory RISC Alpha. Wzięto pod lupe wydajność. Otóż Alpha w emulatorze Pentium mając niższe taktowanie miała (alpha 200MHz, pentium 266MHz) nieco lepsza wydajność dla operacji stałoprzecinkowych, zaś dla zmiennoprzecinkowych ponad 10 krotnie lepszą wydajność obliczeniową. Albo bardziej dosadny przykład sprzed lat - dwa serewry, dwa różne UNIX'y, ten sam motor Infomix. Compaq (magistrale EISA) z SCO Unixem, Pentium, 266MHz, 256MB RAM - dwie sesje importu baz danych i w zasadzie nie dało rady aplikacji terminalowych 4GE używać. Za to stary RISC - IBM G30 (OIDP) w zasadzie desktop z Power PC - 64MB RAM, 66MHz takt, 30 wdrożeniowców męczyło go aplikacjami 4GE przy kilku importach baz danych. Kolejny - pecet z Pentium 266MHz. Obracanie obrazja JPEG. Masakra.... Za to Pecet z serwerem X'ów, siec jeszcze 10MBit/s (tkaie czasy).... i stacja robocza HP z czasów gdy HP-US był nowością (nieco większa od laptopa). Pomimo iz jeszcze transfer po sieci był to był tak znacząco (kilkukrotnie) szybszy w obróceniu obrazka względem Intela i Windowsa na dodatek ten HP nie nudził się bowiem wdrożeniowcy go katowali aplikacjami FK. Koniec nostalgicznych dygresji.


    Procesory (platfroma) Power miały kilka fajnych dodatkowych rozwiązań ułątwiających tuning systemu np. jedno co zaszło w pamięć to ocenianie czy wykonywny kod jest obliczeniowo intensywny i czy intensywny pod katem operacji I/O. To w łatwy sposób pozwalało na okreslanie czego pamięć wirtualna nie powinna odkładać na swap często decydując krytycznie o wydajności systemu.
    Chciałbym takie możliwości zobaczyć w Windows ..... Marzenia ściętej głowy,

    SQLmaster napisał:

    Emiraty bogate, więc mogą wyłożyć forsę. Dla IBM było to trochę robienie sobie samemu konkurencji, ale dla GlobalFoundry będzie to po prostu maksymalizacja ew. zysku.

    Sama moneta może nie wystarczyć. Cieżko będzie sie wbić na rynki masowych produktów (przecież m.in. utracone prze IBM, głownie po tym jak motorola tez olała półprzewodniki - niestety koniec zimnej wojny ....). Sun z procesorami SPARC padł - raczej firma od motoru baz danych nie zagwarantuje rozwoju procesora. Alpha po upadku DEC'a miała produkowane klony, tanio konkukrencyjnie - i co z tego? (Prawie jednocześnie Microsoft porzucił produkcję NT dla innych procesorów niz Intel), Był też co prawa dość przeciętny PA-RISC też ś.p. Itanium Intela? Jedyny produkt jaki ma pozostać?
  • #11
    SQLmaster
    Poziom 24  
    studisat napisał:
    Kiedyś tam, początki Pentium i jeszcze istniejące procesory RISC Alpha. Wzięto pod lupe wydajność. Otóż Alpha w emulatorze Pentium mając niższe taktowanie miała (alpha 200MHz, pentium 266MHz) nieco lepsza wydajność dla operacji stałoprzecinkowych, zaś dla zmiennoprzecinkowych ponad 10 krotnie lepszą wydajność obliczeniową. Albo bardziej dosadny przykład sprzed lat - dwa serewry, dwa różne UNIX'y, ten sam motor Infomix. Compaq (magistrale EISA) z SCO Unixem, Pentium, 266MHz, 256MB RAM - dwie sesje importu baz danych i w zasadzie nie dało rady aplikacji terminalowych 4GE używać. Za to stary RISC - IBM G30 (OIDP) w zasadzie desktop z Power PC - 64MB RAM, 66MHz takt, 30 wdrożeniowców męczyło go aplikacjami 4GE przy kilku importach baz danych.


    Wszystkie te przykłady to oczywiście prawda, ale dobrze że zaznaczyłeś że "Kiedyś tam, początki Pentium". Bo obecnie Intele to zupełnie inny świat jak pierwsze Pentium. Od dawna w środku są nowoczesnymi procesorami RISC udajacymi tylko x86. Dziś już nie byłoby takiej przepaści, albo nawet Intel i7 skopałby tyłek jakiemuś SPARC jak np w tym teście:
    IBM sprzedał dział produkcji procesorów i mikroelektroniki

    studisat napisał:
    Cieżko będzie sie wbić na rynki masowych produktów

    Niezwykle ciężko. Jedynie sprzedawanie po duzo nizszych cenach jak Intel mogłoby pomóc - i też w zasadzie w zastosowaniu serwerowym i specjalistycznym.
  • #12
    tronics
    Poziom 38  
    Cytat:
    Od dawna w środku są nowoczesnymi procesorami RISC udajacymi tylko x86
    Zdefiniuj czym obecnie jest RISC i jak go bezbłędnie rozpoznać. Bo wykorzystanie mikrokodu (co intel praktycznie od zawsze stosował w x86) nie jest dowodem na ukrycie RISCa w CISCu. Tego typu procesory rzeczywiście powstawały (choćby K5 od AMD zbudowane na podstawie RISCowego Am29000 a także Nx586 od Nexgena na ich własnym riscowym rdzeniu) natomiast większość z rozmówców zapomina o 2 rzeczach:
    1. mikrokod istnieje w prockach intela już od bodajże 286 (czy to już wtedy był risc udający cisc? Nie)
    2. register renaming, out of order execution, superscalar core, pipelined architecture to nie żadne dowody na RISCowatość, a wykorzystanie dobrych wzorców.
    Rozbicie dekodowania i wykonywania na etapy, kilka potoków wykonawczych pracujących równolegle, porządna jednostka przewidywania skoków, dobry reordering buffer, większa liczba rejestrów wewnętrznych i integracja CPU z FPU, MMU, IMC skutkują taką, a nie inną wydajnością. W przeciwnym wypadku twierdzilibyście panowie, że intel i amd budują RISC, który w trybie EMULACJI x86 i tak wyprzedza czysto RISCowe maszyny (czyli na mikrokodzie byłby o wiele, wiele szybszy od POWERa!)
    Nic bardziej błędnego, po prostu CISC przez niektóre rozwiązania z w/w zyskują więcej niż RISC więc ostatecznie nie ma już wielkiej różnicy. Co najwyżej w skomplikowaniu kompilatora i wielkości wykorzystanego krzemu na dekoder.
  • #13
    SQLmaster
    Poziom 24  
    Tronics, ja się w definiowanie bawił nie będę bo nie ja definiuję takie sprawy. Nie mamy wiedzy producenta, czy od Penium 4 w górę w środku siedzi RISC czy nie i jak dokładnie on działa. Ja mogę Tobie co najwyżej pokazać odnosniki którymi się sugerowałem, np taki (sekcja 'Decoder'): http://www.hardwaresecrets.com/printpage/Inside-Pentium-4-Architecture/235

    Ale oczywiście to nie musi oznaczać że nie masz racji i nie chcę się z Tobą spierać - nawet chętnie przyznam rację, bo to co napisałeś brzmi sensownie. A już na pewno zgodzę się, że dzisiaj dobrze zaprojektowany CISC może być równie wydajny jak RISC albo i lepszy, chociażby taki procesor IBM to CISC.
  • #14
    studisat
    Specjalista - lampowe odbiorniki radiowe
    SQLmaster napisał:

    Wszystkie te przykłady to oczywiście prawda, ale dobrze że zaznaczyłeś że "Kiedyś tam, początki Pentium". Bo obecnie Intele to zupełnie inny świat jak pierwsze Pentium.

    Ja to widzę inaczej - niestety bardziej brutalnie. Otóż RISC'i nie miały masowej sprzedaży. Inny świat dla masowego odbiorcy to była Motorola 68k - jednak przewagę nad intelem producenci Atari, Amigi MAC'a zaprzepaścili szanse....

    Co za tym idzie niestety ale powstaje problem nakładów na rozwój.
    Intel wykorzystał fakt że masowy klon IBM PC dał kasę na rozwój. Może procek był do kitu, może i powolny ale była kasa. Era Pentium i to w sumie okres przełomowy bowiem upadli konkurenci na rynku sprzętu komputerowego do domu (zasługa kart graficznych). Gdyby Sun, Hewlett-Packard, Motorola/IBM wypuścili tanie masowe komputery osobiste to kto wie jakby się potoczyła ewolucja procesorów. Mogłoby być tak że Intel jeśliby przetrwał to w segmencie np. mikrokontrolerów. Bo 8051 to był lepiej zaprojektowany wg co niektórych niż rodzina 8086.
    Ale gdyby babcia miała wąsy to by była dziadkiem.

    Intel zdaje się kupił technologię Alpha - tyle że to co jeszcze przez długi czas sugerowało że kupił jedynie aby ubić ew. konkurencję (potencjalnie realną bowiem pojawił się klony tych procesorów). Wg mojej opinii to dopiero Core-2 było jakimś skokiem jakościowym w przód ( i to gdy AMD okrzyknięto wręcz zwycięzcą nad starym powolnym mułowatym Intelem.....). Intel zdaje się też przejął rynek PA-RISC'a. Było coś takiego jeszcze jak Itanium - nie wiem czy Intel już pogrzebał Itanium ale jakoś zniknęły pakiety IA64 niektórych produktów Microsoftu.....

    Owszem z żalem wspominam M68k. Przejrzysta architektura, prosty przejrzysty assembler.... No jak dodamy genialną prace twórców AmigaOS w połowie lat 80-tych - zrobić zwarty niewybredny co do zasobów system wielozadaniowy działający niczym realtime OS i to bez pamięci wirtualnej i jeszcze po części z musu autorzy rezygnowali z kiku "drobiagów" obecnie "must be"....

    Jeszcze był równie świetny procek motoroli - 6809.... Jednak alians z armią nie zawsze wychodzi na dobre.
    Stop bo to OT.

    Co do masówki. Hmm pamiętajmy o tym bo to obecnie najważniejszy argument rynkowy. Zdaje się ze chiński wysyp różnych własnych ARM'ów zabił już produkt Intela jak Atom. Eeech i pomyśleć że kiedyś przed wydaniem Win2000 Microsoft zrezygnował z patformy MIPS. Histora jak widać lubi płatać figle.

    Myślę że SPARC zdechnie. Po co firmie Oracle procesor? Nawet posunę się dalej po co im Solaris.
    No znowu OT. Nie, już koniec.
  • #15
    tronics
    Poziom 38  
    Cytat:
    Inny świat dla masowego odbiorcy to była Motorola 68k - jednak przewagę nad intelem producenci Atari, Amigi MAC'a zaprzepaścili szanse....

    Zauważ tylko, że w tym momencie miałeś coś takiego. Intelik na IBM PC z tanią kartą np. VLB czy EISA, który odpalałeś, modyfikowałeś, rozbudowywałeś o powszechnie dostępne komponenty i appsy działały pod systemem, a po drugiej stronie barykady Amiga z rzadko spotykanym i drogim turbo, z niekompatybilnymi złączami Zorro II/III do których nieliczne i drogie karty można owszem wetknąć, ale okaże się, że to co działało na "integrze" OCS czy AGA przestało działać na karcie grafiki. Wreszcie zaczęły powstawać różne standardy obsługi ekranów (RTG, Picasso96, CGX) co też nie napawało entuzjazmem. Commodore przejechało się na zbytnim drenowaniu kieszeni konsumentów i zbyt zamkniętej architekturze. Naturalną ścieżką rozwoju miał być PowerPC (jak w Apple) ale zauważ, że nawet Apple ostatecznie przeszło na x86!

    Cytat:
    Wg mojej opinii to dopiero Core-2 było jakimś skokiem jakościowym w przód

    Niezupełnie. To cały czas rozwój tej samej linii produktów, a dokładniej rozbudowa rdzenia z Pentium III (później Pentium M, Core Solo, a następnię właśnie Core 2) i to tylko dzięki temu, że ta linia niskoenergetyczna była kontynuowana na Hajfie równolegle do P4 które powstawało i rozwijane było w USA! Core 2 to po prostu przeniesienie do desktopa i jeszcze większe dopakowanie wcześniejszego produktu znanego z laptopów!

    Cytat:
    Było coś takiego jeszcze jak Itanium - nie wiem czy Intel już pogrzebał Itanium ale jakoś zniknęły pakiety IA64 niektórych produktów Microsoftu.....

    EPIC w wykonaniu Intela to zwykła ślepa uliczka. Może by przeszło na rynku serwerowym gdyby nie AMD64 - tutaj intel stracił grunt pod nogami, bo procki AMD były efektywniejsze energetycznie i do tego tańsze, a jednocześnie w pełni zgodne z istniejącym softem x86 bez konieczności czasochłonnej emulacji.

    Cytat:
    zrobić zwarty niewybredny co do zasobów system wielozadaniowy działający niczym realtime OS i to bez pamięci wirtualnej

    Bez ochrony pamięci, który może wywalić dowolna aplikacja ;) Nie, nie, troszkę się śmieję. W tym czasie rzeczywiście był to niezwykły system, ale to było dawno dawno temu. I nawet AOS4 z hyperionu czy MorphOS nie moga jednak pokazać więcej niż byle jaka dystrybucja gnu/linux a większość zgodnie powie, że nawet najfajniejszy linux jednak ustepuje windowsowi.

    Jeśli chodzi o architektury to rzeczywiście prym w urządzeniach wysokiej wydajności wiedzie x86_64 (AMD64) gdy z kolei w ultra mobile jest ARM. Gdzieś pomiędzy lawirują wszelkie mutacje POWER jednocześnie nie mogąc zawalczyć o jakąkolwiek konkretną pozycję. W świetle tych wydarzeń nie ma się co dziwić IBM. Nie ma w tym przypadku czym walczyć!
  • #16
    studisat
    Specjalista - lampowe odbiorniki radiowe
    tronics napisał:

    Zauważ tylko, że w tym momencie miałeś coś takiego. Intelik na IBM PC z tanią kartą np. VLB czy EISA, który odpalałeś, modyfikowałeś, rozbudowywałeś o powszechnie dostępne komponenty i appsy działały pod systemem,

    W czasach gdy była już Amiga 1000 to nie było nawet mowy o VLB, EISA. Zas CGA to był luksus ... były nawet w użyciu tylko karty oferujące jedynie tryb tekstowy. A gdy ją konstruowano kilka lat wczesniej....

    tronics napisał:

    a po drugiej stronie barykady Amiga z rzadko spotykanym i drogim turbo, z niekompatybilnymi złączami Zorro II/III do których nieliczne i drogie karty można owszem wetknąć, ale okaże się, że to co działało na "integrze" OCS czy AGA przestało działać na karcie grafiki.

    Po modelu A1000 wprowadzono dwa - A500 - domowe zamknięte (ale częściowo bowiem był jednak port expansion! - był nawet sprzedawany emulator PC XT tam wkładany zamiast tradycyjnej karty pamięci) oraz model A2000 - otwarta architektura jak w PC.
    Kolejny model A3000 tez miała otwarta architekturę a ponadto była tez sprzedawane z dedykowanym dla niej unixem. (miałem w "ręku" jakiś soft biznesowy na Amigę "odpalany" z uniksa z X-Serwerem dla chipsetu Amigi - handlowo nazwanym A-Windows - no A500 to dla cierpliwych..... ale odpalić się dało A-Windows.
    W przypadku A2000 zadbano o możliwość wykorzystania kart ISA. Albo poprzez kartę emulatora albo specjalny mostek Zorro - ISA.
    Przez wiele lat najważniejsza karta był Video-Toaster. Nie dla komputerów PC, które miały archaiczną niewydolna i przestarzała ISA czy nawet EISA. Dlaczego robiono protezy VLB. Zresztą po wprowadzeniu w PC okrojonego mocno PCI tez musiano sięgnąć jeszcze raz do protezy - do VLB drugiej generacji - AGP.
    Co do przenośności grafiki - poza grami, demami to dobrze napisany soft mógł z powodzeniem działać na kartach. Co innego że system pozwalał a co innego że programiści "nie umieli".

    Obecnie laptopy, tablety plus xbox pokazują ze idea integry zwyciężyła...

    tronics napisał:

    Wreszcie zaczęły powstawać różne standardy obsługi ekranów (RTG, Picasso96, CGX) co też nie napawało entuzjazmem.

    Ale wybierano system pod zastosowanie. Niestety główne profesjonalne zastosowanie to jednak była wspomniana karta firmy NewTek.


    tronics napisał:

    Commodore przejechało się na zbytnim drenowaniu kieszeni konsumentów i zbyt zamkniętej architekturze. Naturalną ścieżką rozwoju miał być PowerPC (jak w Apple)

    W Polsce tak, zgodzę się to był drenaż tam już nie tak bardzo. To że ceny pozostały wysokie to raczej brak zdecydowanego pójścia w kierunku wypromowania czegoś innego niż maszynkę do gier. Zresztą Commodore pogrzebał też inny swój przełomowy produkt CDTV. Może i za wcześnie go wypuścił na rynek ale zmarnował ogromną szansę.
    Atari tez pogrzebało swoje szanse. Model TT lider w DTP jako alternatywa dla MAC'a oraz świetny Falcon z procesorem DSP.
    PowerPC to nie ewolucja ale mus. Kończyła się zimna wojna i Motorola szukała innych klientów (czyt. sponsorów) - znalazła IBM'a. Uwalono linie 68k - model 68060 to był w zasadzie już martwy trup.
    Co do aspektu zimnowojennego miałem świetną książce o procesorach m68k (wtedy topem był 68020) gdzie pod tytułem była adnotacja że książka może być legalnie używana tylko i wyłącznie na ternie USA i Kanady plus straszenie służbami i paragrafami. Pewne szczegóły hardware, pracy magistral, rejestrów nie są dostępne do dziś w kartach katalogowych. Miałem taki problem z 68000 chodziło o to aby mimo innego taktu procesora zachować dokładnie taki sam takt układów 6800 - musiał być na zewnątrz dorobiony aby zachować jego oryginalny takt. Tak ksiązka pozwoliła mi to zrobić procesor był taktowany 14MHz (14MHz z płyty oryginalne 8MHz wyprodukowane po 1990 roku dawały rade z 14MHz bez większego problemu) plus zachowanie tego samego taktu E - bowiem kilka timerów używanych do obsługi hardware głupiało. Gdyby nie jedna informacja z tej ksiązki niedostępna nigdzie indziej nie byłoby prostego rozwiązania problemu.
    OT.


    tronics napisał:

    ale zauważ, że nawet Apple ostatecznie przeszło na x86!

    Również z musu. Motorola skończyła z procesorami i półprzewodnikami (taki durny ruch jak w HP ze sprzętem pomiarowym w jednym i w drugim przypadku pogrzebano dwie zasłużone marki). Nabywca linii procesorów Motoroli widział tylko rozwój jako mikrokontrolerów zaś IBM nie widział sensu grzebania się w czymś innym niż dla serwerów (bo się nie znał na tym).
    Apple nie miał wyboru musiał wybrać jako platformę procesory Intela. Nawet porzucili swój system operacyjny na rzecz jakiegoś zmodyfikowanego BSD z własnym okienkowym GUI.

    tronics napisał:

    to tylko dzięki temu, że ta linia niskoenergetyczna była kontynuowana na Hajfie równolegle do P4 które powstawało i rozwijane było w USA! Core 2 to po prostu przeniesienie do desktopa i jeszcze większe dopakowanie wcześniejszego produktu
    znanego z laptopów!


    Ale jednak zadziało to lepiej od P4 i przereklamowanego shitu HT. Dlatego od strony użytkowej dla mnie był to przełom przynajmniej dla mnie.

    tronics napisał:

    W tym czasie rzeczywiście był to niezwykły system, ale to było dawno dawno temu. I nawet AOS4 z hyperionu czy MorphOS nie moga jednak pokazać więcej niż byle jaka dystrybucja gnu/linux a większość zgodnie powie, że nawet najfajniejszy linux jednak ustepuje windowsowi.

    Ale do domu to czego więcej potrzeba w kwestii AmigaOS? Oczywiście (plus adekwatny do toczenia rozwój) Mamy krowę wash&go o nazwie Windows. Jeszcze się dokleja do niej mobile phone.... Po co?
    Mniej może pokazać Morphos no bo trudno by bez kasy ktoś pisał nowe API itd....
    Gdyby zastosowania linuxa były znikome to i linux by stanął na linii komend jedynie pod hasłem ciekawostka.

    Co do linuxa kontra windows jakby z dostępnością softu było na odwrót to oceny byłby niższe. W mojej dawnej pracy linux był zawsze nieprofesjonalną zabawką w porównaniu z komercyjnymi unixami. Albo komercyjny unix czy tez mainframe albo nawet już windows zaś linux to co najwyżej mało znaczące elementy projektowanych systemów. Bo linux nie był postrzegany jako wiarygodny co do linii rozwoju. Bo jakiś produkt jest świetny ale nagle jego autor powie że ma dość i koniec z rozwojem bo szanowne jakięs grono zadecydowało że będzie coś zupełnie innego w jego miejsce. I co klientowi powiedzieć zmieniamy cała koncepcję systemu na inna?

    Cytat:

    Jeśli chodzi o architektury to rzeczywiście prym w urządzeniach wysokiej wydajności wiedzie x86_64 (AMD64) gdy z kolei w ultra mobile jest ARM. Gdzieś pomiędzy lawirują wszelkie mutacje POWER jednocześnie nie mogąc zawalczyć o jakąkolwiek konkretną pozycję. W świetle tych wydarzeń nie ma się co dziwić IBM. Nie ma w tym przypadku czym walczyć!

    Ale jak w przypadku Commodore/Atari mają to na własną prośbę. IBM nie umiał sie znaleźć na rynku domowego sprzętu, settopboxów, mobile zaś ci wymienieni nie potrafili się oderwać od maszynki do gier.

    No cóż nieustannie dążymy do monopoli. Niestety.
  • #17
    tronics
    Poziom 38  
    Cytat:
    W czasach gdy była już Amiga 1000 to nie było nawet mowy o VLB, EISA.

    Czekaj czekaj. Czy Amiga 1000 była najlepiej sprzedającą się Amigą? Czy wraz z jej pojawieniem się Commodore wykroiło kawał tortu PC? Nie. Popularność rozpoczęła się z kolejnymi wersjami (A2000/500) w 1987r. Natomiast szczytem technologicznym było A1200 dla mas i A3000/4000 dla profesjonalistów w 1992r. Teraz EISA to rok 1989, a PCI 1993. Biorąc pod uwagę, że choćby polski Elbox głównie kasę trzepał z mediatorów (czyli rozszerzenia oferującego sloty PCI) to widać jak konieczne to było dla amigowców. Zatem nie rozumiem kolegi wtrącenia.
    Cytat:
    Po modelu A1000 wprowadzono dwa - A500 - domowe zamknięte (ale częściowo bowiem był jednak port expansion! - był nawet sprzedawany emulator PC XT tam wkładany zamiast tradycyjnej karty pamięci) oraz model A2000 - otwarta architektura jak w PC
    Ten port to zasadniczo jedynie rozszerzenie do pamięci. Prawda, były karty z 8086/80286 pozwalające odpalać soft PC AT/XT emulując jedynie grafikę i dźwięk, natomiast jeśli cokolwiek miało stanowić prawdziwe rozszerzenie to jedynie 86 pin expansion slot z boku! Tak, tam gdzie były wszystkie actionreplaye, a590, megaramy itp. wpinane (bo to najzwyczajniej wyprowadzenie wszystkich systemowych magistrali i sygnałów sterujących). Niemniej to nawet nie był żaden otwarty i ustalony standard. Ot tak na szybko dodane złącze, które później po przerobieniu ewoluowało w Zorro II.

    Co do A2000 - kilka Zorro II, slot video i slot cpu jeśli mnie pamięć nie myli. Nic kompatybilnego z PC, a nie licząc samego zorro to użyteczność prawie zerowa. ISA też, ale co z tego skoro nieaktywne
    Cytat:
    Kolejny model A3000 tez miała otwarta architekturę a ponadto była tez sprzedawane z dedykowanym dla niej unixem

    Ah, zorro III (wow!) w momencie wydania ECS jako standard z 2MB CHIP RAM (ograniczenie wiecznie żywe, które w tym momencie zabijało platformę) i zbugowane DMACi.
    Cytat:
    W przypadku A2000 zadbano o możliwość wykorzystania kart ISA. Albo poprzez kartę emulatora albo specjalny mostek Zorro - ISA.

    Tak, bo jak pisałem te sloty były nieaktywne. Trzeba było za tą funkcjonalność dodatkowo zapłacić. I tu jest właśnie to o czym pisałem, najzwyklejsza pazerność i brak innowacji.
    Cytat:
    Przez wiele lat najważniejsza karta był Video-Toaster

    Bzdura. To siedziało na Zorro II o przepustowości 5.3MB/s gdzie 16 bitowe ISA miało ~8MB/s, nie złącze ograniczało użycie tej karty do Amigi a raczej wykorzystanie możliwości pozostałych jej podzespołów których próżno szukać było w PC. W każdym razie w równie tanich PC. Nie jest prawdą jakoby ta karta i jej możliwości były poza zasięgiem PC, po prostu zarówno soft jak i sprzęt dla PC był dużo, dużo droższy a tak dużo więcej ludzi mogło się bawić w obróbkę wideo. Jeśli chodzi o PL to bardzo długo Polsat z Amig korzystał do "efektów specjalnych", a TVP chyba dłuższy czas po upadku Commodore stawiało teletekst na tym.
    Cytat:
    Obecnie laptopy, tablety plus xbox pokazują ze idea integry zwyciężyła...

    Kwestia jak rozumiesz "integrę" - zauważ, że od 1985r ta commodorowska "integra" zmieniała się niewiele pozostawiając za sobą te same ograniczenia tj. 2MB chipram i 16bit wewnętrzną szynę danych. Niezależnie jak mógłbyś dopalić CPU i tak wąskim gardłem był chipset - stąd najszybsze rozszerzenie PCI (G-Rex) siedzi na dedykowanym slocie karty turbo. Układ dźwiękowy jeśli mnie pamięć nie myli od Lorraine (prototypu) w zasadzie się nie zmienił aż do schyłkowych modeli. To co było rewolucją w przypadku A1000 topniało w miarę odcinania kuponów przez Commodore. Nie poszli za ciosem i nie dali pracować R&D nad kolejnymi modelami, wszystkie chipsety po OCS były mocno opóźnione, a ostatni (AAA) nawet nie ujrzał światła dziennego. Jeszcze ten nieudany atak na rynek IBM PC compatible... A wracając do xboxów i tabletów - zauważ, że w przeciwieństwie do PC w którym wymienisz procek, wsadzisz nową kartę i śmigasz dalej w najnowsze tytuły na max detalach to niestety ale trzeba ciąć, bo sztywna architektura fajnie wygląda jedynie w momencie premiery (a w zasadzie w PS4, Xbox One nawet wtedy nie błyszczała).
    Cytat:
    Zresztą Commodore pogrzebał też inny swój przełomowy produkt CDTV

    Owszem, i do tego jeszcze nie wykorzystali porządnie CD32.

    Cytat:
    Również z musu. Motorola skończyła z procesorami i półprzewodnikami (taki durny ruch jak w HP ze sprzętem pomiarowym w jednym i w drugim przypadku pogrzebano dwie zasłużone marki). Nabywca linii procesorów Motoroli widział tylko rozwój jako mikrokontrolerów zaś IBM nie widział sensu grzebania się w czymś innym niż dla serwerów (bo się nie znał na tym).

    Nie. Apple jako członek AIM mógł również produkować swoje PPC, baaa, przecież nikt inny jak Apple wykupiło PA Semi! Oni przeszli na x86 bo widzieli, że nie ustępuje wydajnością i energooszczędnością G5. Baa. Było nawet wydajniejsze i bardziej energooszczędne (sic!). A do tego powszechna dostępność, sprawdzona architektura i mnóstwo nowinek czekających by sprzedać fanom nadgryzionego jabłka. I jak zwykle było to względnie bezbolesne (tak jak przejście z 68k na PPC) gdy Commodore trzęsło portkami by zrobić jakiś konkretny krok (czy to iść w CF, czy PPC).
    Cytat:
    Nabywca linii procesorów Motoroli widział tylko rozwój jako mikrokontrolerów

    Eee, przecież Freescale jest mniej więcej przy Motoroli czym ASRock przy ASUSie.
    Cytat:
    Ale jednak zadziało to lepiej od P4 i przereklamowanego shitu HT

    Na cykl zegara to i Tualatin był szybszy, a co do HT to nie wiem jak kolega, ale ja "darmowe" 10-30% wydajności więcej z takiej opcji biorę w ciemno. Tak, mowa o HT w nowych i3, i5.
    Cytat:
    Ale do domu to czego więcej potrzeba w kwestii AmigaOS

    Proszę zauważyć, że mimo otwartości źródeł wielu przeglądarek nie ma żadnej specjalnie nowoczesnej wersji dla AmigaOS4. Baa, na tym systemie dedykowany HW (radeony) nie ma wsparcia 3D, a sterownik trzeba sobie ... kupić osobno! Ech, to ja w ciemno biorę darmowego linuksa.
    Cytat:
    Mniej może pokazać Morphos no bo trudno by bez kasy ktoś pisał nowe API itd....

    Tu o dziwo właśnie jest odwrotnie i to MorphOS dominuje jeśli chodzi o możliwości systemu. Mimo, że też płatny.
    Cytat:
    Bo linux nie był postrzegany jako wiarygodny co do linii rozwoju. Bo jakiś produkt jest świetny ale nagle jego autor powie że ma dość i koniec z rozwojem bo szanowne jakięs grono zadecydowało że będzie coś zupełnie innego w jego miejsce. I co klientowi powiedzieć zmieniamy cała koncepcję systemu na inna?

    Tego podejścia osobiście nie rozumiem. Co jakiś czas przechodzę "przemiany systemowe" w korporacji, ot wejście XP, teraz wielkie przejście na 7. Za parę lat pewnie wielkie przejście na 10. I cała masa problemów. I duża część problemów nie do rozwiązania. Ot na tym kompie musi XP zostać bo jest egzotyczna karta Deviceneta do której brak sterowników, na innym egzotyczny program, który nie działa poprawnie w Win7. Na jeszcze innym dziwne pliki z szablonami naklejek, które przestały dobrze się drukować. Takich problemów jest znacznie, znacznie mniej między kolejnymi wersjami jądra linuksa. A żeby było śmieszniej Unixa nie znajdziesz w TV, telefonach, routerach etc., a systemy oparte o jądro linuksa owszem. Więc jeśli chodzi o elastyczność i popularność tendencja jest wzrostowa. Nawet na PC. Ludzie mają to do siebie, że lubią mieć wybór. Może być sztuczny i z góry narzucony, ale niech się wydaje że ma się jakąś kontrolę. I w ten sposób biznes się kręci.
  • #18
    studisat
    Specjalista - lampowe odbiorniki radiowe
    tronics napisał:

    Czekaj czekaj. Czy Amiga 1000 była najlepiej sprzedającą się Amigą?

    Jeszcze nie bo dopiero tak naprawdę to ilość gier zadecydowała. Te gry z czasów A1000 i początków A500 to w sumie nie odbiegały grafiką od C64, XL..

    tronics napisał:

    Czy wraz z jej pojawieniem się Commodore wykroiło kawał tortu PC? Nie.
    Popularność rozpoczęła się z kolejnymi wersjami (A2000/500) w 1987r.

    Bardziej A500 jako domowy i do gier .A2000 to bardziej niemiecki rynek.

    tronics napisał:

    Teraz EISA to rok 1989, a PCI 1993.

    A1000 to rok 1985. Na początku tyko w wersji NTSC. Dopiero później powstał wersja OCS dla systemu PAL. konstrukcja hardware to w sumie 1984 rok - gotowy prototyp. Kod OS'a to nawet ciut wcześniej. PCI pecetowe wprowadzono w ograniczonej bardzo wersji. Jakoś zanim PCI na dobre zagościł w pecetach to były już oferowane serwery RISC z PCI ale ze złączem o tej nazwie odmiennym niż w PC - więcej pinów - wyższy takt - 4 krotnie większa przepustowość była niż pierwszego PCI w komputerach PC.

    tronics napisał:

    Biorąc pod uwagę, że choćby polski Elbox głównie kasę trzepał z mediatorów (czyli rozszerzenia oferującego sloty PCI) to widać jak konieczne to było dla amigowców.

    Nie rozumiem obruszenia - odparuję. Na poczatku to były gniazda by użyć kart od PC przy zainstalowaniu karty emulatora sprzętowego PC. Zauwazono że mozna nie mieć emulatora a tylko zrobić mostek Zorro-ISA i po napisaniu steowników wykorzystywać karty o komputerów PC. A2000 (oaz A2500) to były efekty prób przebicia się głosu rozsądku z niemieckiego oddziału Commodore. A3000 powstała za wielka kałużą już nie miała tych slotów ISA. Commodore zmaaist skupić się na tym co wprowadził model A2000 wolał utopic kasą w swoim commodore PC.

    tronics napisał:

    Niemniej to nawet nie był żaden otwarty i ustalony standard. Ot tak na szybko dodane złącze, które później po przerobieniu ewoluowało w Zorro II.

    Ale ISA też nie była na początku takim otwartym standardem. O tym czy będzie to standard to musi zadecydowac oferta urządzeń. ISA jakoś nie pasowała pod procesory Motoroli 68k. Czyli nie był to w pełni uniwersalny standard.

    tronics napisał:

    ISA też, ale co z tego skoro nieaktywne

    Dlatego ktoś wpadł na pomysł aby zrobić stosowny mostek łaczacy magistrale. Aby nie potrzeba było kupować karty emulatora PC AT.

    tronics napisał:

    Ah, zorro III (wow!) w momencie wydania ECS jako standard z 2MB CHIP RAM (ograniczenie wiecznie żywe, które w tym momencie zabijało platformę) i zbugowane DMACi.


    Ależ to efekt ty;ko motania się firmy Commodore która nie wiedziała co chce produkować. Zmarnowali szansę. Gdyby projekt Amigi kpiła inna firma niz commodore.....

    tronics napisał:

    Bzdura. To siedziało na Zorro II o przepustowości 5.3MB/s gdzie 16 bitowe ISA miało ~8MB/s, nie złącze ograniczało użycie tej karty do Amigi a raczej wykorzystanie możliwości pozostałych jej podzespołów których próżno szukać było w PC.

    Czyli nie magistrala zadecydowała tylko w sumie mizeria osprzętu multimedialnego dla komputerów PC. Jak sie wtedy ludzie podniecali covoxem wtykanym do portu LPT peceta. Nareszczie jakiś dźwięk a nie brzęczyk.

    Cytat:
    To co było rewolucją w przypadku A1000 topniało w miarę odcinania kuponów przez Commodore. Nie poszli za ciosem i nie dali pracować R&D nad kolejnymi modelami, wszystkie chipsety po OCS były mocno opóźnione, a ostatni (AAA) nawet nie ujrzał światła dziennego. Jeszcze ten nieudany atak na rynek IBM PC compatible...

    Dlatego pisałem że zmarnowane szanse. Apple tez zmarmowało szanse. Potem u progu upadku przeprosili się z zaożycielem firmy ale to już inna era, inne produkty i już nie ta dawna wizja.... Nawet IBM zmarnowała ni nie wierzył w sukces PC, ani nie udało się im cos zrobić z PS/2.

    Cytat:

    A wracając do xboxów i tabletów - zauważ, że w przeciwieństwie do PC w którym wymienisz procek, wsadzisz nową kartę i śmigasz dalej w najnowsze tytuły na max detalach to niestety ale trzeba ciąć, bo sztywna architektura fajnie wygląda jedynie w momencie premiery (a w zasadzie w PS4, Xbox One nawet wtedy nie błyszczała).
    I co z tego jeśli co pewien czas masz już format płyty inne rozszerzenia itd. To nie jest tak ze to takie super rozszerzalne po wsze czasy.
    Czy do PC386 wsadzę np. dwrurdzeniowe Core-duo? Nie. Dość szybko udupiono tę wizje rozszerzalności bo nie pasuje do obecnego biznesowego trendu w masówce. PO co mi rozszerzenie jelłi za 3 lata pojawi sie nowa generacja procesorów / kart a posiadaną płyta będzie tylko wąskim gardłem dla ich możliwości a oz dnie będzie kompatybilna. Ceny elektroniki są już tak niskie że nie ma problemu z zakupem praktycznie dedykowanego sprzętu o zamkniętej aurchitekturze. Czas życia przyjętych standardów płty to w sumie okres amortyzacji kupionego sprzętu, no może ew dwukrotny taki okres w porywach. Co innego serwery ale to specyficzny rynek - nie potraifł on utrzymać produkcji specjalizowanych podzespołów.


    Cytat:

    Nie. Apple jako członek AIM mógł również produkować swoje PPC, baaa, przecież nikt inny jak Apple wykupiło PA Semi! Oni przeszli na x86 bo widzieli, że nie ustępuje wydajnością i energooszczędnością G5.

    Przeszli w chwili gdy trzeba było uratować firmę przed upadkiem? Skutki chaotycznych i bardzo zachowawczych działań byłego kierownictwa, które w sumie ciągnęło firmę w otchłań. Nagle już nie ma czasu na nadrobienie opóźnień a ze środkami tez nie było za wesoło. Pewien rynek już przepadł trzeba już szukać innego.


    Cytat:

    Na cykl zegara to i Tualatin był szybszy, a co do HT to nie wiem jak kolega, ale ja "darmowe" 10-30% wydajności więcej z takiej opcji biorę w ciemno.

    Ale w tedy to P4 z HT nie dawało jeszcze kopa jaki był po wprowadzeniu Core-duo.
    Nie czułem tych GHz i zysku z tego HT w czasie kompresowania filmu. Za to taktowany wolniej Core-duo dał mi odczuć istotną różnicę w czasie kompresji filmu.

    Cytat:

    Tego podejścia osobiście nie rozumiem. Co jakiś czas przechodzę "przemiany systemowe" w korporacji, ot wejście XP, teraz wielkie przejście na 7. Za parę lat pewnie wielkie przejście na 10. I cała masa problemów. I duża część problemów nie do rozwiązania.

    Nie komputery biurkowe ale raczej duże systemy. Kosztowna inwestycja i musi być jakiś nakreślony plan rozwoju zakupionych rozwiązań. Rozwój linuksa raczej przyrównywano do przypadkowych ruchów przy czym wiele bez gwarancji dalszej ewolucji. Cena RISC'ów oraz nieprzewidywalność linuxa dała szerokie pole Microsoftowi do jego Windows Server.
  • #19
    tronics
    Poziom 38  
    Ta dyskusja to nie rozwinięcie tematu tego wątku, a zupełne już zejście z niego dlatego kolejną ripostę sobie podaruję. Co najwyżej dodam, że w tym morzu biznesu roi się od młodych rekinków, które tylko czekają, aż jakiś stary "wyciągnie kopyta". Natura nie znosi próżni i za jedną starą firmę wejdzie 10 nowych. Większość zniknie, ale coś zawsze zostanie. O monopol jeszcze się martwić nie trzeba.
  • #20
    studisat
    Specjalista - lampowe odbiorniki radiowe
    tronics napisał:
    Natura nie znosi próżni i za jedną starą firmę wejdzie 10 nowych. Większość zniknie, ale coś zawsze zostanie. O monopol jeszcze się martwić nie trzeba.

    Ale ciężko wysiudać kogoś z ogromną kasą. Trzeba mieć podobne zasoby. Przykładem jest tytuł tego wątku. Kończymy OT.