Elektroda.pl
Elektroda.pl
X
Proszę, dodaj wyjątek www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

O tym jak zepsuł się SSD i udało się zachować dane.

TechEkspert 31 Mar 2018 20:17 10569 54
  • O tym jak zepsuł się SSD i udało się zachować dane.
    Po 5 latach eksploatacji dysk SSD 64GB uległ uszkodzeniu pogarszając swoje parametry w ciągu 1-2 tygodni. Dyski SSD są na rynku krócej niż HDD i wiele osób lepiej zna symptomy zbliżającej się awarii dysku mechanicznego. Uszkodzenie gwałtownie rozwinęło się w ciągu około 2 tygodni, co ciekawe dotyczyło głównie odczytu starszych plików oraz występowały silne wahania szybkości zapisu i odczytu nowych plików.

    Czy któryś z używanych przez Was dysków SSD uległ uszkodzeniu, jakie były objawy zbliżającej się awarii?


    Dysk SSD Kingston SV100S264GB (oprogramowanie układowe D110225a) początkowo intensywnie pracował w laptopie, a następnie trafił do PC stacjonarnego. Komputer służył głównie do przeglądania internetu oraz przechowywania małej ilości danych, instalacja dysku SSD znacząco go odmłodziła. Po 5 latach w ciągu 1-2 tygodni wystąpiło znaczące spowolnienie pracy SSD, nowe dane były prawidłowo zapisywane i odczytywane natomiast występowały problemy z odczytaniem starszych plików, system operacyjny Windows10 działał bardzo wolno i nieprzewidywalnie. Jednym z dziwniejszych zjawisk był brak wykresów obciążenia CPU/HDD/RAM po wywołaniu menadżera zadań.

    Pierwsze informacje jakie do mnie trafiły to wolno działająca przeglądarka. Komputer faktycznie uruchamiał się podejrzanie długo, poza przeglądarką wolno działał także system operacyjny. Kliknięcie prawym klawiszem na pliku na pulpicie powodowało konieczność oczekiwania nawet kilkudziesięciu sekund aby pojawiło się menu. Równoległe działanie programów było znaczenie utrudnione.

    Sprawdzenie SMART SSD nie wykazywało nic krytycznego, być może dlatego, że oprogramowanie Acronis dedykowane do HDD nie do końca rozumiało SMART SSD. BIOS komputera również wspierał SMART lecz podczas startu PC nic działo się nic podejrzanego.
    O tym jak zepsuł się SSD i udało się zachować dane.

    Obecnie SMART w SSD działa zdecydowanie lepiej, a producenci udostępniają bezpłatne dedykowane oprogramowanie monitorujące stan SSD.
    Warto zainstalować takie oprogramowanie aby na bieżąco monitorować stan dysku np.:




    https://kb.sandisk.com/app/answers/detail/a_id/15108/
    http://www.goodram.com/content/uploads/2015/02/GOODRAMSSDToolbox.zip

    Zapis i odczyt nowych plików na SSD przebiegał pomyślnie, chociaż czasami dość wolno. Wygląda na to, że występował problem z odczytem starych plików. Przykładowo odczyt dużego ciągłego pliku, nagle przyspiesza (prawdopodobnie gdy zakończył się odczyt uszkodzonych komórek):
    O tym jak zepsuł się SSD i udało się zachować dane.

    Miałem kopię zapasową komputera sprzed dwóch tygodni wykonaną bezpłatnym narzędziem Veeam Endpoint Backup. Uruchomiłem świeżą kopię i o dziwo wykonała się prawidłowo, lecz proces trwał dość długo. Prawdopodobnie kopia zapasowa udała się tylko dzięki temu, że jest to rodzaj kopii przyrostowej, dotyczący nowych danych.
    Utworzyłem płytę DVD odzyskiwania "od zera", dzięki czemu mogłem odtworzyć cały system na nowy dysk i przy okazji dostosować nowy rozmiar partycji. Gdyby ostatnia kopia okazała się błędna, miałem możliwość wybrania punktu sprzed 2 tygodni.

    Spróbowałem wykonać kopię z wykorzystaniem CloneZilla, proces nie udał się, pojawiły się komunikaty o uszkodzonych, nieczytelnych sektorach. Opcja wykonania obrazu dysku z ignorowaniem błędów nie pozwoliła na uruchomienie systemu z odtworzonego dysku.

    Pomyślnie przywróciłem system z kopii w Veeam, sprawę uratował prawdopodobnie sposób w jaki działa oprogramowanie (wykonuje kopię nowych danych).

    Zajrzyjmy do środka SSD:
    O tym jak zepsuł się SSD i udało się zachować dane.

    Widać, że na tym samym PCB dostarczane były modele 128GB. Układ MIRA P3R12E4JFF to prawdopodobnie pamięć DRAM.

    Widok drugiej strony PCB, widoczny kontroler JMF616 1119 oraz pamięci Toshiba TH58NVG6D2FTA20:
    O tym jak zepsuł się SSD i udało się zachować dane.

    Widoczne jest też złącze na krawędzi płytki. Kiedyś testowałem interfejsy UART w dyskach HDD: UART w HDD. Spodziewałem się, że w SSD również może pojawić się taki interfejs. Po podłączeniu konwertera UART<->USB okazało się, że przy prędkości 115200 udaje się odbierać komunikaty z SSD.
    Można przypuszczać, że są to komunikaty uruchamiającego się kontrolera dysku:
    Kod: text
    Zaloguj się, aby zobaczyć kod


    Podczas pracy dysku pojawiają się komunikaty, zależne od intensywności pisania/czytania:
    Kod: text
    Zaloguj się, aby zobaczyć kod


    Próby wysłania komend poprzez interfejs UART:
    Kod: text
    Zaloguj się, aby zobaczyć kod


    Dysk SSD nie nadawał się do dalszego wykorzystania i działał dość niestabilnie (szybkość odczytu i zapisu). Zwykle spotykałem się z opisami, że awaria SSD to nagłe zakończenie jego pracy, lub komunikaty ostrzegawcze w oprogramowaniu monitorującym. A także wiele opisów typu awaria=utrata danych. Jak widać nie taki diabeł straszny jak go malują, jednak trzeba na zimne dmuchać i posiadać kopie zapasowe oraz oprogramowanie monitorujące stan SSD.
    W moim przypadku pojawiły się problemy z odczytem danych i niestabilną pracą SSD. Dysk jest dość stary, obecne technologie i oprogramowanie producenta zapewnia większe bezpieczeństwo i komfort użytkowania SSD. Dysk wymieniłem ponownie na używany SSD z laptopa, w tym zastosowaniu jest wystarczający a HDD spowalniałby PC.

    Jakie macie doświadczenia z uszkodzeniami SSD?


    Fajne!
  • #2 31 Mar 2018 21:44
    mariomario
    Poziom 18  

    Spróbuj wyrzucić z tego dysku wszystkie partycje, tak aby cały był jako RAW, potem podłącz do innego komputera i nadpisz całą jego powierzchnię "Radnomem" (idealnie było by nadpisać jedynkami) a potem raz jeszcze ale "zerami" za pomocą np "Hardwipe".

    Powtórz testy szybkości odczytu/zapisu całej powierzchni (np. HD Tune) i wklej tu. Testowałem wiele SSDków i ze starszych np SAMSUNG 840 EVO po czymś takim - dysk nabierał prędkości zapisu/odczytu tak jak by był nowy.

  • #3 01 Kwi 2018 07:52
    Bonifacy
    Poziom 23  

    U mnie po 4 latach pewien Crucial (64GB - modelu nie pamiętam) poszedł w niebyt -> po uruchomieniu laptopa po prostu nie wykrywało go - do czasu śmierci nic z nim się wcześniej nie działo. Nie reanimowałem go bo był mały nie za szybki i nic na nim nie miałem wartościowego - szkoda mi było czasu.

  • #4 01 Kwi 2018 08:12
    TechEkspert
    Redaktor

    @mariomario przetestuję taką "regenerację" dysku, na czym opiera się skuteczność tej metody, co ona powoduje?
    @Bonifacy słusznie, gdy nie ma pewności co do niezawodności dysku, szkoda ryzykować utratę danych i czasu.

  • #5 01 Kwi 2018 08:26
    theded
    Poziom 14  

    Czy jest jakiś program, który pozwala testować dysk SSD, najlepiej uruchamiając się przed systemem? Do HDD używam MHDD i jest trochę upierdliwy, bo nie obsługuje AHCI, ale oprócz tego daje konkretny obraz kondycji dysku. Czasem smart jest tip top, a test powierzchni wywala full błędów. Do SSD nie znalazłem czegoś podobnego, tylko programy producentów, lub samodzielna interpretacja smart + benchmarki. Za taki diagnostyczny soft jestem skłonny zapłacić, często jak system się posypie chciałbym sprawdzić czy powodem nie jest uszkodzony SSD, ale interesuje mnie coś więcej niż interpretacja SMART, która często nie daje pełnego obrazu kondycji dysku.

  • #6 01 Kwi 2018 08:56
    Bullseye
    Poziom 27  

    Swoją drogą 5 lat to czas podobny do czasu życia HDD, a coraz częściej się widuje SSDki padające po 4 - 5latach.
    Czyżby producenci pisali bajki że miały być aż tak odporne na czas (nie raz czyta się że powinny po 10 - 15 lat pracować bez problemu)?

  • #7 01 Kwi 2018 09:28
    kranzio
    Poziom 24  

    Teoria teorią a praktyka pokazuje swoje. Mam do czynienia z dyskami SSD Intela i niektóre z nich nie były w stanie przetrzymać 2 lat ciągłej pracy. Pojawiały się bluescreeny, problemy z przywrócenie systemu z obrazu, blokował komputer przy starcie. Czasem system sam zakomunikował o problemie i żeby wykonać kopie danych, ale w większości przypadków loteria jak wyżej.

  • #8 01 Kwi 2018 09:52
    Bullseye
    Poziom 27  

    Dlatego bawią mnie w tym wypadku deklaracje producentów ile to ich dysk wytrzyma...
    Choć z drugiej strony czy to nie jest celowe postarzanie?
    Karty SD sprzed 10 lat działają u mnie jak trzeba, mimo że 256 mb to zawrotna pojemność, a działa to w nawigacji więc w zasadzie dzień dnia.
    Czyżby aż tak upakowanie danych w krzemie wpływało na czas pracy?

  • #9 01 Kwi 2018 10:06
    kranzio
    Poziom 24  

    Teraz wszystko robi się po kosztach, byle jaki produkt, marketing zrobi swoje, logo firmowe też a w rezultacie dostajemy dziadostwo w ładnym pudełku kolorowym. Dlatego produkuje się coraz więcej elektrośmieci.

  • #10 01 Kwi 2018 10:35
    H3nry
    Poziom 27  

    Teraz wszystko robi się na lata... 2, 3 w sensie. Liczy się konsumpcja i obrót a kasa musi się zgadzać.
    Miałem 128 na USB 3.0 nie pamiętam producenta, przed zgonem jak u kolegów mała wydajność i wieszanie się windy. Pochodził 2 lata intensywnie potem większość czasu przeleżał.

  • #11 01 Kwi 2018 10:46
    theded
    Poziom 14  

    Hola, hola, nowe systemy jeżdżą po dysku wielokrotnie bardziej niż stare. Jak duże są same update, np Windows? Ostatnio pobierał mi się taki 8 GB. Pracujemy na coraz większych plikach, coraz bardziej skomplikowanym oprogramowaniem. Szybsze czasy dostępu to też więcej operacji w ciągu godziny... Grosik do grosika i to zbiera się na większą awaryjność nowych dysków w stosunku do starych. Z moich obserwacji, to SSD nie są jakoś wyraźnie bardziej awaryjne niż HDD, przy czym trafiają z reguły do bardziej wymagających userów, którzy dużo pracują na komputerze. Porównanie karty SD w nawigacji, do dysku SSD, na którym leży WIN10 jest mocno nie na miejscu. Dla mnie zakup Goodrama irydowego z 5 letnią gwarancją to doskonałe rozwiązanie. Fajnie żeby trochę potaniały.

  • #12 01 Kwi 2018 11:05
    Bullseye
    Poziom 27  

    Mam pendrive z Chin, woly, 1GB, dziala 3rok.
    Mam drugi pendrive 32GB Kingston, co roku wymieniają go na nowego a używany mało.
    Objawy podobne, nagle z 20 MB/s spada do 4 i za 2 dni ciągle chce format i śmieć.

    Dodano po 15 [minuty]:

    theded napisał:
    Hola hola, nowe systemy jeżdżą po dysku wielokrotnie bardziej niż stare. Jak duże są same update, np windows?

    Ano masz rację, ale system mam na HDD, tylko projekty i 2 gry na SSD, więc słabo orało to dysk.

  • #13 01 Kwi 2018 11:10
    mariomario
    Poziom 18  

    TechEkspert napisał:
    @mariomario przetestuję taką "regenerację" dysku, na czym opiera się skuteczność tej metody, co ona powoduje?


    Starsze modele SSD'ków (jak słynny SAMSUNG 840 EVO) posiadały "niedoskonałe" kości pamięci flash. Jeśli zapiszemy przykładowo jeden plik na takim nośniku, to po pewnym czasie (często było to ok 1-3mc) odczyt tego konkretnego pliku bardzo mocno zwalniał i nie pomagały tu żadne aktualizacje firmware SSD, nie rozwiązywały sedna problemu.
    Problem polegał na tym, że z tych "słabych" kości pamięci ulatywał ładunek i korekcja błędów ECC musiała bardzo mocno pracować (spowalniając odczyt), aby odczytać ten plik.

    Dlatego jedynym rozwiązaniem na "odmłodzenie" i przywrócenie pełnej szybkości zapisu/odczytu takich starszych konstrukcji SSD jest jego pełne nadpisanie (całej powierzchni - dlatego z dysku wywalić trzeba wszystkie partycje tak aby był widoczny jako RAW) jedynkami (0xFF) a potem zerami (0x00) - tak aby "przeładować" cały ładunek w każdej komórce, a tym samym odświeżyć jej stan. Całą tę operację należy powtarzać co jakiś czas (miesiąc - kilka miesięcy).

    Testowałem tą metodę już wielokrotnie i działa (przynajmniej na wspomnianym SAMSUNGU 840 EVO 120GB).
    Ponadto może to aż głupie - ale miałem kilka sytuacji gdzie nośnik SSD nie osiągał pełnej szybkości (np. okolice 200MB/s odczyt/zapis - nośnik SSD Goodram Iridium PRO 480GB) poprzez słabej jakości kabelek SATA, po samej tylko wymianie na nowy dobrej jakości nagle prędkości i stabilność działania systemu były zgodne ze specyfikacją producenta. Tak więc o dobrej jakości kabelków SATA też trzeba pamiętać!
    Generalnie też polecam aby zadbać o stabilne i bez zakłóceń zasilanie dla dysku SSD jeśli chcecie aby wasz SSD nie odmówił "przypadkiem" posłuszeństwa. Można to osiągnąć stosując na linii zasilającej SSD (najlepiej fizycznie przy samym SSD) na linii +5V (SSD są zasilanie z tej linii) kondensatory elektrolityczne + ceramiczne o różnych pojemnościach, mające filtrować wszystkie "śmieci" w zasilaniu, można też dodać na tej linii jakiś "koralik-dławik", no i koniecznie za kondensatorami i dławikiem diodę zenera dużej mocy na 5,1V lub 5,6V mającą chronić przed przepięciami (choć idealnie było by dać coś szybszego niż dioda zenera np odpowiednio dobrany warystor - http://pl.farnell.com/littelfuse/v5-5mla0805nh/varistor-0805-5-5v/dp/1816931).. Bo producenci niestety w nowszych SSD'kach o to w ogóle nie dbają ,dlatego byle jakie przepięcie i dysk "siada".
    Dodatkowo trzeba zadbać o dobre chłodzenie SSD'ka - czyli umieścić go gdzieś w pobliżu wentylatora. SSD'ki nie lubią ciepła.




    Widzę też, że koledzy powyżej wspominają o pendrivach i kartach pamięci, że te sprzed "10-15 lat" o pojemności <=1GB dalej działają itp. Generalnie to, że one dalej działają możemy zawdzięczać ich procesowi technologicznemu (duże komórki pamięci) w przeciwieństwie do obecnie produkowanych pamięci z nieraz wielokrotnie mniejszymi komórkami pamięci. Czym mniejsza komórka pamięci ( = nośnik większej pojemności) tym mniej elektronów do takiej komórki się zmieści i wystarczy, że mała ich ilość "uleci w powietrze" (np. poprzez wyższą temperaturę otoczenia) a zawartości tej komórki pamięci już nie odczytasz ( szczególnie ma to kolosalne znaczenie przy komórkach MLC i TLC ! ).

  • #14 01 Kwi 2018 12:31
    TechEkspert
    Redaktor

    @mariomario Czyli jest to metoda na "odświeżenie flash", być może też zresetowanie mechanizmów GC, na WL raczej nie mamy wpływu.
    Po opisanych działaniach zapisania danymi przypadkowymi a następnie zerami rzeczywiście odczyt zaczął działać stabilniej:
    O tym jak zepsuł się SSD i udało się zachować dane.
    Zapis pokazuje, że z dyskiem nadal są problemy:
    O tym jak zepsuł się SSD i udało się zachować dane.

    Zabawy z SSD zmieniły w SMART wartość Wear Leveling Count:
    O tym jak zepsuł się SSD i udało się zachować dane.

    @Bullseye być może użytkowanie jako "komputer do internetu" nie dało w kość SSD i dlatego wytrzymał 5 lat.

    PS. Sami administratorzy forum w tym wątku się wypowiadają :)
    O tym jak zepsuł się SSD i udało się zachować dane.

  • #15 01 Kwi 2018 13:32
    mariomario
    Poziom 18  

    Tak ta metoda tylko "odświeża flash", na Wear Level nie mamy wpływu. Jak komórki się zużyją to już ich nie naprawimy. A co do zwiększenia szybkości zapisu to sprawdził bym jeszcze czy na innym kontrolerze w płycie głównej ten zapis się poprawi (też miałem takie realne przypadki gdzie niska szybkość zapis/odczyt była spowodowana niewspółgrającym kontrolerem i/lub sterownikami SATA w płycie głównej)

  • #16 01 Kwi 2018 15:27
    Bonifacy
    Poziom 23  

    Bullseye napisał:
    Swoją drogą 5 lat to czas podobny do czasu życia HDD, a coraz częściej się widuje SSDki padające po 4 - 5latach.


    Ja w większości HDD używałem dłużej niż 5 lat a PC robił mi jako serwer chodzący 24/h - teraz już mam trochę inną stację ale HDD u mnie w większości wypadków dłużej żyje.

    Bullseye napisał:
    Dlatego bawią mnie w tym wypadku deklaracje producentów ile to ich dysk wytrzyma...
    Choć z drugiej strony czy to nie jest celowe postarzanie?


    kranzio napisał:
    Teraz wszystko robi się po kosztach, byle jaki produkt, marketing zrobi swoje, logo firmowe też a w rezultacie dostajemy dziadostwo w ładnym pudełku kolorowym. Dlatego produkuje się coraz więcej elektrośmieci.


    Z jednej strony macie rację z drugiej jesteście wielkimi hipokrytami. Chcecie duże pojemności, tanio, w małym gabarycie i energooszczednie - a potem marudzicie na jakość. Oczywiście niektórzy dali by więcej aby dysk posłużył 2x dłużej ale ... czy producent będzie miał sprzedaż? czy spora część osób nie pójdzie śladem, że skoro mam płacić 2x więcej aby mieć 2x żywotniejszy dysk to nie lepiej zamiast 1x na 4 lata płacić po 500zł ,zapłacić 2x po 250 zaznaczając ze technika idzie do przodu i po 2 latach będziemy mieć większy lub szybszy dysk?

    Dobry widok jest tu z samochodami szczególnie w Europie. Silniki mają być małej pojemności aby mieściły się w normach spalania, o lekkiej konstrukcji, która się szybciej eksploatuje a do tego kupa osprzętu (awaryjnego), który ma polepszyć osiągi. W rezultacie dostajemy silnik 1,6 160-200KM - który jak jest dobrze to jedzie, że aż miło - ale nie ma co się oszukiwać nie wytrzyma tyle co stary klasyczny silnik o większej pojemności.

    Pracuję w lekko innej branży - produkujemy swego rodzaju maszyny. Standardowo dajemy gwarancję na 100 000 - 200 000 cykli. We wzmocnionych konstrukcjach nawet do 500 000. Z czego spotykało się działające dobrze bez renowacji po przejechaniu ponad 1 500 000. Kiedyś była tendencja zrobić raz a dobrze - cięższą konstrukcję, droższą ale która chodziła często ponad 30 lat. Teraz tendencje są inne - elementy lżejsze i tańsze w obróbce, czas wykonania krótszy, zużycie narzędzi do wykonania mniejsze (bo materiał nie jest taki twardy) itp. ale wytrzymałość mniejsza. Czasami jest to kwestia oszczędności zamawiającego a czasami zdrowa logika trendów mody - po roku czasu pracy otrzymywany element po prostu nie będzie modny i nikt go nie kupi, więc producent nie kupuje maszyny, która będzie wykonywała element przez 10 lat.


    Bullseye napisał:
    Karty SD sprzed 10 lat działają u mnie jak trzeba, mimo że 256 mb to zawrotna pojemność, a działa to w nawigacji więc w zasadzie dzień dnia.
    Czyżby aż tak upakowanie danych w krzemie wpływało na czas pracy?


    taaa, porównaj ile taka nawigacja zapisuje danych na karcie a ile zapisuje system w czasie pracy ;)

  • #17 01 Kwi 2018 15:43
    Bullseye
    Poziom 27  

    Bonifacy napisał:
    W rezultacie dostajemy silnik 1,6 160-200KM - który jak jest dobrze to jedzie że aż miło - ale nie ma co się oszukiwać nie wytrzyma tyle co stara klasyczny silnik o większej pojemności.

    Tak, mialem przyjemnosc jezdzic takim autem, i o ile jedzie sie samemu to jakos to jedzie, ale jak zapakujemy bagaz, ludzi czy pojedziemy w gory to raptem z deklarowanych 4L robi sie 14-15. Gdzie ta ekologia ?
    Bo moze i stare auto bedzie wywalalo wiecej szkodliwych substancji, ale dolicz do tego syf ktory sie tworzy przy produkcji nowego auta - watpliwa ekologia.

    Bonifacy napisał:
    Chcecie duże pojemności, tanio, w małym gabarycie i energooszczednie - a potem marudzicie na jakość.

    Dziwnym trafem kiedys za 80GB HDD placilem tyle samo co za SSD 256GH.
    Dysk hdd dalej mi pracuje z transferami 80mb/s, a SSD padl po 2/3 latach.
    Wiec czego wymagam ? Technologia poszla az tak do przodu ze to smietnik jest ktorego nie da sie uzywac ? :)

  • #18 01 Kwi 2018 16:01
    Bonifacy
    Poziom 23  

    Bullseye napisał:
    Dziwnym trafem kiedys za 80GB HDD placilem tyle samo co za SSD 256GH.
    Dysk hdd dalej mi pracuje z transferami 80mb/s, a SSD padl po 2/3 latach.
    Wiec czego wymagam ? Technologia poszla az tak do przodu ze to smietnik jest ktorego nie da sie uzywac ?


    Piszesz w opozycji a ja właśnie piszę o takim przypadku jak twój. Nie porównuj cen które były przy danych technologiach. Jak były dyski HDD 80 nazwijmy to w standardowej pojemności to SSD technicznie jeszcze nie było (były już macierze pamięci ale zastosowanie troszkę inne). Nie chce mi się sprawdzać lat dokładnie ale z tego co pamiętam pendrive 128MB w tamtym okresie kosztował około 200zł więc całkowicie nie trafne porównanie.

    Do tego jeśli mowa o HDD 3,5" to tak jak pisałem - pobiera sporo więcej prądu, materiału jest więcej odlew aluminium dobrze rozprasza ciepło, mniejsze prędkości dłuższe czasy dostępu - ale tak jak pisałeś to działa dłużej ale technologia wykonania inna - znana i produkowana na skalę przemysłowa wiele lat. Porównaj sobie zagęszczenie danych na takich dyskach. Jakieś rok temu kupiliśmy używaną maszynę z 98 roku (jeszcze na windowsie 95) - po zakupie w większości staram się robić takim maszynom beckup - dysk 1,2 GB oryginalny - maszyna ma bardzo dużo godzin przepracowane. przy dzisiejszym zagęszczeniu danych na talerzu raczej wątpię aby miały taką trwałość.

  • #19 01 Kwi 2018 16:17
    theded
    Poziom 14  

    Piszecie, jakby hdd się nie psuły. Z moich doświadczeń (serwis PC) to jest loteria. Awaryjność jest stosunkowo mała (kilka %) ale dyski padają zaraz po wyjęciu z pudełka, na gwarancji, po gwarancji albo po 5 latach. Czasem czytam, że te 5-7 lat typowego użytkowania to max dla HDD. Odkąd SSD potaniały to montuję ich sporo, awaryjność nie jest wcale większa, ale obecnie naprawiam głównie laptopy i brak wrażliwości na wstrząsy może trochę poprawiać ich statystykę. Szkoda tylko, że ceny jakoś nie idą w dół.

  • #20 01 Kwi 2018 16:25
    Bonifacy
    Poziom 23  

    theded napisał:
    Piszecie, jakby hdd się nie psuły. Z moich doświadczeń (serwis PC) to jest loteria. Awaryjność jest stosunkowo mała (kilka %) ale dyski padają zaraz po wyjęciu z pudełka, na gwarancji, po gwarancji albo po 5 latach.


    Nikt tego nie pisze - ale im technologia oparta na mniejszych elementach cząstkowych tym większa podatność - ale to zawsze idzie w parze - są technologie zabezpieczające, wykluczające dane efekty ale nie da się pogodzić wszystkiego.

  • #21 01 Kwi 2018 18:12
    theded
    Poziom 14  

    Technologia oparta na ruchomych elementach, to moim zdaniem nie jest ta "lepsza". Tym bardziej, że obecnie typowy konsument wybiera laptopa, gdzie dysk ma mniej korzystne warunki pracy.

  • #22 01 Kwi 2018 20:04
    Bonifacy
    Poziom 23  

    theded napisał:
    Technologia oparta na ruchomych elementach, to moim zdaniem nie jest ta "lepsza". Tym bardziej, że obecnie typowy konsument wybiera laptopa, gdzie dysk ma mniej korzystne warunki pracy.


    lepsza nie jest - ale sama technika zapisu magnetycznego w takich warunkach chyba jednak tak. Nie wiem jak ulotność danych z dysków SSD (czy ładunki n po np 50 latach ulecą) dyski HDD pod wpływem pól magnetycznych mogą być na to nie odporne ale sama trwałość zapisu jak widać (szczególnie na dyskach o mniejszej gęstości) jest lepsza. Ponadto silniki na dyskach tez dało się wykonać aby spokojnie 10 lat niemal ciągłej pracy wytrzymywały ;)

  • #23 01 Kwi 2018 20:26
    Skipperab kobieta
    Poziom 6  

    U mnie w domu w każdym laptopie jest HDD i nigdy nam nie padł (najstarszy laptop ma 13 lat i jest wciąż codziennie eksploatowany)

  • #24 01 Kwi 2018 20:51
    Bojleros
    Poziom 14  

    TechEkspert napisał:
    @mariomario przetestuję taką "regenerację" dysku, na czym opiera się skuteczność tej metody, co ona powoduje?


    Dokonanie sekwencyjnego zapisu na urządzenie blokowe dysku ssd nie odznacza wykonania sekwencyjnego zapisu w pamięci nośnika. SSD reorganizują dane w taki sposób aby minimalizować ograniczoną liczbę cykli zapisu. Według mojej wiedzy (proszę o poprawkę jeżeli się mylę) strona zapisana samymi zerami jest traktowana jako strona pusta i nadająca się do użycia na potrzeby optymalizacji. Dlatego właśnie na dyskach ssd powinno się korzystać z opcji TRIM aby przestrzeń urządzenia zajęta przez kasowane pliki była zwalniana a elektronika mogła jej na nowo użyć.

    Teoretycznie oprogramowanie moich Plextorów pokazuje , że mam tą opcję włączoną w win7 a pod Linuksem widzę trima włączonego w opcjach montowania. Niestety po roku użytkowania systemu odczuwam spowolnienie. Dwukrotnie wykonywałem prostą akcję bootując się z pendrive.

    1. Dla wszystkich partycji/punktów montowania dd bs=10M if=/dev/zero of=/mountpoint/zerowanie a potem rm /mountpoint/zerowanie. W ten sposób zeruję nieużywaną przestrzeń dyskową.
    2. Przy użyciu dd albo qemu-img convert przerzucam całe urządzenie blokowe na bok (nas).
    3. dd bs=10M if=/dev/zero of=/dev/sda ** niebezpieczny przykład ** - zeruję cały dysk ssd
    4. Przy uzyciu dd albo qemu-img przywracam zawartość dysku z nas.

    Ktoś może się zapytać po co punkt 1. Otóż spotkałem się z taką sytuacją , że nadpisywanie plików na xfs i ext4 nie powoduje zerowania użytych bloków a dodatkowo powoduje zaalokowanie nowych. W ten sposób ostatecznie pozbywam się śmieci a dysk odzyskuje wydajność sprzed roku.

    kranzio napisał:
    Teraz wszystko robi się po kosztach, byle jaki produkt, marketing zrobi swoje, logo firmowe też a w rezultacie dostajemy dziadostwo w ładnym pudełku kolorowym. Dlatego produkuje się coraz więcej elektrośmieci.


    Tak przy czym to dziadostwo jest masowo produkowane bez najmniejszych wyrzutów sumienia a nam się wciska głodne kawałki o tym jacy to my jesteśmy nieekologiczni paląc w piecu i jeżdżąc 1.9TDI ;)

    theded napisał:
    Hola, hola, nowe systemy jeżdżą po dysku wielokrotnie bardziej niż stare.


    W świecie serwerów optymalizacja od dawna przestała popłacać. Taniej kupić hw niż szukać i opłacać programistów. Czasu na to też nie ma. Popatrz jakie laptopy są dostępne w marketach na półce. Spora część sprzedawana jest z Win 10 i 4GB ram ... To chyba jakiś żart bo nawet jak to ma SSD to i tak bez pliku wymiany pamięć szybko się skończy i zaczyna się heblowanie po dysku.

  • #25 01 Kwi 2018 21:31
    lemgo
    Poziom 12  

    Tytuł jak z Onetu. Miałem nadzieję, że dysk padł i potem dało się coś z niego wydobyć. By było ciekawe. A że backup był? Ludzie dzielą się na dwie kategorie - Ci którzy robią backupy i Ci, którzy będą robić backupy. Że przyrostowy? Że darmowy? Też jakoś nie nowina.
    Reszta fajna - opis awarii i cała dyskusja potem

  • #26 01 Kwi 2018 22:27
    bialy20
    Poziom 19  

    lemgo napisał:
    Tytuł jak z Onetu. Miałem nadzieję, że dysk padł i potem dało się coś z niego wydobyć. By było ciekawe. A że backup był? Ludzie dzielą się na dwie kategorie - Ci którzy robią backupy i Ci, którzy będą robić backupy. Że przyrostowy? Że darmowy? Też jakoś nie nowina.
    Reszta fajna - opis awarii i cała dyskusja potem

    Dyskusja o drobiazgach, czyli o kosztach pojedynczego dysku... A dane?! Koszty awarii, przestoju, odtwarzania itp. A to jest istotne nawet w domowych zastosowaniach...

  • #27 03 Kwi 2018 04:40
    pawelr98
    Poziom 35  

    mariomario napisał:

    Starsze modele SSD'ków (jak słynny SAMSUNG 840 EVO) posiadały "niedoskonałe" kości pamięci flash.

    Od lat eksploatuję dwie sztuki 840EVO 120GB.

    To o czym kolega mówi to po prostu pamięć TLC.

    Weźmie kolega inne SSD używające TLC i problem będzie podobny.

    Problem rozwiązywany poprzez firmware, dysk w czasie wolnym po prostu nadpisuje dane aby na bieżąco "odświeżać" dysk.
    Dlatego jak nie chce się mieć takich "kwiatków" to po prostu należy omijać dyski z kościami TLC.

    Dyski SSD używam tylko tam gdzie trzeba.
    Tj. systemowy lub wymagające gry/programy

    Przykład Arma 3, kilkadziesiąt GB modów musi się wczytać na starcie gry

    Do danych używam HDD ze względu na koszt.
    Mam takie ilości danych że nie wypłaciłbym się jakbym miał to trzymać na SSD.

    Z prostych rozwiązań.
    Kupić tani dysk HDD o rozmiarze nieco większym od SSD i raz na tydzień robić zrzut zawartości SSD na ten dysk twardy.
    SSD mają raczej nieduże pojemności więc można pokusić się o drobną macierz RAID1 HDD na potrzeby kopii zapasowej dysku systemowego.

  • #28 03 Kwi 2018 09:02
    mariomario
    Poziom 18  

    pawelr98 napisał:
    mariomario napisał:

    Starsze modele SSD'ków (jak słynny SAMSUNG 840 EVO) posiadały "niedoskonałe" kości pamięci flash.

    Od lat eksploatuję dwie sztuki 840EVO 120GB.

    To o czym kolega mówi to po prostu pamięć TLC.

    Weźmie kolega inne SSD używające TLC i problem będzie podobny.

    Problem rozwiązywany poprzez firmware, dysk w czasie wolnym po prostu nadpisuje dane aby na bieżąco "odświeżać" dysk.
    Dlatego jak nie chce się mieć takich "kwiatków" to po prostu należy omijać dyski z kościami TLC.



    Niestety problem nie jest rozwiązany i wątpię by go rozwiązali u podstaw tego problemu - kiepskie i niedopracowane kości TLC (jedne z pierwszych TLC na rynku), które po ok 1-3 miesiącach od nieużywania danych zapisanych wcześniej w danych sektorach spowalniają odczyt tych obszarów (bo ładunek stanowiący "zera i jedynki" z tych kości szybko "ulatuje" poprzez co ECC musi pracować naprawdę mocno aby dane odczytać). SAMSUNG wypuścił bubla zamiótł tę sprawę pod dywan i tyle. Za takie coś powinien każdemu za darmo umożliwić wymianę na nowy produkt wolny od wad (tym co kupili te nośniki). A to że nowy firmware "nadpisuje" dane w wolnym czasie to tylko przyśpiesza degradację tego nieudanego produktu oraz wymaga aby na nośniku było wolne miejsce na wymianę danych. Inni producenci też nie są święci i też mieli gorsze serie.

  • #29 03 Kwi 2018 09:29
    Janusz_kk
    Poziom 14  

    TechEkspert napisał:
    Po opisanych działaniach zapisania danymi przypadkowymi a następnie zerami rzeczywiście odczyt zaczął działać stabilniej:

    To spróbuj kości podgrzać, ja tak zreanimowałem atmegę która już nie chciała się zapisywać, grzałem
    dmuchawką na granicy wylutowania tak z 15 minut, po ostygnięciu kość ruszyła.

  • #30 03 Kwi 2018 16:19
    Kwazor
    Poziom 30  

    Do autora :

    Zmień temat postu bo bardzo wprowadza w błąd ( jakbym czytał jakiegoś pudelka / onet/ inne brukowce )

    Sugerujesz samym tematem, że padł i udało Ci się odczytać dane po padzie ( a dobrze wiadomo jak SSD się zachowywuje po uszkodzeniu np .kontrolera )

    Niestety temat powinien brzmieć : Jak wyglądają objawy kończącego się dysku SSD i jak zgrać z niego dane. ( dysk jeszcze żyje )

    Na plus : Dobrze, że robisz kopie zapasowe ( sam robię 2 -3 kopie na różnych nośnikach )

    Ze swojego doświadczenia ( SSD 240GB kosci A19nm MLC Toshiby )

    Nie trzymajcie dysku za długo odłączonego od prądu ( komu nie raz już wcięło zdjęcia na kartach SD albo była połowa zdjęcia ?-- miałem tak )
    Niestety ulot ładunku z komórki postępuje ( najbardziej było to widać z pierwszymi dyskami na TLC--słynna czkawka odczytu -- podobnie jak u autora -- problemy z za słabym sygnałem z komórki bo ładunek jest za mały -- całe szczęście są dane CRC )

    Wyjąłem dysk na 2 miesiące ( pracowałem na mechanicznym ) i po 2 miesiącach włożyłem go spowrotem.
    Wszystko ładnie pięknie w SMART a po 2 dniach pracy 2 reloki...( dysk nawet nie miał zapisane 1.5 TB a wytrzyma 300 TB )

    I tu wyjaśniła się zagadka z jednego z długodystansowych testów dysków SSD gdzie user miał zapisane około 1PB i musiał odłączyć kompa na 15 minut by go przenieść. Po uruchomieniu dysk już niewidoczny ( A smart nie wykazywał anomalii ).

    Technologia NAND jest fajna ale ma poważne wady i retencja danych jest niska.
    A jeszcze dołóżmy do tego wyższą temperaturę i mamy gotową katastrofę ze znikającymi danymi.

    Karta SD Plextor 2 GB miała w sobie kość od samsunga i w PDF doczytałem, że w wersji pierwszej kości czas retencji danych 10 lat w V2.0 5 lat... a ja po 2 latach już miałem problemy z odczytem najstarszych danych..

    A jak usunięto wadę pierwszych TLC by nie dostawały czkawki ?

    Proste co X czasu dysk przepisuje dane z komórki A na komórkę B ( lepszy wał to taki że SMART nie pokaże tego jako zapis danych NAND ( host writes )..