Skocz do zawartości

Crucial MX500 250GB - szybko spada procentowa (%) żywotność


Recommended Posts

Witam serdecznie,

Dokładnie 2 lutego tego roku kupiłem Cruciala MX500 o pojemności 250 giga. Na dzień dzisiejszy w programie CrystalDiskInfo jego stan jest klasyfikowany na dobry 86%. Czy to trochę nie za szybko biorąc pod uwagę ile godzin przepracował i ile danych zapisał? W laptopie posiadam ADATA SU 800 od ponad roku i stan dalej wynosi praktycznie 100%. Czy to może być wadliwy egzemplarz? Czy może mam ustawione coś o czym nie wiem w systemie? Proszę o porady i pomoc. Załączam screena z wyżej wymienionego programu.

https://ibb.co/HNNYRnB

Link to post
Share on other sites

Smart jest czysty, dysk wyglada w porzadku.Nie jestem pewien ale byc moze te zuzycie dysku zalezy od ilosci zapisanych danych w TB (w tabelce SMART parametr "CA").Pewnie w kazdym dysku SSD w zaleznosci od jego zywotnosci i producenta te wyniki sa inne.

Link to post
Share on other sites

Jest to dysk systemowy. Oprócz ostatniego miesiąca używany bardzo sporadycznie w tygodniu, a bardziej w weekend jak wracałem do domu. 10 gb na godzinę to jest niemożliwe, żebym świadomie ciągle przerzucał takie ilości plików, owszem na ten dysk pobierane są często multimedia, ale nie wydaje mi się, żeby takie ilości. Ta suma zapisów hosta z tego co dobrze pamiętam nie zaczynała się od 0. Nie ma jakiś opcji systemowych w win 10, które mogą powodować większe zużycie dysku? Bo co śmieszne ten ADATA na laptopie jest używany dokładnie w ten sam sposób jak ten Crucial i nie wykazuje podobnych problemów. 

Link to post
Share on other sites

 

 

Ta suma zapisów hosta z tego co dobrze pamiętam nie zaczynała się od 0
 

To ciekawe. Gdzie go kupowałeś? Może ze zwrotu był

 

 

Nie ma jakiś opcji systemowych w win 10, które mogą powodować większe zużycie dysku?

Odpal sobie monitor zasobów i sprawdź czy coś zapisuje na tym dysku ciągle 

Link to post
Share on other sites

procenty żywotności to tak naprawdę przetworzona wartość parametru AD (D3=211), czyli producent założył aż 1500 cykli P/E dla najczęściej używanej komórki pamięci (bloku), co jest wykonalne przy użyciu LDPC. Patrząc po zapisie, powinieneś mieć coś koło 26 cykli średnio. Być może kochany crucial, ustawił dość agresywnie odświeżanie danych? Albo dość często używasz pliku stronicowania. Bo wear leveling nie działa dobrze, patrząc po różnicy 1 do 8, między średnim użyciem, a najgorszym... 

@@sebki1, okienko wygląda jak z win 10, więc wszytko powinno być z automatu OK. 

 

 

Ta suma zapisów hosta z tego co dobrze pamiętam nie zaczynała się od 0

Tylko patrzyłeś na to, jeszcze przed instalacją Windowsa? 


koniec końców, przydałby mi się smart innego MX500, albo kilka, aby porównać, czy wear leveling na dysku systemowym, rzeczywiście tak źle działa. 

Link to post
Share on other sites

Tak, defragmentacja wyłączona, AHCI włączone, TRIM włączony.

@kokosnh Nie, no po instalacji. 

A chciałbym się dowiedzieć. Czy te procenty są miarodajne? Czyli po dobiciu do 0% dysk definitywnie pada? Czy jest to bardziej swego rodzaju wskaźnik informujący, że po uzyskaniu 0% mogą pojawiać się błędy w pracy dysku?

Link to post
Share on other sites
A chciałbym się dowiedzieć. Czy te procenty są miarodajne? Czyli po dobiciu do 0% dysk definitywnie pada? Czy jest to bardziej swego rodzaju wskaźnik informujący, że po uzyskaniu 0% mogą pojawiać się błędy w pracy dysku?

 Tak naprawdę jak dobije do 0, to oznacza, że najgorszy blok ma 1500 cykli zapisu i kasacji. Problem trochę taki że pamiętam dane dla MLC nie TLC. 

Przy MLC motyw był taki, że komórki średnio wytrzymywały 2 do 3 razy więcej niż specyfikacja, zakładając podmienianie zapasowych bloków NAND za te padnięte (tylko w spec najczęściej były kody BCH i to słabe dla 3000 P/E czyli zaniżone dane). Ale po przekroczeniu progu w specyfikacji, rzeczywiście zaczynały padać kolejne bloki coraz częściej. 

Tu trochę głupio mi zgadywać, bo to wartość najgorszego bloku, średnia to 26 cykli zapisu i kasacji co nie jest złym wynikiem (choć mieliśmy tu przypadek, gdzie w takiej adat-a SU650 już po 6 cyklach P/E poszły kostki). 

 

 

Ogólnie Co byś nie robił, to SSD będzie działać, zwolni co najwyżej, jak będzie miał jednostkowe problemy z zapisem, lub odczytem komórek i będzie musiał się algorytmami korekcji błędów podpierać. Ogólnie pojedyncze incydenty, nic jakiegoś globalnego, chyba że zaraz zanim umrze. 

 

Główny problem żywotności NAND to nie to, że przestaje działać, bo działać będzie ciągle. Problem polega na tym, że po zbliżeniu się do granicy wytrzymałości kostek, dane po prostu mogą się ulotnić, jak zostawisz SSD na kilka tygodni bez prądu (lub dni, jeśli będzie bardzo gorąco). Ogólnie nie będzie ostrzeżenia, po prostu padnie, rzadko który przejdzie w tryb tylko do odczytu. 

Jeśli przekroczysz bardzo specyfikację kostek, to po zwykłym wyłączeniu, może już nic nie być na SSD. 

 

Raz widziałem dość fajne testy na rosyjskiej stronie, mieli dość "nowe" konstrukcje tam przetestowane... Jak znajdę to się odniosę. 

 

Do tego należy pamiętać, że każdy SSD jest inny, loteria krzemowa niestety. 

  • Popieram 1
Link to post
Share on other sites

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Odpowiedz w tym wątku...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...