Intel SSD 760p: QLC-Flash soll haltbarer werden

Der zeitliche Arbeitsaufwand wäre sehr gering: Wie du selbst schreibst, muss man die SSDs eigentlich nur lagern. Für vergleichbare Bedingungen muss man sie dazu nur alle in der gleichen Schublade vergessen.
Naja... also meine Schubladen halten weder die Raumtemperatur irgendwie konstant über Tages- und Jahreszeiten und irgendwie hätte ich auch keine Lust +10, +30 oder +40°C in der Bude zu haben.

Ne Spaß beiseite, wenn dann müsste man schon nen Thermoschrank haben um auch länger bei konstant erhöhten Temperaturen zu lagern. Es wäre vielleicht ne Überlegung, SSDs nach dem Beschreiben (bei Raumtemperatur) mal für ein, zwei, drei, sechs, zwölf Monate bei +50°C zu lagern und dann zu schauen was noch drauf ist. Da praktische Lagertemperaturen hoffentlich immer unter dieser Temperatur sind hätte man dann zumindest mal ne Untergrenze an Datenhaltbarkeit gefunden. Wenn etwa bei 6 Monaten noch alles da ist aber bei 12 Daten korrupt sind bei 50°C Lagerung könnte man schon mal sicher sagen, dass alles unter nem halben Jahr stromlos lagern kein Problem ist wenn man seine SSD nicht im Backofen lagert.

Dass die tatsächlichen Zeiten noch weit höher sind kennt man ja aus der Praxis (USB-Sticks die man in der Schublade nach Jahren findet die noch Daten enthalten...) - aber auch dass das nicht immer so sein muss: So mancher der es für ne gute Idee hielt seine Fotosammlung auf nem Stick zu backuppen hat schon blöd dreingeschaut als beim Festplattentod Jahre später und dem Versuch den Stick auszulesen nix mehr ging außer "Dateisystemfehler".
 
Ich denke mal meine qlc Platte, auf der vorallem Spiele und Programme liegen uns damit wenige Schreibvorgänge macht, wird mich überleben. Als Betriebssystem Platte würde ich jedoch vielleicht nicht umbedingt eine QLC einbauen, ansonsten sollte es jedoch egal sein.
 
- aber Tests die auf Datenstabilität abzioelen kenne ich keine (öffentlich zugänglichen), denn die wären wenn sie richtig gemacht sind halt sehr aufwendig.
Die sind nicht nur aufwändig, sie sind ohne Intel nicht durchführbar. Mir ist jedenfalls kein Weg bekannt, mit dem ich feststellen kann, ob die SSD mir die Daten mit oder ohne interne Fehlerkorrektur liefert.

Ich meinte 1 TBW pro Monat, da bin ich statistisch gesehen in der Spitzengruppe. (ja, ich weiß, es geht noch krassser)
Wer seine SSD als Swap-Speicher oder den produktiven DB-Server nutzt wird sich wohl keine QLC-SSD kaufen.

Aber selbst damit würde eine Intel 660p noch 400 Monate halten, also gut 33 Jahre. Was will ich in 30 Jahren noch mit einer so lahmen und kleinen SSD?

Als Betriebssystem Platte würde ich jedoch vielleicht nicht umbedingt eine QLC einbauen, ansonsten sollte es jedoch egal sein.
Meine Intel 660p zeigt nach 21 Monaten noch keine Probleme (eine Partition für das OS, die andere für Daten, die eher gelesen wie geschrieben werden). Und bis auf ganz wenige, schon vor dem Kauf bekannte Ausnahmen, habe ich in der Praxis noch keinen Unterschid zur Samsung 970 Evo bemerkt.

Wer aber knauserig ist und plant, seine SSD bis auf das letzte Bit voll zu schreiben, wird irgendwann mit derzeitigen QLC-Laufwerken weniger Spaß haben wie mit TLC/MLC/SLC Laufwerken.

Das ist halt wie mit SMR-Platten: wer nicht weiss, wie er mit seinem Zeug umgeht, der kauft nur zufällig das für ihn passende.
 
Mir ist jedenfalls kein Weg bekannt, mit dem ich feststellen kann, ob die SSD mir die Daten mit oder ohne interne Fehlerkorrektur liefert.
Naja, man müsste halt so lange warten bis das Auslesen durch eine hart geforderte Fehlerkorrektur sehr langsam wird (wenn ne SSD auf einmal nur noch mit gefühlten 2 MB/s liest weißte Bescheid... so gesehen bei der 840EVO damals) oder die Daten schlichtweg korrupt sind und die Fehlerkorrektur machtlos.

Das ist zugegeben sehr soft, du hast schon Recht dass mans ohne den Hersteller nicht wirklich exakt darstellen kann.
 
Ist dann halt auch die Frage was genau man bewerten will. Die SSD als Gesamtkonstrukt oder sie Flash-Zelle?
Erstere könnte man ohne Unterstützung testen, letztere eher nicht. Wobei bei ersterem halt auch die Frage ist was dann für failsafes drin sind. Wenn man z.B. regelmäßig einen Lesezugriff testet gewinnt die SSD die in dem Moment refreshs macht, das hilft aber garnichts wenn der Nutzer sie dann für die angeblich mögliche Lagerzeit komplett wegschließt.
 
Wenn man z.B. regelmäßig einen Lesezugriff testet
Das funktioniert sowieso nicht. Du musst für jeden Zeitraum eine eigene SSD haben die stromlos so lange wartet bis die Wartezeit verstrichen ist.
Jede moderne (bessere) SSD die mit Energie versorgt wird beginnt ganz automatisch damit, ihren Speicher aufzufrischen. Den Klogriff von Samsung damals machen die Hersteller sicher nicht nochmal^^
 
Wer seine SSD als Swap-Speicher oder den produktiven DB-Server nutzt wird sich wohl keine QLC-SSD kaufen.

Irgendwann wird es nichts anderes geben. Die 980 Pro verfügt ja auch nur über TLC Flash, der, bei der Einführung den Ruf hatte, absolut grottig zu sein. Heute ist das High End, wenn man nicht 1000€ pro TB für Intel Optane hinzulegen. Irgendwann wird QLC dann das neue High End sein, aber damit muß man sich wohl erst mit der Samsung 1040 Pro (oder wie auch immer die SSDs in 6 Generationen heißen werden) auseinandersetzen.

Aber selbst damit würde eine Intel 660p noch 400 Monate halten, also gut 33 Jahre. Was will ich in 30 Jahren noch mit einer so lahmen und kleinen SSD?

Die Haltbarkeit wird weiter sinken, irgendwann ist eben die Grenze erreicht, an der es unterhalb von Akzeptabel ist. Zusätzlich kommt da auch noch eben die psychologische Komponente hinzu und die ist eigentlich noch wichtiger. Wir Menschen sind eben keine Maschinen, die von der Logik gesteuert werden.
 
Ist dann halt auch die Frage was genau man bewerten will. Die SSD als Gesamtkonstrukt oder sie Flash-Zelle?
Ich fand es bei CDs/DVDs durchaus sehr hilfreich schon vor einem Datenverlust (bzw. direkt nach dem Brennen) zu wissen, ob die Rohlinge nur Dank Fehlerkorrektur und gutem Laufwerk nutzbar waren oder die Wahrscheinlichkeit eines Datenverlustes eher geringer einzuschätzen ist.

Für so einen Test mit SSD müsste man die Unterstützung der Hersteller und eine entsprechende Firmware haben.

Irgendwann wird es nichts anderes geben. Die 980 Pro verfügt ja auch nur über TLC Flash, der, bei der Einführung den Ruf hatte, absolut grottig zu sein.
Gerade die 980 Pro ist für mich ein völlig nuztloses Produkt. Nicht auf Grund des TLC Speichers, sondern auf Grund der max 1TB (gibt es TR Boards mit 4-5 M.2 Slots, dass man so verschwenderisch damit umgehen kann?). Und mit ihren 600 TBW ist sie auch nicht gerade dafür ausgelegt, in einer Workstation genutzt zu weden, die geringe Datenmengen ständig neu schreibt.

Wenn die Hersteller für solche Aufgaben eine größere SSD aus entsprechend vielen QLC Chips mit passendem Cache und zugesicherter TBW bauen, dürfte das wieder irrelevant sein. Server-SSDs sind ja auch nicht für stromlose Lagerbarkeit ausgelegt.

Ich hatte mir schon Anfang 2019 bewusst die 2TB Variante der 660p gekauft, weil mir alle 1TB Varianten (auch die Crucial P1) im Extremfall viel zu langsam waren. Wie das bei der 760p aussehen wird, weiss noch keiner.

Zusätzlich kommt da auch noch eben die psychologische Komponente hinzu und die ist eigentlich noch wichtiger.
Nachdem ich keine hochkritischen Daten ohne Sicherung nutze, wird meine private HW grundsätzlich verwendet, bis sie entweder defekt, zu langsam oder zu klein ist. Ich traue dem 7 Jahre alten MLC-Speicher meiner Crucial m500 genauso wie dem QLC-Speicher der Intel 660p oder dem Flash auf diversen CF- bzw. SDXC-Karten aus 2008.

Wenn ich die m500 und die 660p in 30 Jahren noch selber "sinnvoll" nutzen kann, bin aus ganz anderen Gründen sehr glücklich.

Aber Du hast natürlich Recht: wer einer Technologie nicht traut wird sie niemals freiwillig nutzen. Nachdem es heute noch MCL SSDs gibt, wird auch TLC nicht so schnell aussterben und man muss nur bereit sein, dafür entsprechend zu zahlen.
 
Zurück