News Ein Petabyte auf einer SSD: Samsung hält 1.024 Terabyte für möglich

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ein Petabyte auf einer SSD: Samsung hält 1.024 Terabyte für möglich

Bis zu ein Petabyte, also 1.024 Terabyte soll laut Samsung auf eine SSD passen. Das behauptete das Unternehmen auf dem China Flash Memory Market Summit. Das geschehe nicht unbedingt "über Nacht", sei aber durchaus realistisch. Mehr als 1.000 Lagen an Speicherzellen beim 3D-NAND sollen das ermöglichen

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Ein Petabyte auf einer SSD: Samsung hält 1.024 Terabyte für möglich
 
Und die 8bpc-SSDs werden dann WORM-Medien...? ;-)

Von SLC auf MLC und TLC waren die Kapazitätssprünge ja noch wirtschaftlich, bei QLC vielleicht auch noch aber darüber wirds doch schon dünn bzw. der technische Aufwand und die entstehenden Nachteile immer größer gegenüber dem Nutzen, 5 statt 4 Bits pro Zelle beispielsweise speichern zu können. In dem Bereich sehe ich mich persönlich auch noch lange nicht. Nicht deswegen, weil 5, 6, 8 bpc am Ende nur noch wahrscheinlich 500, 200, 50 Schreibvorgänge erlauben bis die Zelle tot ist und wir mit 30 MB/s schreiben (was beides für Datengräber immer noch reicht) sondern weil ich kein Vertrauen in die Datenintegrität mehr habe.
Wenn 2^n Spannungszustände unterschieden werden müssen und erstens n immer größer wird aber der mögliche absolute Unterschied in der Spannung gleich bleibt werden die Spannungunterschiede mit steigendem n sehr viel kleiner. Wenn man nun weiß, dass SSD-Zellen wie alle anderen Kondensatoren auch nicht 100%tig "dicht" sind werden Bitflips, also korrupte Daten, immer wahrscheinlicher, je mehr Bit pro Zelle gespeichert werden sollen. Der Controller muss hier also einen extremen Aufwand betreiben, die Daten "frisch zu halten" bzw. dem natürlichen Entladevorgang entgegenzuwirken. Wie gut das funktioniert müssen die SSD-Hersteller erst mal beweisen. Da sind sie schon bei TLC (840Evo damals) erstmals drüber gestolpert - und das waren "nur" 8 Zustände, keine 256...
 
Kommt letztlich auch auf den Formfaktor an. Die ersten 8TB-SSDs im Format M.2 2280 gibt's ja bereits. Wenn man die gleiche Dichte auf 3,5" skaliert, denke ich schon, dass heute bereits 100TB oder mehr drin sein könnten.
Der Preis steht dann wieder auf einem anderen Blatt. Ist zwar noch kein Petabyte, aber in ein paar Jahren sollte das definitiv technisch möglich sein.
 
Erstmal abwarten, ob das nicht der April-Scherz für dieses Jahr ist :-o.
PLC-SSDs sind auch außerhalb des 1. April schon angekündigt worden und 200 TB große SSDs gibts bereits wenn auch nicht für Endkunden.
Wenn das hier als 1. April gedacht war, war die Meldung eigentlich zu nahe an der Realität. :-D

@Ugh-Tech
Wie gesagt, es gibt derart große SSDs schon länger: https://www.neowin.net/news/after-1...pacity-300tb-nvme-ssds-could-be-here-by-2026/
Das Problem ist nicht der physische Platz (in das Volumen einer HDD könnte man schon heute Petabyteweise Flash löten) sondern das Controlling der ganzen Speichersteine. Controller mit mehr als 8 Kabnälen (also mehr als 8 ansprechbaren Steinen) sind im Endkundenbereich nicht vorhanden da extrem teuer. Deswegen gibts da auch "nur" 8TB-SSDs. 8 x 1TB eben.
 
Und die 8bpc-SSDs werden dann WORM-Medien...? ;-)

Von SLC auf MLC und TLC waren die Kapazitätssprünge ja noch wirtschaftlich, bei QLC vielleicht auch noch aber darüber wirds doch schon dünn bzw. der technische Aufwand und die entstehenden Nachteile immer größer gegenüber dem Nutzen, 5 statt 4 Bits pro Zelle beispielsweise speichern zu können. In dem Bereich sehe ich mich persönlich auch noch lange nicht. Nicht deswegen, weil 5, 6, 8 bpc am Ende nur noch wahrscheinlich 500, 200, 50 Schreibvorgänge erlauben bis die Zelle tot ist und wir mit 30 MB/s schreiben (was beides für Datengräber immer noch reicht) sondern weil ich kein Vertrauen in die Datenintegrität mehr habe.
Wenn 2^n Spannungszustände unterschieden werden müssen und erstens n immer größer wird aber der mögliche absolute Unterschied in der Spannung gleich bleibt werden die Spannungunterschiede mit steigendem n sehr viel kleiner. Wenn man nun weiß, dass SSD-Zellen wie alle anderen Kondensatoren auch nicht 100%tig "dicht" sind werden Bitflips, also korrupte Daten, immer wahrscheinlicher, je mehr Bit pro Zelle gespeichert werden sollen. Der Controller muss hier also einen extremen Aufwand betreiben, die Daten "frisch zu halten" bzw. dem natürlichen Entladevorgang entgegenzuwirken. Wie gut das funktioniert müssen die SSD-Hersteller erst mal beweisen. Da sind sie schon bei TLC (840Evo damals) erstmals drüber gestolpert - und das waren "nur" 8 Zustände, keine 256...

30 MB/s schreiben...(was beides für Datengräber immer noch reicht)

Man kann darüber diskutieren was man als Datengrab bzw. "reicht" verstehet aber:
Nein; nicht mal ansatzweise.
Ich nutze meine alten HDDs als Datengrab und da komme ich auf deutlich über 150MB/s (je nach Art der Daten natürlich) und selbst das nervt schon.

Über das Vertrauen in die Datenintegrität sehe ich sehr ähnlich.
 
Offenbar ein Aprilscherz und zwar ein relativ schlecht gemachter. Da es heute schon SSDs mit 100TB gibt, ist 1PB nur der logische nächste Schritt. Da hätte man noch drei Nullen dranhängen sollten und eine etwas absurde, aber doch logische Erklärung liefern sollen, warum das möglich ist. Die ct ist gut in solchen Scherzen (Lipra, ein Programm, das normale CD Laufwerke in Brenner verwandelt [damals waren CD Brenner noch sehr teuer], samt plausibler Erklärung oder ein Tool, das mittels der Drehzahl der HDD den Standort bestimmen sollte), in der Gamestar gab es auch mal Monitore (von Samsung), die auf eine neuen Technologie basierten und spottbillig waren, man mußte nur noch Wasser einfüllen. Die PC Joker hatte den "Multi Game Link Creator", mit dem sich alle Spiele verbinden lassen. Mit einem Rennwagen aus Need for Speed durch eine Fantasywelt fahren? kein Problem.

Aber gut, nächstes Jahr gibt es noch eine Chance.

(...) sondern weil ich kein Vertrauen in die Datenintegrität mehr habe.

Ich warte einfach immer ein paar Jahre ab und schlage dann erst zu. Wenn es wirklich ein Problem gibt, dann haben irgendwelche Leute ihre Speicherkarten oder SSDs Jahre lang stromlos im Schrank gelassen. Wenn da etwas von Datenverlusten bekannt wird, dann weiß ich, dass ich die Dinger regelmäßig mit Strom versorgen m,uß.

QLC ist seit einiger Zeit für mich auch kaufbar.

Da sind sie schon bei TLC (840Evo damals) erstmals drüber gestolpert - und das waren "nur" 8 Zustände, keine 256...

Wobei man da bis heute nicht weiß, woran es gelegen hat, vermutlich Geschäftsgeheimnis. Die 19nm TLC Zellen können es eigentlich nicht gewesen sein, jedenfalls nicht vom Prinzip. Die kann man Jahre lang ohne Strom lassen.
 
Zuletzt bearbeitet:
Ich nutze meine alten HDDs als Datengrab und da komme ich auf deutlich über 150MB/s (je nach Art der Daten natürlich) und selbst das nervt schon.
Es ging ja auch um "reichen", nicht um "nerven".
Ich hab hier 2x16 TB an HDD-Speicher im PC als Datengrab (gespiegelte HDDs). Da eine Platte auszutauschen und neu zu beschreiben wie ich es vor kurzem defektbedingt tun musste ist ganz sicher kein Spaß da das 20-30 Stunden dauert die Daten auf die neue Platte zu spiegeln. Aber das ist trotzdem nicht wirklich schlimm da es im Hintergrund automatisch läuft und nichts behindert. Die Daten darauf sind ja nicht im produktiven Betrieb wo das relevant wäre.

Ich warte einfach immer ein paar Jahre ab und schlage dann erst zu.
Ich in den Sachen in der Regel auch.
Wobei man da bis heute nicht weiß, woran es gelegen hat, vermutlich Geschäftsgeheimnis.
Die genauen Details werden wir nie erfahren. Aber dass es Probleme mit der Erhaltung/Auffrischung der Daten gab ist klar - und dass das problem so schlimm war dass Samsung es nicht "elegant" lösen konnte auch. Denn das Firmware-Update der SSDs das das Problem behoben hat macht nichts anderes, als Daten auf der SSD in regelmäßigen Abständen neu zu schreiben ohne die dabei erzeugten Schreibvorgänge auf den SMARTwert anzurechnen. Löst natürlich das Problem, ist aber ne ziemlich intransparente Holzhammermethode^^
 
Es ging ja auch um "reichen", nicht um "nerven".
genau deswegen schrieb ich ja: =>
Man kann darüber diskutieren was man als Datengrab bzw. "reicht" versteht aber:
:D

....20-30 Stunden dauert....
Ich kenne diese Zeiten (und noch deutlich mehr) von meiner NAS.
Das nervt schon auch wenn man da nichts selber machen muss.
Wenn dann hier noch die Schreibgeschwindigkeit auf einmal nur noch ~ein fünftel oder weniger (30MB/s) wäre ....
 
Kein Aprilscherz, ihr Profis. Haben nur einen pro Jahr und den habt ihr doch schon entdeckt.

Das hier ist ganz gewöhnlicher Clickbait per Superlativ.
 
1000 Lagen? OMG!:fresse:

Wie sieht es denn dann mit der Haltbarkeit aus? QLC soll ja z.B. weniger langlebig sein als TLC.
 
Zurück