Seagate Mach.2: Schnellste HDD der Welt gelistet

Informier dich doch bitte zuerst mal, bevor du solchen Mist behauptest!

Hab ich schon lange. Die Haltbarkeit von Flash steigt exponentiell mit der Fertigungsgröße und sinkt etwa um den Faktor 4 mit jedem Bit mehr, das man mehr in einer Zelle unterbringt. Optane ist nochmal etwas anderes und schon aus Prinzip extrem langlebig.

In dem Fall hast du keine Ahnung.
 
Hab ich schon lange. Die Haltbarkeit von Flash steigt exponentiell mit der Fertigungsgröße und sinkt etwa um den Faktor 4 mit jedem Bit mehr, das man mehr in einer Zelle unterbringt.
Es geht [Technologie_Texter] weniger um die Haltbarkeit sondern um die Permanenz der darauf gespeicherten Daten. Wenn du ne HDD 20 Jahre in die Schublade legst sind alle Daten noch da, bei ner (beliebigen) SSD sind alle Daten korrupt/verschwunden. Es hilft dir nicht wenn ne SSD 500 Jahre haltbar ist aber nach 3 Jahren deine Daten futsch sind.

SSDs eignen sich dann als Langzeitarchiv wenn sie regelmäßig aufgefrischt werden. Für ne reine Offline-Ablage sind Magnetspeicher weiterhin die bessere Wahl.


Was den "Boden des Fasses" betrifft den du nennst: Ja, den gibts bei SSDs natürlich - aber langfristig gesehen dürfte der Boden da deutlich tiefer als bei HDDs liegen. Selbst mit allem was da vielleicht noch kommen mag an HAMR usw. sind bei HDDs im Bereich von 100 TB (im 3,5er Format) physikalische Grenzen gesetzt (da magnetisierbare Bereiche nicht beliebig klein werden können). Diese Grenze gibts bei Flash zwar auch aber hier kannste ganz "simpel" durch breitere Controller und mehr Speicherchips pro PCB mehr Daten unterbringen. Wie gesagt auf die PCB-Größe einer FHFL-PCIe-Karte kriegste wenn man will locker Petabyteweise Daten drauf, selbst ohne weitere Strukturverkleinerung. Da kommste mit ner Magnetfestplatte niemals hin. Ob das irgendwann preislich konkurrenzfähig ist ist ne andere Frage aber rein vom technischen Potential her kannste mit Flash viel weiter kommen an Daten pro (Bau-)Volumen alls mit HDDs.
 
Zuletzt bearbeitet:
Es geht [Technologie_Texter] weniger um die Haltbarkeit sondern um die Permanenz der darauf gespeicherten Daten. Wenn du ne HDD 20 Jahre in die Schublade legst sind alle Daten noch da, bei ner (beliebigen) SSD sind alle Daten korrupt/verschwunden. Es hilft dir nicht wenn ne SSD 500 Jahre haltbar ist aber nach 3 Jahren deine Daten futsch sind.

Ich meinte die Permanenz, die für mich mit zur Haltbarkeit gehört. Die bei den SSD, die noch in den großen Strukturen gefertigt wurden, unglaublich groß. Wenn man eine HDD 20 Jahre in die Schublade legt, dann kann es durchaus passieren, dass die nichtmehr funktioniert, da das Lager hin ist.

Dass QLC SSDs für die Langzeitarchivierung nicht so geeignet sind ist klar. Wobei sich erst noch zeigen wird, wann das zum Problem wird. Wird werden es bei PLC oder HLC sehen.

SSDs eignen sich dann als Langzeitarchiv wenn sie regelmäßig aufgefrischt werden. Für ne reine Offline-Ablage sind Magnetspeicher weiterhin die bessere Wahl.

Richtig gelagerte Magnetbänder eventuell, bei HDDs sollte man dann ein Backup auf verschiede Platten man. Ich Persönlich würde mir eine geeignete SSD kaufen, wenn ich Daten hätte, die auch nach 100 Jahren lesbar sein sollen. Samsungs alte 40nm MLC SSDs wären da die erste Wahl, Intel hat mit den 311ern eine SLC Serie herausgebracht, auch die frühen MLC Serien sind gut. Wobei die alle sehr viel kosten. Wer Neuware will, der sollte Optane nehmen, da dürfte es noch ein paar 16 oder 32GB Restposten geben, dann klappt es auch mit dem nächsten Jahrtausend.

Was den "Boden des Fasses" betrifft den du nennst: Ja, den gibts bei SSDs natürlich - aber langfristig gesehen dürfte der Boden da deutlich tiefer als bei HDDs liegen. Selbst mit allem was da vielleicht noch kommen mag an HAMR usw. sind bei HDDs im Bereich von 100 TB (im 3,5er Format) physikalische Grenzen gesetzt (da magnetisierbare Bereiche nicht beliebig klein werden können). Diese Grenze gibts bei Flash zwar auch aber hier kannste ganz "simpel" durch breitere Controller und mehr Speicherchips pro PCB mehr Daten unterbringen. Wie gesagt auf die PCB-Größe einer FHFL-PCIe-Karte kriegste wenn man will locker Petabyteweise Daten drauf, selbst ohne weitere Strukturverkleinerung. Da kommste mit ner Magnetfestplatte niemals hin. Ob das irgendwann preislich konkurrenzfähig ist ist ne andere Frage aber rein vom technischen Potential her kannste mit Flash viel weiter kommen an Daten pro (Bau-)Volumen alls mit HDDs.

Das ist klar, die Kapazität pro Volumen ist aber für das überleben der HDDs quasi egal, wichtig ist nur der Preis pro TB und da ist der Boden bei den SSDs bald erreicht. Mir ging es nur darum, der Rest ist egal.

Wenn man natürlich eine Marsmission plant, dann ist das natürlich vorrangig, aber die meisten Rechenzentren stehen auf der Erde. Wenn sich die HDDs noch um den Faktor 3 bis 5,5 steigern können und die SSDs nur um den Faktor 2-3, dann ist das Überleben der HDDs erstmal gesichert.
 
wichtig ist nur der Preis pro TB und da ist der Boden bei den SSDs bald erreicht.
Schauen wir Mal.
Wie du ja selbst genannt hast ist 3D XPoint/"Optane" deutlich anders aufgebaut als NAND Flash und skaliert afaik noch ein paar Größenordnungen weiter nach unten.
Deswegen wundert mich auch dass man die Technik seitens Intel abstoßen wollte. Eigentlich ist die Zukunftssicherer als NAND.
 
Nur für Normale Konsumenten eher unerschwinglich, wenn man 480GB davon mit fast 600€ bezahlen muss.
Die XPoint Technik ist hingegen in Sachen Haltbarkeit vielfach und auch effektiv bei der Geschwindigkeit den NANDs teils überlegen.
 
Deswegen wundert mich auch dass man die Technik seitens Intel abstoßen wollte. Eigentlich ist die Zukunftssicherer als NAND.

Es ist eben die Frage, wie sich das verkauft und das war halt einfach nicht so gut.

Klar will jeder, dass seine Daten lange erhalten bleiben sollen, 1000 Jahre mindestens, ach was, 10.000 Jahre, damit die Archäologen der Zukunft sich unsere Surfgewohnheiten zu gemüte führen können (was sie auch garantiert tun werden, wenn ihnen so eine SSD in die Hände fällt). Dann so soll sie viele Schreibzyklen verkraften, die Million ist echt nicht schlecht, auch wenn man vermutlich in den meisten Fällen nichtmal hundert brauchen wird. Schnell soll das ganze auch noch sein, nach oben gibt es keine Grenze.

Dummerweise sind nur wenige bereit auch dafür zu bezahlen und dann kommt die Weisheit zum tragen, die mir mein Dozent in einer Wirtschaftsvorlesung vermittelt hat "liefere nie das, was dein Kunde will, sondern das, wofür er dich bezahlt!".

Und der Kunde bezahlt nunmal in erster Line für Speicherplatz. Dann für Spitzengeschwindigkeit und einige, sehr wenige, wollen auch Dauerleistung. Deshalb erfreuen sich QLC SSDs auch solcher Beliebtheit und ich muß sagen: zu recht. Auch Samsung hat seine Pro SSDs auf TLC umgestellt. 40nm MLC war, mit seinen 36.000 Schreibzyklen echt gut, nur kaum einer hat ihn gebraucht und nur sehr wenige extra dafür gezahlt.

Optane war eine geniale Sache, nur konnte sie sich nie richtig etablieren. Statt 32GB Cache für die HDD investiere ich lieber in eine 500GB SSD, da hat man mehr davon. Die Profis, die das schätzen, sind nicht sonderlich zahlreich. Als RAM Erweiterung wäre es zwar absolut genial (z.B. 4-32GB RAM und 64-256GB Optane), nur leider unterstützt das OS dies nicht. Somit war das leider ein Fehlschlag.

Wobei Chia dafür sorgen könnte, dass sich das wieder ändert, solange der Miningboom anhält.
 
Dass QLC SSDs für die Langzeitarchivierung nicht so geeignet sind ist klar. Wobei sich erst noch zeigen wird, wann das zum Problem wird.
Das Experiment dürfen gerne andere machen, ich halte mich da eher an die Vorgaben der JEDEC (so lange es bezahlbar bleiben soll), meine Erfahrungen mit massenweise Consumer HDDs (unter meinen Lagerbedingungen) und weniger an meine Erfahrungen mit 10-15 Jahre gelagerten Speicherkarten.

Wer Neuware will, der sollte Optane nehmen, da dürfte es noch ein paar 16 oder 32GB Restposten geben, dann klappt es auch mit dem nächsten Jahrtausend.
Bei den mickrigen "Kleinen" (Größe kann ich das nicht bezeichnen) würde ich eher das Experiment mit M-Disk eingehen und darauf vertrauen, dass meine Nachfahren irgendwie die Antriebsmechanik für das ebenfalls archivierte Laufwerkt in Stand setzen können (SATA-Controller braucht man für die eingelagerte SSD auch).

Was auch immer ich mit solchen Zeiten im Privatbeireich will. Mir reicht es, wenn ich mich nicht mind. jährlich um das ext. gelagerte Backup meines Archivs kümmern muss und ich mir trotzdem recht sicher sein kann, dass meine HDD(s) sowas überleben und auch die Daten dann noch fehlerfrei lesbar sind.
 
Es ist eben die Frage, wie sich das verkauft und das war halt einfach nicht so gut.

Klar will jeder, dass seine Daten lange erhalten bleiben sollen, 1000 Jahre mindestens, ach was, 10.000 Jahre, damit die Archäologen der Zukunft sich unsere Surfgewohnheiten zu gemüte führen können (was sie auch garantiert tun werden, wenn ihnen so eine SSD in die Hände fällt). Dann so soll sie viele Schreibzyklen verkraften, die Million ist echt nicht schlecht, auch wenn man vermutlich in den meisten Fällen nichtmal hundert brauchen wird. Schnell soll das ganze auch noch sein, nach oben gibt es keine Grenze.
Ich meinte etwas ganz anderes: Während NAND gerade schon an der Miniaturisierung zu zerschellen droht kann man 3D XPoint wahrscheinlich noch in <3nm fertigen ohne unter die Lebensdauer aktueller TLC NANDs zu fallen.
Und wenn man das Zeug so klein bekommt dürfte der Speicherplatz pro Waffer eigentlich besser ausfallen als wenn man weiter "groben" NAND Flash produziert.
Zumindest klangen die letzten Zahlen für mich so.
 
Internes RAID 0 was der Controller selbst verwaltet. Der Gesamtverbund wird dem PC dann als linearer Speicherbereich gemeldet.Darüber habe ich schon vor Jahren spekuliert bzw. mich gewundert dass das nicht kommt. SSDs leben ja genau davon, die sind immer Mehrkanalig (die Top-Modelle beschreiben bis zu 16 Chips parallel, die Consumer Produkte 2 bis 4) ausgelegt. Und in 3,5" Platten passen halt mehr als ein Platter, also musste man "nur" noch die Lese/Schreibarme unabhängig bewegt bekommen.
Daher wäre die Platte als Backupsystem aber auch reichlich ungeeignet. Die Ausfallwahrscheinlichkeit steigt und das Wiederherstellen von Daten wird auch erschwert.

Wobei Seagate komischerweise immer noch nicht den naheliegenden Weg geht, alle 16 vorhandenen Lese-Schreibköpfe parallel einzusetzen (was dann bis zu 3 GB/s bringen würde), sondern einen kompletten zweiten Aktuator verbaut, der wie ein zweites Laufwerk angesteuert wird. Also eher ein RAID0, bei dem beide Plattersets auf der gleichen Spindel liegen, aber keine Nutzung von ohnehin vorhandener Redundanz.


Schauen wir Mal.
Wie du ja selbst genannt hast ist 3D XPoint/"Optane" deutlich anders aufgebaut als NAND Flash und skaliert afaik noch ein paar Größenordnungen weiter nach unten.
Deswegen wundert mich auch dass man die Technik seitens Intel abstoßen wollte. Eigentlich ist die Zukunftssicherer als NAND.

Intel hat meinem Wissen nach immer noch nicht offiziell bestätigt, wie genau Optane Daten speichert, aber alle Welt geht von Phase Change Memory aus. Das skaliert im Prinzip soweit nach unten, wie die Fertigung halt mitmacht, da die Information als Materialveränderung festgehalten wird und wieviel Material man verändert, erst einmal nebensächlich ist. Bei Flash dagegen wird die Information als Ladungsmenge gespeichert und da war 20 nm SLC meinem Wissen nach das absolute Limit. Seitdem setzt man eher auf immer mehr Schichten und immer mehr Bits pro Zelle, lässt selbige aber etwas größer. Bei der Größe der eigentlichen Speichereinheit skalieren tatsächlich selbst Magnetspeicher weiter, die für HAMR anvisierten 6 Tbit/in² müssten, wenn ich mich nicht verrechnet habe, knapp über 1 nm × 1 nm pro Bit entsprechen. Aber man kann halt nicht 128 davon in einer ein paar µm dünnen Schicht übereinander stapeln und bislang hat auch noch niemand Magnetspeicher mit mehreren Bit pro Zelle gezeigt. (Wobei ich eigentlich keinen technischen Hindernisse beim Bau einer QLC-HDD sehe.)
 
Das habe ich auch mal gedacht, daß 3D XPoint auf kurz oder lang den RAM+Massenspeicher ersetzen könnte und wir irgendwann PC´s haben werden, die nur noch den XPoint Speicher eingebaut haben. Bisher ist das wohl ein Ansatz, der nicht weiter verfolgt wird. Obwohl Intel damals in der XPoint Präsentation durchaus darauf hingewiesen hatte.
 
Für Microcontroller wird in dem Zuge schon länger frei konfigurierbare RAM/ROM Aufteilung versprochen.
Das erwarte ich noch deutlich eher als einer ersetzt alles im PC Bereich. Dafür hat man dort einfach zu viel Platz, so dass lieber 3-4 Technologien kombiniert werden wenn es auch nur geringste Preis- oder Leistungsvorteile verspricht.
 
Aber man kann halt nicht 128 davon in einer ein paar µm dünnen Schicht übereinander stapeln und bislang hat auch noch niemand Magnetspeicher mit mehreren Bit pro Zelle gezeigt. (Wobei ich eigentlich keinen technischen Hindernisse beim Bau einer QLC-HDD sehe.)
Ich vermute, weil man Abseits eines Caches sehr schnell das Hauptproblem von Magnetfestplatten verschlimmert, die Schreib- und Leseleistung. Aber trotzdem ein interessanter Gedanke, der sich für sequenzielle Backup-Laufwerke vielleicht doch lohnen könnte, da der Magnetisierungszustand vom Prinzip her stabiler sein sollte als ein Ladungszustand.
 
Der Punkt ist einfach: solange der Pro TB wesentlich unter dem der SSDs liegt, werden HDDs überleben.

Wenn MAMR und HAMR hinbekommt, dann wird es auch nach 2030 noch HDDs geben.
Die HDD hat zwar einen Preisvorteil, aber langsam auch ein Geschwindigkeitsproblem. Ich habe jetzt 18TB und das erste mal brauchte ein RAID Rebuild über 24 Stunden. Das wird gerade im Enterprise Bereich zu einem Problem, aber selbst ich war dadurch genervt. Das System hat dann ja auch nicht die volle Leistung. Das Problem ist also, dass eine 20TB nicht doppelt so schnell ist wie eine 10TB. 30TB würde ich mir zb niemals kaufen, wenn sich daran nichts ändert.

Und die Samsung Mach.2 macht es da genau richtig. Aber auch wieder falsch, denn ich kann keine 2 Partitionen gebrauchen. Ich brauche eine große Partition mit 500 MB/s und natürlich SATA. Außerdem darf der Stromverbrauch nicht steigen. Sonst kann ich nämlich gleich auf 2x 10TB setzen.
 
Das habe ich auch mal gedacht, daß 3D XPoint auf kurz oder lang den RAM+Massenspeicher ersetzen könnte und wir irgendwann PC´s haben werden, die nur noch den XPoint Speicher eingebaut haben. Bisher ist das wohl ein Ansatz, der nicht weiter verfolgt wird. Obwohl Intel damals in der XPoint Präsentation durchaus darauf hingewiesen hatte.

Für RAM ist es viel zu langsam und um Flash abzulösen viel zu teuer. Man müßte eine neue Stufe, nach dem RAM einführen, in der nicht benötigte Daten abgelegt werden, das dürfte enorm viel bringen. Allerdings müßte das OS dieses Konzept unterstützen und da sieht es düster aus.

Die HDD hat zwar einen Preisvorteil, aber langsam auch ein Geschwindigkeitsproblem. Ich habe jetzt 18TB und das erste mal brauchte ein RAID Rebuild über 24 Stunden. Das wird gerade im Enterprise Bereich zu einem Problem, aber selbst ich war dadurch genervt. Das System hat dann ja auch nicht die volle Leistung. Das Problem ist also, dass eine 20TB nicht doppelt so schnell ist wie eine 10TB. 30TB würde ich mir zb niemals kaufen, wenn sich daran nichts ändert.

Das liegt einfach daran, dass die Geschwindigkeit linear und die Kapazität Quadratisch mit der Verkleinerung der Bits ansteigt. Gegenüber meiner 10,3GB HDD, mit 10MB/sec, hat eine heutige 18TB HDD, mit 270MB/sec, zwar die 27 fache Transferrate, aber auch gut die 1700fache Kapazität, das ganze ist also um den Faktor 63 auseinandergegangen.

Aber ersteinmal müssen die HDDs überleben und dazu braucht man ein möglichst guten €/TB Verhältnis. Das Geschwindigeitsproblem kann man dann immer noch lösen.

Und die Samsung Mach.2 macht es da genau richtig. Aber auch wieder falsch, denn ich kann keine 2 Partitionen gebrauchen. Ich brauche eine große Partition mit 500 MB/s und natürlich SATA.

Ich verstehe sowieso nicht, warum sie das nicht intern mit RAID 0 gelöst haben.

Außerdem darf der Stromverbrauch nicht steigen. Sonst kann ich nämlich gleich auf 2x 10TB setzen.

Wenn mn den Platz hat, dann kann man das machen. Allerdings ist in Serverzentren Platz bares Geld. Doppelt soviele HDDs bedeuten quasi zwei Rechenzentren, mit fast allen Kosten.
 
Zuletzt bearbeitet:
RAM ist aktuell doch so günstig, da sollte jeder seinen Rechner angemessen bestücken können.

XPoint dürfte ua. im Serverbereich bei großen Datenbanken Vorteile gegenüber NAND haben.
Für den "normalen" Privatnutzer sehe ich für XPoint aber keine Lücke die damit gestopft werden müßte.

Ich selbst habe aktuell "nur" 16GB, bei den aktuellen Preisen könnte ich aber leicht auf 32GB aufrüsten, wenn ich davon einen realen Nutzen hätte.
 
Zurück