News Festplatten: Backblaze sieht steigende Ausfälle, WD und Seagate mit höheren Kapazitäten

Ja dann wird es wohl das falsche lesen. Weiß zwar nicht wie das dann aussieht, aber zum Glück werden wir es die meisten nie erleben.
Ich habe das Problem wenn ich was beim PC was intern sich befindet wieder gebe und dann auf das netzlaufwerk zugreife dann setzt kurz das wieder geben aus. Scheint wohl doch indirekt mit einander verbunden zu sein das ganze.
 
Haben die nicht eh Beschleunigungssensoren und parken den Kopf, sobald man in die Nähe von 1G kommt? Vermutlich ist ein Betrieb bei solchen Beschleunigungen eh nicht möglich und die Spezifikation gibt nur an, ab wann Schaden entsteht, wenn eine plötzliche Erschütterung entsteht.

Das Parken dauert eine gewisse Zeit. Möglich, dass gelesene Daten aus der resultierende Lücke einfach nicht ausgegeben werden – aber ein laufender Schreibvorgang läuft eben in diesem Moment weiter, bis er abgebrochen wird. Der Sensor kann die Bewegung nicht erkennen, bevor sie geschieht. (Nur bei plötzlichen 0 G wird vorsorglich geparkt.) Aber komplett falsch platzierte Sensoren würden im Nachgang auffallen, da meinem Wissen nach Index-Verweise auf dem Platter sind – der Kopf selbst teilt also immer wieder mit, was er gerade tatsächlich ließt. Selbst wenn ich mich da irre oder es keine allgemein übliche Technik ist, kann auf alle Fälle zwischen "auf einer Spur" und "irgendwie daneben" unterschieden werden und die Paritätsinformationen stehen auch räumlich versetzt zu den zugehörigen Nutzdaten. Für eine Side-Channel-Attacke müsste man somit die Festplatte schlagartig auf mutmaßlich ein vielfaches von 70 G beschleunigen und dann für mindestens eine Umdrehung, eher länger, exakt bei diesem Wert halten.

Warnung an alle Admins: Wenn jemand explosionsgetriebene Zentrifugen in ihrem Serverraum aufstellen möchte, sollten sie sicherstellen, dass diese zu klein sind, um ein komplettes Rack im laufenden Betrieb inklusive USV aufzunehmen. Sonst liesßt der Angreifer gegebenenfalls eine HDD-Nachbarspur 1/120 Sekunde, bevor diese ohnehin an der Reihe gewesen wäre.
 
Das Parken dauert eine gewisse Zeit. Möglich, dass gelesene Daten aus der resultierende Lücke einfach nicht ausgegeben werden – aber ein laufender Schreibvorgang läuft eben in diesem Moment weiter, bis er abgebrochen wird.
Naja, sobald der Parkvorgang beginnt, ist ja bekannt, dass irgendwas nicht stimmt, also könnte man ab da schon alles abbrechen und auch einen Schreibfehler ausgeben und vermerken, dass er wiederholt werden muss.
Nur bei plötzlichen 0 G wird vorsorglich geparkt.
Ah ja, da hatte ich einen Denkfehler. 1G misst er ja immer, 0G wäre freier Fall.
Für eine Side-Channel-Attacke müsste man somit die Festplatte schlagartig auf mutmaßlich ein vielfaches von 70 G beschleunigen und dann für mindestens eine Umdrehung, eher länger, exakt bei diesem Wert halten.

Warnung an alle Admins: Wenn jemand explosionsgetriebene Zentrifugen in ihrem Serverraum aufstellen möchte, sollten sie sicherstellen, dass diese zu klein sind, um ein komplettes Rack im laufenden Betrieb inklusive USV aufzunehmen. Sonst liesßt der Angreifer gegebenenfalls eine HDD-Nachbarspur 1/120 Sekunde, bevor diese ohnehin an der Reihe gewesen wäre.
Auch nicht soo viel weiter hergeholt als so manche Side-Channel-Attacke in CPUs, über die sich die Fanboys die Köpfe eindiskutieren. ;)
 
Nur bei plötzlichen 0 G wird vorsorglich geparkt.
Das dürfte auch der einzige Fall sein, bei dem ein kommender Schock ziemlich sicher vorhergesagt werden kann. :-D

da meinem Wissen nach Index-Verweise auf dem Platter sind
Ja, und zwar SEHR viele bzw. weitaus mehr als man sich das so vorstellt. Seagate hat dadurch, manche dieser Metadaten auf HDD-internen Flash auszulagern (und weitere exaktere Metadaten zu generieren weil ja jetzt Platz da ist sie zu speichern) die Speicherdichte nochmal ~10% erhöht, sie nennen das OptiNAND und können so 22 statt 20TB auf 10 Plattern ohne SMR unterbringen:
Seagate schrieb:
RRO (Repeatable Run Out) ist der Anteil des Positionsfehlersignals,
der sich bei jeder Spindeldrehung wiederholt. RRO-Metadaten
werden im Werk bei der Herstellung erzeugt. Bei den HDDs der
vorherigen Generation wurden die RRO-Metadaten auf einer
Scheibe gespeichert, wohingegen OptiNAND diese Daten im
iNAND speichert, sodass sich der Datenzugriff beschleunigt und
Festplattenspeicher für den Kunden frei wird.
Schreiboperationen werden aufgezeichnet, um die ATI (Adjacent
Track Interference) zu reduzieren. Bei den HDDs der vorherigen
Generation wurden die Schreiboperationen auf Spurebene
aufgezeichnet, während Aktualisierungen für gesamte Spuren
erfolgten. OptiNAND zeichnet Schreiboperationen im iNAND auf
Sektorebene auf. Diese Metadaten werden verwendet, um Sektoren
anstatt gesamter Spuren zu aktualisieren. Indem die übermäßigen
Aktualisierungen beseitigt werden, können Spuren ohne
Leistungseinbußen dichter nebeneinander platziert werden.

Lange Rede kurzer Sinn - auf modernen Festplatten läuft irre viel technische Zauberei im Hintergrund dass sie so funktionieren wie sie es tun^^
 
Seagate hat dadurch, manche dieser Metadaten auf HDD-internen Flash auszulagern (und weitere exaktere Metadaten zu generieren weil ja jetzt Platz da ist sie zu speichern) die Speicherdichte nochmal ~10% erhöht, sie nennen das OptiNAND und können so 22 statt 20TB auf 10 Plattern ohne SMR unterbringen:
Jetzt wäre noch gut zu wissen, wie viel Flash das ist. Wenn es 2TB sind, ist logisch, dass man die auf den Plattern freikratzen kann. ;) Aber wäre ja trotzdem eine gute Sache, wenn damit Zugriffe beschleunigt werden können. Wie ein Cache, nur nicht so schnell, dafür für alle Dateien nützlich.
 
Im Flash der Platten sind keine Nutzerdaten drin, nur Metadaten. Wie groß der Flash genau ist weiß nur der Hersteller alleine, man kann aber von einem einzelnen Speicherstein ausgehen der auch nicht viel kosten darf. Also größenordnungsmäßig reden wir da vermutlich eher von 32-64 GB oder sowas, nicht von Terabytes. ;-)

Die Festplatten die wirklich Nutzerdaten in zusätzlichen Flash geschrieben hatten waren wieder was anderes, das waren die mittlerweile ziemlich ausgestorbenen "SSHD" Hybrid-Dinger.
 
Die Festplatten die wirklich Nutzerdaten in zusätzlichen Flash geschrieben hatten waren wieder was anderes, das waren die mittlerweile ziemlich ausgestorbenen "SSHD" Hybrid-Dinger.
War als Gegenüberstellung zu so was gedacht. Beide Ideen (Metadatenauslagerung und Caching) haben was für sich und man könnte sie sicher auch kombinieren. Eigentlich komisch, dass SSHDs so ersatzlos verschwunden sind, aber vermutlich werden sie im Consumerbereich einfach nicht mehr gebraucht und im Enterprisebereich gibt es entsprechende Softwarelösungen. Letztere dürften gerne auch mal in Desktop-Distros mehr Verbreitung finden. Andererseits mag ich mir das Geratter nicht mehr antun. Vielleicht ein exklusiver Cache, der nur auslagert, wenn der Flash voll ist? Aber irgendwann ist er das ja immer...
 
Eigentlich komisch, dass SSHDs so ersatzlos verschwunden sind
Nicht wirklich...

Entweder du brauchst die Geschwindigkeit dann kaufste ne SSD.
Oder du brauchst den Platz pro Euro dann kaufste ne HDD.
(2023: Du kaufts immer nur ne SSD es sei denn du brauchst mehr Platz als 98% aller Endkunden)

Eine SSHD die deutlich teurer als ne HDD war aber trotzdem viel langsamer als ne SSD blieb hatte einfach keine wirkliche Nische um sich durchsetzen zu können.
 
Grafik assets brauchen Platz...
Baldur's Gate 3 verlangt schon nach 150GB SSD Platz.
World of Warcraft liegt inzwischen bei über 80GB.
Final Fantasy 14 ist ähnlich groß
Destiny 2 ist inzwischen auch dreistellig im Platzbedarf.
Anno 1800 will 60 GB
PUBG deren 40-50GB
Ark 60GB.
Hogwards Legacy schlägt mit 85GB zu Buche
Dagegen ist Civilization VI mit nur 23 GB schon echt bescheiden im Bedarf.

Bei den Downloadgrößen schmeißt man die Spiele auch nicht mal eben von der Platte.
Und so sind dann auch 1000GB relativ leicht voll

Die prozedurale Generierung von Texturen, wie in Kkrieger, war ja mal als die Zukunft angesehen...
Bei einigen Spielen ist das auch so - Nur sind das oft dann nur Teile der ganzen Texturen.
Baldur's Gate 3 hat sehr viel Videomaterial dabei...
Es gibt allerdings auch eine gewisse grafische Entwicklung zwischen z.B. dem ersten Civilization, dass auf wenige Disketten passte und Civilization VI mit 23GB.
X: Beyond the Frontier brauchte damals 360 MB auf der Platte. X4 liegt dagegen bei 20 GB... was auch noch relativ wenig ist, wenn man die Größe des Universums darin bedenkt.
zocke von den games nichts, csgo is ja selbst riesig, frag mich wieso das so explodiert ist. :ugly: vorallem games wie pubg/ark/anno bleiben ewig auf der platte, hogwarts deinstalliert man danach. selten nen singleplayer game mehrfach gezockt hintereinander.
 
Tya nix bleibt ewig so klein. Wenn mal spielen war es bei mir damals 5 GB maximal das Maß aller Dinge gewesen. Das war schon schön ewigkeiten her und es installieren dauerte auch nix so lange.. Das werde ich auch in Zukunft weiterhin genießen mit wenig Festplatten Speicher verbrauch ein Glück weiter zu zocken. So lange bis nix mehr geht halt. Aber dafür habe ich dann so viel Spaß wie man nur so haben kann.
 
Was cool wäre, wäre eine Funktion, um aus einer SSD und einer HDD ein logisches Laufwerk zu machen, welche die SSD nutzt, um die HDD zu cachen.
SSD caching? :hmm: Wenn es 2 TB SSDs für 80 € gibt?

Willkommen im Jahre 2011.

Ich kann mich nicht daran erinnern, dass das oder ähnlicher Kram, ob von AMD oder so verkauften caching SSDs, jemand mal genutzt hätte.
Wozu auch? Selbst damals hatten genug Spiele auf eine kleine, bezahlbare 120 GB SSD gepasst. Warum sollte man sich diese dann von einer gammeligen HDD verlangsamen oder die Ohren bluten lassen? :ka:

Das geringere Übel war und ist es dann doch eher, die 753 seit Jahren ungespielten Spiel auf HDDs zu legen und die 2-50 aktuellen auf der SSD zu lassen.

nur wer will die ganze Zeit manuell umschichten?
Wie viele Spiele hast du denn herumliegen, wie viele werden aktuell gespielt, wie viele waren es im letzten Jahr wenn das dauernd nötig wäre?

Auf eine 2 TB SSD sollten ja genug (10-50 Stück? ) für ein Wochenende passen.
HDDs halten länger als man voraussagen kann.
Sag das mal der IBM IC35* Serie.
Dann empfehle ich ab jetzt die OCZ Vertex 3 MaxIOPS. Die läuft nachweislich seit fast 11 Jahren problemlos.

Eine SSHD die deutlich teurer als ne HDD war aber trotzdem viel langsamer als ne SSD blieb hatte einfach keine wirkliche Nische um sich durchsetzen zu können.
Der Hybriedantrieb unter den Speichermedien.:lol:
 
SSD caching? :hmm: Wenn es 2 TB SSDs für 80 € gibt?
2TB ought to be enough for anybody?
Willkommen im Jahre 2011.
Ja toll, eine proprietäre, hardwaregebundene Lösung... Vor allem für einen exklusiven Cache wäre das richtig super. Wenn dir das Board abraucht, musst du noch mal so eins kaufen, damit du deine Daten wieder zusammenbekommst und jedes Firmwareupdate wird zum Topfschlagen im Minenfeld.
Das geringere Übel war und ist es dann doch eher, die 753 seit Jahren ungespielten Spiel auf HDDs zu legen und die 2-50 aktuellen auf der SSD zu lassen.
Ja, aber
wer will die ganze Zeit manuell umschichten?
Es ist doch genau das Ziel der Übung, dass das einfach automatisch passiert. Dass man das auch alles selbst managen kann, ist mir schon auch klar.
 
War als Gegenüberstellung zu so was gedacht. Beide Ideen (Metadatenauslagerung und Caching) haben was für sich und man könnte sie sicher auch kombinieren. Eigentlich komisch, dass SSHDs so ersatzlos verschwunden sind, aber vermutlich werden sie im Consumerbereich einfach nicht mehr gebraucht und im Enterprisebereich gibt es entsprechende Softwarelösungen. Letztere dürften gerne auch mal in Desktop-Distros mehr Verbreitung finden. Andererseits mag ich mir das Geratter nicht mehr antun. Vielleicht ein exklusiver Cache, der nur auslagert, wenn der Flash voll ist? Aber irgendwann ist er das ja immer...

Ein exklusiver Cache hätte enorme Performance-Strafen, wenn er während eines Schreibvorgangs überläuft, denn der HDD-Teil ist zu langsam um in Echtzeit Daten aufzunehmen. Aber der zweiten SSHD-Generation, einschließlich Intel, den ganzen Nvelo-Resellern und meinem Wissen nach auch später AMD, hat man deswegen mit reinen Write-Through-Caching gearbeitet. Ich persönlich fand Seagates ersten Anlauf mit der leider nur als 2,5-Zoll-Laufwerk erschienenen Momentus XT viel sinnvoller. Die hat die Daten direkt gefiltert: Alles, was klein und somit Zugriffszeit-kritisch war, ging in den Flash. Und obwohl der nur 4 GiB groß war, konnte er eine ganze Menge 0,5-KiB-Schnippsel aufnehmen. Größere Dateien, die ohnehin eher an der sequentiellen Datenrate hängen (die bei so einer Single-Chip-Lösung eher mäßig ausfällt), gingen dagegen direkt an den Magnetteil des Laufwerks.

Das alles steht aber nicht in Bezug zu Datenverlust durch Krafteinwirkungen. Da sind die Daten kritisch, die unmittelbar während des Stoßes unter dem Schreibkopf durchwandern. Die also überschrieben wären, noch während irgendwelche Sicherheitssysteme die Ereignisse analysieren/auswerten/etc., um später mal Parkvorgänge oder ähnliches zu starten. Um so etwas zu rekonstruieren, bräuchte man einer Art zeitversetzt arbeitenden RAID 1, der das ganze Laufwerk mit allen potenziell bedrohten Inhalten in Kopie vorrätig hält und immer erst dann aktualisiert, wenn das Hauptlaufwerk einen korrekten Schreibvorgang abgeschlossen und bestätigt hat.
 
Ein exklusiver Cache hätte enorme Performance-Strafen, wenn er während eines Schreibvorgangs überläuft, denn der HDD-Teil ist zu langsam um in Echtzeit Daten aufzunehmen.
Man könnte dem natürlich entgegenwirken, indem man im Flash einen Bereich als Schreibpuffer freihält. Aber am Ende des Tages wäre das Problem der Akustik nicht gelöst, die HDD wäre bei Schreibzugriffen immer noch aktiv, entweder direkt oder halt etwas später. Dann steht die höhere Datenplatzeffizienz gegen die niedrigere Ausfallsicherheit.
Ich persönlich fand Seagates ersten Anlauf mit der leider nur als 2,5-Zoll-Laufwerk erschienenen Momentus XT viel sinnvoller. Die hat die Daten direkt gefiltert: Alles, was klein und somit Zugriffszeit-kritisch war, ging in den Flash. Und obwohl der nur 4 GiB groß war, konnte er eine ganze Menge 0,5-KiB-Schnippsel aufnehmen. Größere Dateien, die ohnehin eher an der sequentiellen Datenrate hängen (die bei so einer Single-Chip-Lösung eher mäßig ausfällt), gingen dagegen direkt an den Magnetteil des Laufwerks.
OK, schon schlau, wenn man nur verhältnismäßig wenig Cache verbauen möchte. Möchte man aber wirklich eher eine Automatik, die einfach nur Daten, die selten genutzt werden von einem großen Flash in ein noch größeres HDD-Datengrab packt, ist es zu speziell.
Das alles steht aber nicht in Bezug zu Datenverlust durch Krafteinwirkungen. Da sind die Daten kritisch, die unmittelbar während des Stoßes unter dem Schreibkopf durchwandern. Die also überschrieben wären, noch während irgendwelche Sicherheitssysteme die Ereignisse analysieren/auswerten/etc., um später mal Parkvorgänge oder ähnliches zu starten.
Ja, leuchtet ein.
Um so etwas zu rekonstruieren, bräuchte man einer Art zeitversetzt arbeitenden RAID 1, der das ganze Laufwerk mit allen potenziell bedrohten Inhalten in Kopie vorrätig hält und immer erst dann aktualisiert, wenn das Hauptlaufwerk einen korrekten Schreibvorgang abgeschlossen und bestätigt hat.
Oder man kopiert alles im Umfeld vom Schreibvorgang vorher in irgendeinen RAM. Kein zweites Laufwerk nötig, aber schnell wird das schon mal nicht. ;)
 
Warum arbeiten die Hersteller denn noch an HDDs? Wäre es nicht sinnvoller diese so langsam mal zu Grabe zu tragen und sich mehr auf SSDs zu konzentrieren? Klar ist hier der Preis noch recht hoch, aber das wird doch sicherlich über die kommenden Jahre immer mehr in Richtung der SSDs gehen, oder irre ich mich?

Habe selbst 2x 4TB WD Purple und von letztem Jahr 2x 16 TB Seagate IronWolf Pro und hoffe, das gerade letztere noch ein paar Jahre halten, ehe ich dann auch im NAS auf SSDs umsteige (selbst wenn die Geschwindigkeit bei einem Datengrab egal ist).
Die setzen doch nur wegen den hohen Kosten diese "normalen" Festplatten ein.
Die relativ geringe Ausfallrate und der Supportaufwand macht den Preisunterschied für Superpremium wohl mehr als locker weg.
Ein Umstieg auf SSD's wäre ja sogar noch ein sehr viel größerer Kostenfaktor, vor allem, wenn man richtige Server SSD's nehmen würde, nicht nur BilligRAMsch, der auch nicht lange hält/halten soll.
Vorteil von HDD's ist zudem, dass die eine lange Lebensdauer im Vergleich zu SSD's haben.
Entweder fallen die recht früh aus, oder halten gefühlt ewig.
SSD's sind ja genau andersrum, die lösen sich dann später einfach mal so in ihre Bestandteile auf.
Da muss man mal einen Blick auf die Kurvenverläufe schauen, wann die ausfallen.
 
Zurück