News Festplatten: Backblaze sieht steigende Ausfälle, WD und Seagate mit höheren Kapazitäten

Das ist korrekt, ja. Aber man kann die "alten" HDD-Generationen ja auch weiter laufen lassen. Mir erschließt es sich nur nicht, dass man dennoch neue HDD-Versionen mit größerem Speicher entwickelt, anstatt auf SSDs zu setzen.

Dort entsprechend weiterentwickeln und gleichzeitig die Produktion immer weiter in Richtung SSD verlagern, dann werden die auch günstiger - so meine (un)fachkundige Meinung. Ich sehe es halt einfach kritisch, wenn man immer noch auf die Vergangenheit setzt, obwohl man bereits in der Zukunft angekommen ist.
Ich denke das machen die Hersteller schon. Zumindest produzieren sowohl von Seagate als auch WD auch SDDs. Nur bleiben halt HDDs weiterhin deren größter Absatzmarkt.
 
Nein. Das Problem ist nicht dass Helium austritt sondern dass (weitaus dichtere) Luft danach eintritt. Durch die höhere Dichte entstehen Widerstandsmomente und Turbulenzen in der Platte die es unmöglich machen sie weiter normal zu betreiben (der Schreib-/Lesekopf "trifft" die Datenspuren nicht mehr).
Die Daten gehen dabei zunächst nicht verloren (den Magnetscheiben ist all das egal), nur kannst du als Privatperson ggf. nichts mehr auslesen weil die Platte nicht mehr startet bzw. nach dem Staret wieder abschaltet. Das müsste dann ein Profi machen der die Firmware der Platte so modifiziert dass sie beispielsweise nur mit halber Drehzahl läuft um die Daten so noch rauslutschen zu können. Oder Die Heliumfüllung temporär wiederherstellt. Kostet in aller Regel vierstellig so ein Service. Deswegen gibts Backups. ;-)

Ganz zu Anfang, noch vor der Einführung, war mal die Rede von einem Notfallmodus, bei dem die Platte mit stark reduzierter Geschwindigkeit weiterarbeitet. Das ist ja der alternative Weg zur Reduktion von Turbulenzen – einfach langsamer machen. Ich weiß aber nicht, ob das in Großserie tatsächlich angewandt wurde, denn eigentlich sind dauerhaft dichte Metallgehäuse ja kein Kunstwerk. Jedes Druckmessgerät, egal ob Barometer, Manometer, Tiefenmesser oder ähnliches muss dicht sein und ist das in der Regel auch über Jahrzehnte. Egal ob mit oder ohne elektrischen Durchführungen.
 
Wir sind als Nerds nicht aussagekräftig für die breite Masse an Kunden...
Anhang anzeigen 1433604
..ich hab auch knapp 40 TB nur intern (32 HDD, 7 SSD) und ähnliche Mengen nochmal extern - dennoch ists selten dass jemand in einem neu gebauten PC mehr als 2TB haben will.
Und ich dachte ich bin mit meinen 12TB an internem Speicher schon gut dabei, mit 10TB davon auf 3 HDDs verteilt (bunter mix aus WD Green, Blue und einer älteren CMR Red). Wobei ich vor einer Weile umgeschichtet hab und den internen Speicher zugunsten von 3+6TB an externen Laufwerken sowie einem 2x8TB Laufwerk mit Spiegelung für Backups usw. etwas reduziert hab. Dafür hab ich alles in Partitonen zurecht geschnibbelt damit ich nicht mal eben ein ganzes Laufwerk mit irgendeinem Speicherschlucker soweit fülle dass sich das mit etwas anderem in the Quere kommt :P (Stichwort Unreal Engine, da wuchert meine Sammlung an Projekten, Assets und Engine Builds immer ganz schnell)
Screenshot 2023-08-08 133140.jpg
 
Das ist korrekt, ja. Aber man kann die "alten" HDD-Generationen ja auch weiter laufen lassen. Mir erschließt es sich nur nicht, dass man dennoch neue HDD-Versionen mit größerem Speicher entwickelt, anstatt auf SSDs zu setzen.
Warum auf eins beschränken, wenn man beides machen kann? HDDs sind immer noch deutlich günstiger, können Daten deutlich länger halten und sind nicht prinzipiell in ihrer Schreibleistung limitiert.
Dort entsprechend weiterentwickeln und gleichzeitig die Produktion immer weiter in Richtung SSD verlagern, dann werden die auch günstiger - so meine (un)fachkundige Meinung. Ich sehe es halt einfach kritisch, wenn man immer noch auf die Vergangenheit setzt, obwohl man bereits in der Zukunft angekommen ist.
Die SSD-Entwicklung lässt sich ja nicht beliebig beschleunigen und es ist auch noch gar nicht erwiesen, ob sich extrem hohe Speicherdichten mit einer Datacenter-kompatiblen Lebensdauer überhaupt vereinbaren lassen. Da wäre man schön blöd, wenn man als Hersteller der Konkurrenz das Feld vorschnell überlässt. Dennoch haben sich ja in den letzten Jahren schon einige Hersteller aus dem Geschäft zurückgezogen.
 
Das ist korrekt, ja. Aber man kann die "alten" HDD-Generationen ja auch weiter laufen lassen. Mir erschließt es sich nur nicht, dass man dennoch neue HDD-Versionen mit größerem Speicher entwickelt, anstatt auf SSDs zu setzen.

Dort entsprechend weiterentwickeln und gleichzeitig die Produktion immer weiter in Richtung SSD verlagern, dann werden die auch günstiger - so meine (un)fachkundige Meinung. Ich sehe es halt einfach kritisch, wenn man immer noch auf die Vergangenheit setzt, obwohl man bereits in der Zukunft angekommen ist.

15€/TB im Endkundenmag bei uns in .de, rechne steuern und pauschalabgabe herunter. in der schweiz bekommste die toshiba mg10 festplatten grad am abverkauf für 210€ für 18tb. solange es keine ssd's die akzeptabel sind, bei dem preis in der dichte, nope. nicht jeder brauch ultra schnellen speicher wo ich gigabyteweise die sekunde daten abgreifen kann (u2 enterprise ssd's z.b.) für backups reichen platter vollkommen. ltt hat nen video wo er sich nen alten netapp schrank kauft für paar flocken, einzeln könnte er die shelves für mehr profit schon weiterverkaufen. gibt genug datahoarder die geil auf den scheiß sind. oder hobbymäßig bluerays remuxen als mkv für homestreaming. auch gebrauchte bluerays in einer riesenkiste. gibt ja haufen firmen die noch auf bandlaufwerke als offline backup setzen und dort wird auch munterweiterentwickelt.
 
Und ich dachte ich bin mit meinen 12TB an internem Speicher schon gut dabei, mit 10TB davon auf 3 HDDs verteilt (bunter mix aus WD Green, Blue und einer älteren CMR Red). Wobei ich vor einer Weile umgeschichtet hab und den internen Speicher zugunsten von 3+6TB an externen Laufwerken sowie einem 2x8TB Laufwerk mit Spiegelung für Backups usw. etwas reduziert hab. Dafür hab ich alles in Partitonen zurecht geschnibbelt damit ich nicht mal eben ein ganzes Laufwerk mit irgendeinem Speicherschlucker soweit fülle dass sich das mit etwas anderem in the Quere kommt :P (Stichwort Unreal Engine, da wuchert meine Sammlung an Projekten, Assets und Engine Builds immer ganz schnell)Anhang anzeigen 1433608
Wuaaaaaahhh!
Ich hab eine Weile lang meine alten Festplatten (2TB, 4TB) weiterverwendet als Datengräber in einem externen USB Gehäuse (gibt ja welche mit 4 oder 6 Slots) und immer dann wenn ichs brauche habe ich mir von dort die Daten geholt oder sie dorthin gegeben.
Inzwischen ist es mir aber lieber es auf möglichst wenigen Platten zu haben, weshalb ich kurz überlegt habe 2x 18TB zu kaufen und meine 2er/4er/6er da zusammenzuführen (und dann natürlich noch wo zu spiegeln). Kanns ja eh von der Steuer abschreiben.
Aber ein Mischmasch an Platten, das schafft meine Zwangsneurose nicht mehr :D

Wobei fairerweise muss man sagen, dass ich sie auch partitiniere, im Windows wirds vielleicht ähnlich angezeigt.
 
Warum arbeiten die Hersteller denn noch an HDDs? Wäre es nicht sinnvoller diese so langsam mal zu Grabe zu tragen und sich mehr auf SSDs zu konzentrieren?
Solange HDDs deutlich günstiger sind als SSDs wird es genügend Nachfrage danach geben.

Klar ist hier der Preis noch recht hoch, aber das wird doch sicherlich über die kommenden Jahre immer mehr in Richtung der SSDs gehen, oder irre ich mich?
Das ist möglich, aber keinesfalls sicher. In den letzten Jahren hat NAND-Speicher sehr rasche Fortschritte gemacht, allerdings stoßen die Hersteller zur Zeit auf immer mehr Hindernisse, die die Kosten erhöhen und/oder die Haltbarkeit und Geschwindigkeit verringern.

Solche Probleme haben die HDD-Hersteller schon eine ganze Weile. Die bereits Anfang der 2000er Jahre eingeführte PMR-Technologie ist schon länger fast ausgereizt. Da die Nachfolge-Technologie sicher immer weiter verzögerte, brauchte man Tricks wie SMR und immer mehr Platter inkl. Helium-Füllung um den wachsenden Kapazitätsbedarf zu befriedigen. Nun steht aber HAMR vor der Tür und diese Technologie erlaubt es die Kapazitäten sukzessiv auf 50TB+ zu erhöhen ohne dass die Herstellungskosten dadurch signifikant steigen. Mit BPM bzw. HDMR arbeitet man auch bereits an der nächsten Generation, die eine weitere Verdopplung der Kapazität erlauben würde.
 
nicht jeder brauch ultra schnellen speicher wo ich gigabyteweise die sekunde daten abgreifen kann (u2 enterprise ssd's z.b.) für backups reichen platter vollkommen.
Man sollte auch allgemein mal nicht unterschätzen, was ein größerer HDD-Verbund so an Bandbreite liefert, insbesondere wenn es große Dateien sind, die nicht hoffnungslos fragmentiert sind.
 
Man sollte auch allgemein mal nicht unterschätzen, was ein größerer HDD-Verbund so an Bandbreite liefert, insbesondere wenn es große Dateien sind, die nicht hoffnungslos fragmentiert sind.
die seagate mach2 machen erst nen bandbreitenplus, davor naja.

beim resilvern, seis raid oder zfs, ärgert dann einen die geringe bandbreite halt.
 
Wuaaaaaahhh!
Ich hab eine Weile lang meine alten Festplatten (2TB, 4TB) weiterverwendet als Datengräber in einem externen USB Gehäuse (gibt ja welche mit 4 oder 6 Slots) und immer dann wenn ichs brauche habe ich mir von dort die Daten geholt oder sie dorthin gegeben.
Inzwischen ist es mir aber lieber es auf möglichst wenigen Platten zu haben, weshalb ich kurz überlegt habe 2x 18TB zu kaufen und meine 2er/4er/6er da zusammenzuführen (und dann natürlich noch wo zu spiegeln). Kanns ja eh von der Steuer abschreiben.
Aber ein Mischmasch an Platten, das schafft meine Zwangsneurose nicht mehr :D

Wobei fairerweise muss man sagen, dass ich sie auch partitiniere, im Windows wirds vielleicht ähnlich angezeigt.
Ich hab halt immer nach und nach erweitert, einfach noch ein Laufwerk dazu stecken ist ja leichter als ausmisten, da kommt dann so eine bunte Sammlung zusammen :haha: Alte Laufwerke nutz ich aber meistens auch noch anderweitig weiter, so wie eine von meinen ehemals internen 6TB WD Red die im externen Gehäuse auf einmal Sektorenfehler gespuckt hatte (zum Glück war das schon beim kopieren auf ein anderes Laufwerk), die läuft jetzt im HTPC einfach als Spielelaufwerk weiter (zumindest für alles was keine SSD braucht).
 
die seagate mach2 machen erst nen bandbreitenplus, davor naja.
Beim sequentiellen Zugriff wohl eher nicht, oder? Das dürfte eigentlich nur die IOPS verdoppeln. Aber so oder so würde ich mal sagen, dass ein Datacenter-Server mit HDDs nur wenige HEs vollmacht, bevor man die gelieferte Bandbreite mit Kupfer nur noch schlecht wegbekommt.
beim resilvern, seis raid oder zfs, ärgert dann einen die geringe bandbreite halt.
Gut, das dauert dann halt mal, aber macht doch deswegen auch nicht mehr Arbeit. Die Redundanzen müssen halt entsprechend dimensioniert sein. Aber ob einzelne Laufwerke jetzt alle Jubeljahre mal einen Tag oder ein paar Stunden nicht verfügbar sind, spielt doch nicht wirklich eine Rolle.
 
Platte aufschrauben, irgendeine halbwegs dichte Kunststoffbox mit 3 Litern Helium aus dem Ballonladen füllen, auslesen.
Was treibt dich zu der Annahme, dass die Heliumfüllung in den HDDs normaler Atmosphärendruck ist...?
Spoiler: Ist es nicht, in den Dingern ist Unterdruck.

Man könnte ja die ganzen Turbulenzen und Probleme mit der blöden Luft in HDDs eliminieren indem man einfach ein Vakuum reinzieht. Wer braucht schon Helium? Blöd ist halt, dass die Dinger dann unter dem Außendruck zusammenklappen und ggf. lokal heiß würden, so dass man doch ein bisschen Innendruck braucht. Dafür Helium statt Luft zu benutzen ist nur ausnutzen der geringeren Dichte. Wasserstoffgas wäre noch besser aber das brennt leider im Zweifel ziemlich gut (und reagiert mit Metallen und fördert Sprödbruchbildung das willste alles nicht).

...ich dachte grade all das haste schonmal getippt... oh mann ich werd alt.
5 Jahre ists her.

Wie viel P*rn da wohl drauf ist
:ugly:
Ich hoste ehrenamtlich xhamster... :haha:

Nein Quatsch - da sind tatsächlich größtenteils Videos drauf, allerdings sind die Leute die darin vorkommen (wenn welche vorkommen) grundsätzlich bekleidet.
:-D
 
Zuletzt bearbeitet:
Beim sequentiellen Zugriff wohl eher nicht, oder? Das dürfte eigentlich nur die IOPS verdoppeln. Aber so oder so würde ich mal sagen, dass ein Datacenter-Server mit HDDs nur wenige HEs vollmacht, bevor man die gelieferte Bandbreite mit Kupfer nur noch schlecht wegbekommt.

Gut, das dauert dann halt mal, aber macht doch deswegen auch nicht mehr Arbeit. Die Redundanzen müssen halt entsprechend dimensioniert sein. Aber ob einzelne Laufwerke jetzt alle Jubeljahre mal einen Tag oder ein paar Stunden nicht verfügbar sind, spielt doch nicht wirklich eine Rolle.
jo, sind 2 platter die angezeigt werden als blockdevice, die schaffen es 6gbits auszulasten, jedoch musste nen raid ala zfs dranklatschen. level1techs hast da erst neulich nen video gemacht. 12 stück davon und er konnt 5gbyte/s übertragen. hat sogar tipps gegeben wie man erkennt welche 2 blockdevices ein gerät sind damit man seine vdevs korrekt auswählt für raidz, willst ja nicht 2 blockdevices, die ein gerät sind, im raidz2 haben. :ugly: zumindest waren es sas platten, für sata macht er später nochmal nen extra video.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

finds geil wie mit "primitiver" technik hdd nen neuen touch bekomm.:ugly:
 
jo, sind 2 platter die angezeigt werden als blockdevice, die schaffen es 6gbits auszulasten, jedoch musste nen raid ala zfs dranklatschen.
Naja, werden schon mehr Platter sein. ;)
Das Ding ist, dass das eigentlich die sequentielle Bandbreite nicht erhöhen dürfte, da sequentielle Daten ja so oder so über die Platter verteilt werden müssten. Aber interessante Laufwerke und eine gute Möglichkeit die IOPS für so eine Kiste deutlich zu erhöhen, auch wenn das natürlich eine schöne Stolperfalle sein kann, wenn man die logischen Laufwerke nicht richtig aufteilt. Aber so richtig fällt mir kein Szenario ein, in denen die Dinger weniger tauglich wären, wenn die logisch direkt in einem RAID0 zusammengepackt wären.

Edit: Scheinbar werden die Daten gar nicht über die Platter verteilt, dann ist das mit der Bandbreite Quatsch. Ich bin irgendwie davon ausgegangen, weil sich das intuitiv anbietet. Ist aber scheinbar gar nicht so ohne, das umzusetzen.
12 stück davon und er konnt 5gbyte/s übertragen.
Ja, das ist ja genau, was ich meinte. So im direkten Vergleich sind Festplatten nicht sonderlich schnell, aber wenn man mal ein paar zusammenpackt, kommt da fix einiges zusammen, vor allem wenn die IOPS keine Rolle spielen.
finds geil wie mit "primitiver" technik hdd nen neuen touch bekomm.:ugly:
Ist ein bisschen wie mit Verbrennermotoren. Ein Konzept mit inhärenten Limitierungen, die man mit extrem viel Aufwand zu umgehen versucht, was auch halbwegs gut klappt. Wenn man ein Datacenter ordentlich plant und die Platten mit SSD- und RAM-Caches unterstützt, kann man je Lastszenario einen ziemlich großen Anteil des Speicherplatzes aus Festplatten bestehen lassen, ohne spürbare Nachteile zu haben.
 
Zuletzt bearbeitet:
Warum arbeiten die Hersteller denn noch an HDDs? Wäre es nicht sinnvoller diese so langsam mal zu Grabe zu tragen und sich mehr auf SSDs zu konzentrieren?

Das ist ungefähr so, als würdest du Opel sagen, dass die ab jetzt Mikrochips statt Autos herstellen sollen. Das geht nicht, denn das sind zwei komplett verschiedene Technologien. Bei der einen brauchst du Scheiben, die sich magnetisieren lassen, sowie einen Motor und Leseköpfe lassen, bei der anderen sind Mikrochips gefragt. Da läßt sich nichts übernehmen, weder Mitarbeiter, Fabriken oder Forschung.

Klar ist hier der Preis noch recht hoch, aber das wird doch sicherlich über die kommenden Jahre immer mehr in Richtung der SSDs gehen, oder irre ich mich?

Tja, das ist die ganz große 100 Milliarden Dollar Frage, auf die es zwei mögliche Antworten gibt:

1: die HDD Hersteller schaffen es mal endlich ihre Kapazitäten zu erhöhen und damit auch den Preis pro GB zu massiv drücken. SSD haben, auch mit allen Tricks, wie kleinerer Fertigung, HLC (kommt nach PLC), mehr Stapelung, Skaleneffekten usw. einen Boden, was den Preis pro GB angeht. Den müssen die HDDs unterbieten, kritisch ist 2:1. Wenn sie günstiger sind, dann ist ihre Zukunft langfristig gesichert und wir könnten auch noch 2050 HDDs sehen.
2: sie schaffen es nicht, die SSDs holen bei den Kosten immer weiter auf. Bei Kosten von etwa 2:1 werden die SSDs billiger sein, da man in die Server wesentlich mehr Kapazität reinbekommt und somit wesentlich weniger braucht, was in den Serverfarmen enorm viel Geld spart. Wenn das passiert, dann ist das Aussterben der HDDs in Gang gesetzt. Die Flashhersteller können nicht genug liefern, weshalb es sich etliche Jahre hinziehen wird. Wenn die HDD Hersteller es in dieser Zeit nicht schaffen das Ruder herumzureißen, dann wird die HDD das Schicksal der Röhrenmonitore, Plasmafernseher, Disketten, VHS Rekorder und vieler anderer Dinge teile, die zwar noch enormes Potential hatten, deren Hersteller es aber aus irgendwelchen Gründen verspielt haben.

Das ist korrekt, ja. Aber man kann die "alten" HDD-Generationen ja auch weiter laufen lassen. Mir erschließt es sich nur nicht, dass man dennoch neue HDD-Versionen mit größerem Speicher entwickelt, anstatt auf SSDs zu setzen.

Dort entsprechend weiterentwickeln und gleichzeitig die Produktion immer weiter in Richtung SSD verlagern, dann werden die auch günstiger - so meine (un)fachkundige Meinung. Ich sehe es halt einfach kritisch, wenn man immer noch auf die Vergangenheit setzt, obwohl man bereits in der Zukunft angekommen ist.

Du verstehst offenbar nicht, wo das Problem liegt. Da wird nichts verlagert, die Fabriken werden dicht gemacht und der Bereich eingestampft. Deshalb besteht für die HDD Hersteller die Wahl zwischen aufgeben oder weitermachen. Da es durchaus möglich ist, die SSDs dauerhaft zu schlagen, ist das die logische Konsequenz.

Wenn es möglich wäre, dann hätte man schon lägst HDDs mit variabler Drehzahl angeboten

Das müsste dann ein Profi machen der die Firmware der Platte so modifiziert dass sie beispielsweise nur mit halber Drehzahl läuft um die Daten so noch rauslutschen zu können.

Hast du dazu irgendwelche Quellen? Bei halber Drehzahl wird das wohl einen Headcrash geben, aber immerhin verabschieden sich die Daten mit einem Herzzerreißenden Abschiedskonzert.

Platte aufschrauben, irgendeine halbwegs dichte Kunststoffbox mit 3 Litern Helium aus dem Ballonladen füllen, auslesen.

Da bist du nicht mit der Heliumtechnik vertraut (ich auch nur so ein kleines bisschen). Zum einen brauchst recht reines Helium, mit 3L wirst du nicht weit kommen, da mußt du mehrfach spülen, damit die Luft rausgeht. Dann entweicht das ganze auch noch durch sämtliche Ritzen und zwar sehr schnell. Zu guter Letzt bildet Luft dort einen See, weil sie viel schwerer ist. Also wird sich in deinem HDD Gehäuse Luft statt Helium befinden, wenn du das Ding anschaltest. Es sei denn, du drehst das Ding in der Heliumatmosphäre um und spülst dann noch ein paar mal ordentlich mit Helium durch.

Wenn du deine Daten wieder sehen willst, dann wende dich an ein spezialisiertes Unternehmen.

Man könnte ja die ganzen Turbulenzen und Probleme mit der blöden Luft in HDDs eliminieren indem man einfach ein Vakuum reinzieht. Wer braucht schon Helium? Blöd ist halt, dass die Dinger dann unter dem Außendruck zusammenklappen und ggf. lokal heiß würden, so dass man doch ein bisschen Innendruck braucht.

Das Problem ist, dass die Köpfe ein paar (duzend?) Nanometer über den Plattern fliegen. Dafür sind sie Aerodynamisch geformt. Ohne Gas kein Auftrieb und damit ein Headcrash. Deshalb sind HDDs nur bis zu einer gewissen Höhe einsetzbar. (korrigiere mich, wenn ich falsch liege)

Wie viel P*rn da wohl drauf ist :ugly:

"Das Jahr 2039, ein Nuklearkrieg hat die Welt verwüstet, die Zivilisation ist untergegangen und die überlebendem Männer sind auf der Suche nach dem einen - dem legendärem Pornmaster, der noch mehrere funktionsfähige PCs und 4,5 Petabyte Schmuddelfilmchen besitzt."
 
Für den normalen Endnutzer sind HDDs sowieso tot weil die meisten Leute nicht mehr als ein, zwei Terabytes brauchen die sowieso schon durch günstige SSDs abgedeckt sind. Und wenn du ein Rechenzentrum mit Petabyte- oder Exabyteweise Speicher ausstatten willst biste froh wenn eine 16TB-Einheit 500€ und nicht 5000€ kostet.
Bei den immer größer werdenden Spielen, kommen wir bald an einen Punkt, wo wir wieder zwischen 2-3 installierten Spielen pro SSD entscheiden müssen.
 
Zurück