News Festplatten: Backblaze sieht steigende Ausfälle, WD und Seagate mit höheren Kapazitäten

Windows macht ja genau das bereits. Das merkt man auch bei Spielen. Läd man einen Speicherstand zum zweiten Mal, gibt es zwischen Hdds und SSDs manchmal keine Unterschiede (hat PCGH gemessen).
War da ein Neustart zwischen? Sonst war es wohl eher der RAM-Cache.
Ansonsten gibt es seit Vista neben SuperFetch (welches nur für den Boot war, meine ich) auch Readyboost, was USB Flash Speicher als Cache nutzt.
Werden die noch gepflegt? Readyboost war doch schon fast obsolet als es erschienen ist.
 
Werden die noch gepflegt? Readyboost war doch schon fast obsolet als es erschienen ist.
ReadyBoost wird definitiv nicht mehr gepflegt und es meldet auch auf aktuellen PCs, dass diese zu schnell sind, um mit ReadyBoost einen Geschwindigkeitsvorteil zu erzielen - das Einrichten wird damit auch verweigert (ich denke, das Entscheidungskriterium hierfür ist, dass eine SSD als Systemdatenträger verwendet wird und dann kommt eben diese Meldung).
 
Na so viel zu extrem schnell und optimiert auf schnellere PCs. Naja schneller geht das hochfahren und starten auch nicht mehr weil selbst die Programm ja ne latenz mit sich selbst mit bringen. Da ist halt das Limit bei der Beschleunigung auch irgendwann mal erreicht. Da macht man halt dann das ganze keinen Sinn mehr wie man das Weiter macht und so.
 
Wenn es möglich wäre, dann hätte man schon lägst HDDs mit variabler Drehzahl angeboten



Hast du dazu irgendwelche Quellen? Bei halber Drehzahl wird das wohl einen Headcrash geben, aber immerhin verabschieden sich die Daten mit einem Herzzerreißenden Abschiedskonzert.



Da bist du nicht mit der Heliumtechnik vertraut (ich auch nur so ein kleines bisschen). Zum einen brauchst recht reines Helium, mit 3L wirst du nicht weit kommen, da mußt du mehrfach spülen, damit die Luft rausgeht. Dann entweicht das ganze auch noch durch sämtliche Ritzen und zwar sehr schnell. Zu guter Letzt bildet Luft dort einen See, weil sie viel schwerer ist. Also wird sich in deinem HDD Gehäuse Luft statt Helium befinden, wenn du das Ding anschaltest. Es sei denn, du drehst das Ding in der Heliumatmosphäre um und spülst dann noch ein paar mal ordentlich mit Helium durch.

Wenn du deine Daten wieder sehen willst, dann wende dich an ein spezialisiertes Unternehmen.

Man kann das Behältnis auch so rumdrehen, dass die Luft nach unten rausfällt und das reine Helium zurück bleibt. ;-)
In wie weit bei zu niedrigen Geschwindigkeiten Headcrashs drohen, weiß ich nicht. Als die Gummistiefel noch aus Holz waren, wurde Köpfe noch auf dem Platter abgelegt und kurze Aufsetzer z.B. durch Stöße führen auch heute nicht zur Zerstörung. Vielleicht würde die Technik ein einmaliges Auslesen mit physischem Kontakt also sogar mitmachen. Auf alle Fälle nutzen Festplatten bei Stromverlust die Restenergie der Platter, um die Köpfe zurück in die Parkposition zu bringen. Das heißt bevor diese erreicht ist, wurde der Plattenstapel bereits spürbar abgebremst und das ist Normalbetrieb. Früher gab es auch mal Platten mit variabler Geschwindigkeit, ich glaube zwischen 4.800 und 7.200 U/min (Hat sich aber nicht durchgesetzt – entweder sie reagierten zu träge oder sie nervten die meiste Zeit über mit voller Lautstärke.) und die absolute Geschwindigkeit unterscheidet sich schon im normalen Betrieb um Faktor zwei bis vier zwischen innerem und äußerem Platterrand. Großzügige Toleranzen sind also nötig und wenn ein Kopf am schnellen, äußeren Rand nach Lufteintritt die Turbulenzen von 7.200 U/min nicht mehr verkraftet, erhält er dort mit 3.000 U/min vielleicht noch seine normalen Arbeitsbedingungen. Nur schnelle Spurwechsel wären unmöglich, wenn die Drehzahl in einer Art Notmodus nachgeführt werden muss.


Es gab dazu wie PCGH_Torsten sagt bei Vorseriensamples anscheinend/angeblich mal Notfunktionen die die Drehzahl stark absenkten um Daten noch lesen zu können wenn Luft eingetreten ist. Ein Headcrash passiert da noch lange nicht, für das Gaspolster das die Köpfe über den Plattern hält reichen weitaus geringere Drehzahlen als die vielen Tausend UPM moderner Festplatten (insbesondere wenn ja mehr Druck als geplant in der HDD ist nach einem Leck...).

Dass normale HDDs (die nen Druckausgleich zur Außenwelt haben) in Nepal Probleme bekommen würden hab ich jetzt noch nicht gehört... will ich aber nicht ausschließen, von der Theorie her ist das schon schlüssig.

Zumindest Laptop-Platten müssen zumindest in Flugzeugen problemlos arbeiten. Da ist die Luft teilweise dünner als in den tieferen, dichter bewohnten Lagen Nepals.
 
kommt doch meist nur müll an games raus, da gibts kein zusammenhang zwischen qualität und größe vom game.
Grafik assets brauchen Platz...
Baldur's Gate 3 verlangt schon nach 150GB SSD Platz.
World of Warcraft liegt inzwischen bei über 80GB.
Final Fantasy 14 ist ähnlich groß
Destiny 2 ist inzwischen auch dreistellig im Platzbedarf.
Anno 1800 will 60 GB
PUBG deren 40-50GB
Ark 60GB.
Hogwards Legacy schlägt mit 85GB zu Buche
Dagegen ist Civilization VI mit nur 23 GB schon echt bescheiden im Bedarf.

Bei den Downloadgrößen schmeißt man die Spiele auch nicht mal eben von der Platte.
Und so sind dann auch 1000GB relativ leicht voll
Danke für die Aufklärung


Deswegen meide ich große Spiele wie der Teufel das Weihwasser :-D Lange komme ich damit nicht mehr durch, heute haben bereits einige Spiele an die 60-100 GB bei denen man sich bezüglich der gebotenen Grafik, Spielumfang, Audio- / Videoinhalte wirklich fragen muss warum die so verdammt groß sind.

Bei einigen Spielen ist zudem der Download fast genauso groß, wie das installierte Spiel. Das ist auch eine Frechheit m.E.

Und ich finde auch, die Entwickler sollten vor allem die Update's klein halten. Ich erwarte aus ökologischen und praktischen Gesichtspunkten einen Patch wie früher, der nur die Unterschiede in einzelnen Dateien enthält und die alten Dateien auf den neuen Stand bringt, also den Datenunterschied ausgleicht, anstatt diese Dateien komplett neu herunterladen zu müssen.

Wenn ich überlege wieviel Spiel die release groups früher in 100-300 MB mehrfach und speziell gepackte Archive packen konnten oder man sich Beispiele für effiziente Speichernutzung wie kkrieger anschaut ist das heute doch in vielen Fällen echte Speicherverschwendung.
Die prozedurale Generierung von Texturen, wie in Kkrieger, war ja mal als die Zukunft angesehen...
Bei einigen Spielen ist das auch so - Nur sind das oft dann nur Teile der ganzen Texturen.
Baldur's Gate 3 hat sehr viel Videomaterial dabei...
Es gibt allerdings auch eine gewisse grafische Entwicklung zwischen z.B. dem ersten Civilization, dass auf wenige Disketten passte und Civilization VI mit 23GB.
X: Beyond the Frontier brauchte damals 360 MB auf der Platte. X4 liegt dagegen bei 20 GB... was auch noch relativ wenig ist, wenn man die Größe des Universums darin bedenkt.
 
Zuletzt bearbeitet:
Ein RAID0 aus sechs Platten? Da ist hoffentlich nichts drauf, was du nicht entbehren kannst.
Nö, nur 5 Partitionen mit je Windows XP, 7, 10 und 11 + Data. Ich habe keine Angst das da was ausfällt. Das System rennt wie es soll. Keine Panik....
Klar kann mal ne Platte ausfallen, aber dafür habe ich meine Backup Archiv HDDs und schon wäre alles sofort wiederhergestellt. Sicher wäre Raid 1 besser, aber ich bin Retro Fan und daher ist dies alles so gewollt.
HDDs halten länger als man voraussagen kann. Wichtig ist eine saubere stabile Stromversorgung und darauf achte ich besonders.:-)
 
Ich habe keine Angst das da was ausfällt. Das System rennt wie es soll. Keine Panik....
Das tun Systeme eigentlich immer, bis sie es nicht mehr tun. ;)
Klar kann mal ne Platte ausfallen, aber dafür habe ich meine Backup Archiv HDDs und schon wäre alles sofort wiederhergestellt.
Na dann.
Sicher wäre Raid 1 besser, aber ich bin Retro Fan und daher ist dies alles so gewollt.
RAID1 wäre auch Käse, dann hättest du fünf Kopien. Aber so ein RAID5 oder RAID6 wäre halt mit der Plattenzahl recht effizient und würde im Zweifelsfall mal die Arbeit sparen.
HDDs halten länger als man voraussagen kann.
Oder kürzer. Das ist das Problem mit den Voraussagen. ;)
Wichtig ist eine saubere stabile Stromversorgung und darauf achte ich besonders.:-)
Das ist ein bisschen wie zu sagen, dass für ein Auto wichtig ist, dass man sauberes Benzin nimmt. Geht trotzdem irgendwann mal kaputt und meist dann, wenn man es am wenigsten brauchen kann. ;)
 
Google sagt, dass das dem Druck auf 2400m Höhe entspricht. Keine Ahnung bis wohin die Besiedelung geht. Aber gut, bis das noch mal deutlich weniger wird, wohl eher nicht.

Wiki sagt, dass weniger als 10 Prozent der Nepali jenseits von 3.000 m leben und rund 50 Prozent unter 1.000 m. Flugzeug-taugliche Festplatten sollten da also in der Regel kein Problem darstellen. Davon abgesehen sind die ~1 bar Standard-Umgebungsdruck auch schon ein Mittelwert, die Rekordwerte auf Meereshöhe liegen rund 0,25 bar auseinander. Nun wird der Zugriff auf Pr0n-Sammlung mitten in einem Jahrhundert-Taifun vermutlich auch nicht das wichtigste Anliegen sein, aber wenn nach jedem Durchzug eines solchen die Wirtschaft ganzer Regionen durch spahnabhebende Datenverarbeitung ausgelöscht werden würde, hätte man vermutlich schon ein paar mal davon gehört.

Im erstbesten ergooglebaren Handbuch (Seagate ST10000VE001) stehen zusätzlich -304,8 m bis 3048 m Umgebungsbedingungen übrigens noch bis zu 70 G mechanische Belastung, bei 0,7 bar bestehen also scheinbar noch großzügige Reserven für unbeabsichtigte Kopfauslenkungen.
 
Im erstbesten ergooglebaren Handbuch (Seagate ST10000VE001) stehen zusätzlich -304,8 m bis 3048 m Umgebungsbedingungen übrigens noch bis zu 70 G mechanische Belastung, bei 0,7 bar bestehen also scheinbar noch großzügige Reserven für unbeabsichtigte Kopfauslenkungen.
Merkwürdigerweise sind es beim Schreiben nur 40G. Warum auch immer.
 
Wenn ein Lesevorgang so sehr gestört wird, dass die Fehlerkorrektur nicht mehr reicht, kann man einfach ein zweites Mal lesen. Daten ein zweites Mal an die richtige Stelle zu schreiben, ist zwar, je nach Cache-Verwaltung, auch möglich, bringt aber die überschriebenen Bereiche nicht zurück. ;-)
 
Zuletzt bearbeitet:
Wenn ein Lesevorgang so sehr gestört wird, dass die Fehlerkorrektur nicht mehr reicht, kann man einfach ein zweites Mal lesen.
Ich frage mich nur, was passiert, wenn er korrekte Daten von der falschen Stelle liest, da dürfte die Fehlerkorrektur ja auch nicht helfen. Wenn da mal nicht ein Side-Channel-Skandal schlummert. ;)
 
Ich frage mich nur, was passiert, wenn er korrekte Daten von der falschen Stelle liest, da dürfte die Fehlerkorrektur ja auch nicht helfen. Wenn da mal nicht ein Side-Channel-Skandal schlummert. ;)
Der Schreib-/Lesekopf weiß zwingend immer sehr genau wo er ist. Es gibt nicht nur eine Fehlerkorrektur der ausgelesenen Daten über Paritätschecks (was du vermutlich meinst) sondern auch sehr ausgeklügelte Mechanismen dass der Lesekopf auch die Spuren genau trifft - denn es müssen beispielsweise auch thermische Ausdehnungen ausgeglichen werden. Ein springen des Kopfes auf eine Nachbarspur ohne dass die Elektronik es bemerkt ist praktisch unmöglich.
 
Haben die nicht eh Beschleunigungssensoren und parken den Kopf, sobald man in die Nähe von 1G kommt? Vermutlich ist ein Betrieb bei solchen Beschleunigungen eh nicht möglich und die Spezifikation gibt nur an, ab wann Schaden entsteht, wenn eine plötzliche Erschütterung entsteht.
 
Zurück