War Hardware früher besser?

Lebensdauer kann ich so unterschreiben. Hab erst ein System von 2002/2003 aus dem Keller eines Kleinanzeigenerstellers erstanden und die Möhre läuft anstandslos* (* von neuer WLP und Schmieren der Lüfterlager mal abgesehen)
 
Mein alter Rechner von 2001 lief bis vor kurzem völlig problemlos bei meiner Mutter. Das einzige, was ich da mal aufgerüstet hatte, war ne Grafikkarte und eine HDD, als die größer wurden. Hat ihr gereicht. Jetzt hat sie meinen alten Rechner bekommen, den ich bis letztes Jahr betrieben habe. Da die Grafikkarten aber so teuer sind, ist auch da die GTX 750 drin. Meiner Mutter reicht das völlig aus, da sie eh mit Vorliebe alte Spiele zockt.

Mir ist, seit ich damals mit PCs angefangen habe, außer 2 NTs noch nie Hardware kaputtgegangen, nicht mal Festplatten. Auch die Platten aus dem 2001er Rechner waren letztes Jahr noch völlig in Ordnung.

Ich habe meine Hardware noch nie wegen Defekt erneuern müssen, sondern immer nur, weil mir dann eben die Leistung nicht mehr gereicht hat. Also würde ich sagen:

Alte und neue Hardware schenken sich aus meiner Sicht heraus in Sachen Langlebigkeit nichts. Hier muss man aber auch bedenken, dass neuere Technologie auch immer komplexer und dichter gepackt ist - Das bedeutet natürlich auch eine größere Fehleranfälligkeit. Uralte Celeron Single Core CPUs kann man sogar im Weltraum betreiben, eine moderne Multicore CPU mit ihren Milliarden Transistoren würde durch Tunneleffekte gnadenlos verrecken, wenn man sie nicht abschirmt.

Preislich ist es so, dass Hardware, insbesondere Grafikkarten, teilweise sehr überteuert ist. Bei nur zwei großen Anbietern aber auch kein Wunder... Monopolstellung und so. Und so lange genug Leute das mitmachen, wird sich daran auch nichts ändern. Ein paar neue Mitbewerber mit konkurrenzfähiger Hardware würden die Preislage sicher entspannen. Mal gucken, ob Intel sich etablieren kann.
 
Alte und neue Hardware schenken sich aus meiner Sicht heraus in Sachen Langlebigkeit nichts. Hier muss man aber auch bedenken, dass neuere Technologie auch immer komplexer und dichter gepackt ist - Das bedeutet natürlich auch eine größere Fehleranfälligkeit.
Eben! Deswegen sind das quasi "Äpfel mit Birnen" Vergleiche. ;)
 
Höchste Ausfallrate hatten bei mir in meiner ganzen privaten PC-Karriere bisher optische Laufwerke(wegen der Schubladenmechanik) und USB-Sticks(Flashchips oder Controller durchgebrannt) gehabt. Danach folgen Mainboards(vor allem wegen der Kondensatoren in den 00ern.), dann Grafikkarten(bevor es Temperaturschutz gab). Noch nie hatte ich eine defekte CPU. Der ganze Rest liegt irgendwo dazwischen.
Klassische Festplatten überraschen mich aber wirklich mit der Langlebigkeit(oder ich habe immer Glück gehabt). In den frühen 00er Seagates, dann in den späten 00ern WDs und mittlerweile nur noch Toshibas.
 
Die Frage ist doch, was man als "besser" definiert.

Nach meinem Empfinden ist alte Hardware besser verarbeitet und robuster gewesen. Allerdings war die Leistungsfähigkeit und damit einhergehend die Miniaturisierung auch wesentlich geringer als heute. Ich würde allerdings sagen, dass die Tendenz zu schlechter Verarbeitung im Consumer Bereich grundsätzlich zugenommen hat. Es gibt auch heute noch hochwertig verarbeitete Systeme, aber dann vor allem im Business Segment zu höheren Preisen.
 
Die Frage ist viel eher, was man als "früher" definiert. :D

Dass die Rechner heute länger halten, ist in gewisser Weise auch ein Framing. Bzw. hat auch eine Kehrseite. Denn die Hardware an sich altert nicht -- abgesehen von physischen Abnutzungserscheinen. Es ist die Software, die sich längst nicht mehr so radikal entwickelt. Während man 10 Jahre alte Spiele noch heute problemlos anschauen und sogar spielen kann, ohne Hautausschlag zu kriegen, lagen zwischen Ultima Underworld und Doom³ gerade mal drei Fußball-EMs. Beides Benchmarks ihrer Zeit, fragt die Säcke.

Warum ist das so? Je niedriger das Niveau, desto leichter sind die ersten Sprünge. Ab da wirds immer aufwändiger.

Zudem: Früher konnten es sich Firmen wie Origin oder id leisten, selbst PCs von damals überübermorgen zum Kotzen zu bringen -- fünfzig Milliarden Einheiten verkaufen, nur um den Break Even zu stemmen, mussten sie nicht -- selbst das Doom³-Team bestand noch aus gerade mal ~20 Leuten. Rücksicht auf schwächere Plattformen generell nehmen auch nicht (Stichwort: Konsolen). Zum anderen: Der Aufwand wird immer höher. Bereits heute sind Blockbuster-Entwicklungszeiten von einem halben Jahrzehnt, manchmal gar länger, die Norm. Und das, obwohl daran Hundertschaften arbeiten. Übrigens auch ein Grund, warum viele alte Hardware erst jetzt durchs Roster fällt, so langsam: Die aktuellen Konsolen kamen erst vor einigen Jahren auf den Markt. Davor waren schwächere Plattformen die Leads, die den Markt bestimmten.

PS: Ich habe mich hier bewusst alleine auf Spiele konzentriert, weil das ein Spieleforum ist.
 
Zuletzt bearbeitet:
Zurück