G
Gast1668381003
Guest
Grafikkarten sind nicht wie Oldtimer oder Rolex. Die Dinger altern wie Milch and gewinnen niemals an Wert.
Da kann aber theoretisch NV auch zu der Lösung der Vergangenheit zurück gehen und das Ding so auf den Markt werfen und Overclocker können dann Saft drauf geben.Torsten sagt, dass er eine Grafikkarte, die nach aktuellem Stand in etwa die doppelte Leistung einer RTX 3090 Ti erreicht, nicht mal geschenkt nutzen würde, wenn sie dafür 800 Watt braucht. Echt, das siehst du auch so?
Ich frage, weil die Leistungsaufnahme einer Grafikkarte sehr flexibel ist. Im neuen Heft (auch digital verfügbar!) haben wir, wie von Richie in der Bildergalerie schon verlinkt, ein großes Undervolting-Special. Dort gibt's einen 4 Seiten starken Zusatz, welcher sich der Optimierung einer RTX 3090 Ti widmet. Diese kann man problemlos auf die Minimalspannung zwingen und damit die Leistungsaufnahme mehr als halbieren - selbstverständlich ohne dass die Leistung ebenfalls um ~60 Prozent sinkt. Sprich, die noch spekulative "Ada-Titan" mit 800 Watt wird sich vermutlich auch mit 300-350 Watt betreiben lassen, dann noch 70-80 Prozent ihrer Basisleistung aufweisen und wäre damit sehr effizient. Fangen wir an, die TGP als Startwert zu sehen, nicht als Ziel.
MfG
Raff
Ja, dem stimme ich zu. Welcher normale Nutzer lädt sich ein Tuningtool runter, um die Spannung zu optimieren?Das mag zwar in einem Forum wo viele Nerds sind irgendwann mal funktionieren, aber die gefühlt 99,9% da draußen werden das sicher nicht machen.
Egal mit oder ohne untervolten, der verbrauch steigt dennoch deutlich immer weiter an.
Ja ich würde so eine Karte gleich weiterverkaufen. Irgendwo muss auch mal Schluss sein. Das höchste der Gefühle von der neuen Gen is ne 4070. Aber so wie es aussieht, werde ich wohl eh eher auf AMD wieder gehen..Torsten sagt, dass er eine Grafikkarte, die nach aktuellem Stand in etwa die doppelte Leistung einer RTX 3090 Ti erreicht, nicht mal geschenkt nutzen würde, wenn sie dafür 800 Watt braucht. Echt, das siehst du auch so?
So siehts aus. Strom wird grade enorm viel teurer. Ich glaube manche haben das auch noch nicht realisiert oder es is ihnen einfach egal weil sie eh genug verdienen. Aber ich finde man muss solche Ausreißer an Grafikkarten wirklich nicht noch supporten. AMD scheint es ja deutlich sparsamer zu können.Wie man es auch wendet und dreht, der Verbrauch steigt und der Strom wird parallel teurer.
Früher™ haben die Gaming PCs auch unter 100W gebraucht. Die Kompressporkühlungen haben nur wenige genutzt, denn Früher™ ist der PC schneller veraltet, als man schauen könnte. Das selbe mit mehreren Grakas. Das haben nur wenige gemacht, da es ein Jahr später schon die doppelte Leistung zum selben Preis gab.
Von daher verklärst du es.
Wird doch extra für PCGH und vor allem für Raff gebaut. Die Karte ist rein zum benchen ?So eine Karte hat genau einen Sinn:
Sie soll ins CPU-Testrig der PCGH wandern.
Mich kannst du jedenfalls nicht meinen, denn mein Ego braucht keine dicke GPU. Mein Anspruch als Pixelzähler hingegen schon - ich lebe diesen Beruf. Zum Flexen taugt eine GPU einfach nicht. Versuch mal, damit in der Fußgängerzone oder der Münchner Maximilianstraße vorzufahren und die Damen zu beeindrucken.Na dann machen wir doch direkt mal den Champagner auf, wenn die Karte dann…ähm…nur noch…bis 350W braucht. Zwar könnte man dann genauso gut eine günstigere und effizientere Grafikkarte kaufen, aber die macht sich natürlich nicht so gut in der Signatur und sie streichelt auch nicht so das Ego eines gewissen PCGH Redakteurs. Wie hieß er doch gleich? Laff? Baff? Ach ich weiß nicht mehr
Ich bin seit 1993 mit Personalcomputern zugange, also auch schon ein paar Tage und würde sagen, dass Kompressorkühlungen, SLI Geschwader oder sonstige Freak-Ware in der guten alten Zeit™ niemals auch nur annähernd normal oder gar Standard waren, sondern immer schon nur für Enthusiasten. Ich denke, das weißt Du selber auch und willst nur ein bisschen Staub aufwirbeln, oder?Also nen Athlon XP mit Single Stage haste auch schon auf 800W Systemverbrauch bekommen. Und ne Mach 2 GT oder VapoChill hat niemand weggeworfen, beim Wechsel auf neue Hardware. Die Prometeia gabs sogar schlüsselfertig mit LianLi-Gehäuse. Das liess sich Jahrelang nutzen, wenn man nicht gerade irgendeinen Coldbug an der CPU hatte. Die waren so simpel wie heute ne AiO-Wakü.
Was die Grakas anging, hat ne GTX580 500€ oderso gekostet. Für den Preis einer heutigen 3090 konnte man da schon Triple- oder Quad-SLI fahren. Bei >250W je Graka kann sich jeder ausrechnen, was das bedeutet.
Da sind heutige "Enthusiasten"-PCs doch nicht schlimmer. Und dann kann man mit Powerlimit, Temperaturlimit, FPS-Limit und Undervolting kräftig Strombedarf sparen. Ich finde die aktuellen Produkte ziemlich beeindruckend, was das angeht.
"Normale" Nutzer wahrscheinlich eher nicht - und das wird vermutlich (leider) auch die Mehrheit sein, machen wir uns nichts vor.Ja, dem stimme ich zu. Welcher normale Nutzer lädt sich ein Tuningtool runter, um die Spannung zu optimieren?
Und ja, der Verbrauch steigt trotz undervolting weiter an. Früher konnte eine potente Grafikkarte auf unter 200 Watt undervoltet werden. Nun sind es unter 300 Watt. Wie man es auch wendet und dreht, der Verbrauch steigt und der Strom wird parallel teurer.
Warum wird sich bei Grafikkarten (hier) eigentlich so sehr am maximalen Verbrauch orientiert? Macht ihr das bei Autos auch so?800W kann ich mir jetzt nicht vorstellen, aber selbst 600W für eine GPU wären meiner Meinung nach schon mehr als dekadent - und auch gar nicht nötig. Es ging so viel effizienter, wenn man wollte.