Der Witz beim Undervolten ist ja gerade, genau den Punkt zu finden, an dem man bei deutlicher Verbrauchssenkung nur minimale Leistungseinbußen hat - und zwar so minimal, dass sie durchgehend kaum wahrnehmbar sind und erst recht nicht über die Spielbarkeit eines Titels entscheiden. Wir reden hier vom einstelligen Prozentbereich. Ich wüsste auch nicht, was zukünftige Titel daran ändern sollten. Kühler, leiser, verlängerte Lebensdauer, geringere Stromkosten - das alles nimmt man doch gerne mit.
Ich hab' mir - wie ich das alle zehn Jahre so mache - gerade vor ein paar Tagen auch erst einen neuen Rechner zusammengestellt, und lasse dabei sowohl meine 4090 als auch meinen 13900K bereits händlerseitig undervolten. Das muss halt für jede Karte individuell gemacht werden, weil es selbst bei gleichen Marken und Modellen Unterschiede gibt. Gerade gestern hat er mir von einem der vielen Benchmarks berichtet, die er dabei verwendet und dabei erzielte meine Suprim bei 230 Watt immer noch 90% und bei 270 Watt 99% des Scores, den die Karte ohne jegliche Beschränkungen liefert. Klar wird das nicht in jeder Situation und bei jedem Benchmark so sein, aber das zeigt das krasse Potential.
Wenn man vorrangig spielt, gilt das umso mehr. Du kannst ja auch - etwas weniger elegant - einfach das Powerlimit der Karte runtersetzen, um zu testen, wie viel Power tatsächlich benötigt wird. Zitiere diesbezüglich mal aus dem CB-Test der FE:
"Die GeForce RTX 4090 Founders Edition kann im Werkszustand bis zu 450 Watt aufnehmen, tut es aber bei weitem nicht immer. Nicht nur deshalb, sondern weil vor zwei Jahren schon 350 Watt TDP der GeForce RTX 3090 einen neuen Höchstwert markierten, stellt sich die Frage, inwiefern die GeForce RTX 4090 die hohe TDP für die hohe Leistung wirklich benötigt. ... Um das herauszufinden, hat die Redaktion das Power-Target der GeForce RTX 4090 von 450 auf 350 Watt und anschließend auf 300 Watt reduziert. ... Das Ergebnis ist eindeutig: Viel schneller wird die GeForce RTX 4090 durch den Sprung von 350 Watt auf 450 Watt (nicht immer ausgereizt) im Testparcours auf dem Core i9-12900K nicht. Im Durchschnitt legt Nvidias neues Flaggschiff dadurch nur um 3 Prozent zu. Ausnahmen bilden Spiele, in denen die RTX 4090 die 450 Watt ausreizt, der Einschnitt auf 350 Watt also groß ist. Aber selbst dann bleibt der Zuwachs einstellig."
Von daher: Gewürfelt wurde die TDP von Nvidia natürlich nicht, aber sie liegt halt deutlich höher als der Punkt, der von den meisten als "Sweet Spot" empfunden wird. Zitiere auch hier wieder gerne aus dem CB-Test, der die TDP sogar ganz klar zu hoch findet:
"Die Messreihen zeigen, dass Nvidia mit der Entscheidung, die GeForce RTX 4090 auf dem TDP-Niveau der GeForce RTX 3090 Ti zu belassen, über das Ziel hinausgeschossen ist. Maximal 400 Watt hätten gegenüber 450 Watt quasi keinen Leistungsverlust, 350 Watt einen im Durchschnitt nur messbaren gebracht. Dem „Vorgänger“ mit 450 Watt zeigt wiederum selbst die 300-Watt-Konfiguration der RTX 4090 nur die Rücklichter."
Dementsprechend sind auch 600 Watt maximale TDP einfach Quatsch; selbst bei meiner Suprim liegt die bei "nur" 520 Watt. Ich werde mein dauerhaft undervoltetes System auf jeden Fall ganz entspannt mit einem 850 Watt-Netzteil betrieben.