Das sind keine guten Annahmen. Wenn ihr das Maximum aus den Karten holen wollt, dann dürft ihr nicht nur schauen, wie die Karte in einem bestimmten Spiel taktet. Das bringt rein gar nichts. Wenn ein Spiel die Karte nicht auslastet, dann geht der Takt hoch und der Verbrauch runter, natürlich. Wenn die Karte allerdings maximal belastet wird, dann ist es schier unmöglich unter die TDP zu kommen. Nein, es ist unmöglich. Die TDP ist immer der limitierende Faktor. Außer du lockst die Voltage-Curve bei 0.8V.
Trotz 0.94V und 2.8Ghz hängt meine Gainward immer bei 400W in Speed Way und Time Spy Extreme. Nicht aber nur in den synthetischen Benches. In CP2077 mit max Settings in 4k, SottR ohne cap in 4k max settings ebenso. Immer wenn die Karte voll ausgelastet ist, dann kommt man an der TDP nicht vorbei. Wenn du dann die TDP auf 250W limitierst, dann wird du kaum über 2.3Ghz hinaus-kommen.
Wenn man natürlich nur FHD-Games spielt oder gar auch manche WQHD-Titel, dann ist das natürlich verständlich, dass solche Fehlschlüsse entstehen. Bei mir ist das Verhalten sogar auch so wenn ich Forza Horizon 5 spiele..da taktet die 4090 auch auf über 3 Ghz und kommt kaum über 320W, weil es einfach weniger auslastet.
Warum sollte man dann mit Benchmarks testen oder bestimmten Spielen? Weil man immer vom Worst-Case ausgeht. Settings die unter light-load stabil laufen, brechen dir ggf. direkt ein, wenn max load anliegt. Wer will denn diesen Ärger? Also, immer mit maximaler Belastung testen und wenn es dann stable ist, dann ist es wirklich stable. Wenn du z.B. den PCIe Test von GPU-Z nimmst...da kommst du locker auf den maximal möglichen Takt mit 0,8V und kaum Verbrauch. Es lastet halt einfach nicht aus.
Kann auch nicht verstehen, warum so viele sagen, dass die Spannung limitieren würde. Nein. Das tut sie unter Volllast nicht. Niemals. Nur die TDP.
Das ist, wonach forcierte 0.87V aussehen, trotz VCurve +190: