Dazu werden selbst bei 60% mehr Energie, 60% mehr Kerne keine 60% mehr Leistung bringen.
Bei 600W TDP, könnte eine 4090ti super wenn 32GB verbaut würden, rund 30% mehr in den Chip braten...
Damit dürfte meiner Meinung nach eine solche 4090 super nur um die 8% höher takten.
Ich würde bei 600W von 11% mehr Leistung in Spielen ausgehen, plus minus je nach Spiel.
Die 4090 hat 60% mehr Kerne UND 4 Chips mehr, von der 320W der 4080 auf die 450W der 4090 sind aber keine 60% mehr Strom... So einfach ist das ganze wieder nicht. Zudem läuft die 4090 nichtmal Stock mit den 450W, sondern mit weniger.
32GB geht sowieso nicht, da der DIE ein 384bit Bus hat, das entspricht 12 Chips x 32bit. Oder man stackt diese und dann gibt es 24 Chips x 16bit, wie bei der RTX6000 Ada.
32GB würde bedeuten 16 Chips x 16bit, also nur 256bit Bus, das wäre langsamer.
Meine +-5% (eher umdie 5-7%) kommen daher, das ich das mit meiner 4090FE selbst in 3DMark getestet habe.
Die 4090 zieht keine ganzen 600W, weil die Spannung nicht höher als 1,1V eingestellt werden kann, die zieht aber damit ~580W. Mit 1,05V, was bei vielen custom Karten das Maximum ist, kriegt man das sowieso nicht hin.
Die 4090 läuft Stock bereits hinter dem Optimum. Das merkt man daran, das 100%!! mehr Strom, also von 300 auf 600W gerade mal 10% bis maximal 15% mehr Leistung bedeuten. Und das relativ Linear...
Meine 4090 läuft auf der für meine Karten möglichen Minimalspannung ohne das es instabil wird von 875mv mit einem Takt von ~2520Mhz, was lustigerweise dem entspricht was Nvidia als Boosttakt angibt.
In Port Royale verliere ich 7% Punkte im Vergleich zu Stock, läuft dann aber auch unter 300W anstatt bei 430-440W.
Weitere Sparpotentiale:
Ein FPS-Limit ist auch wichtig, das spart nochmal einiges an Storm ein. Bei mir sind es 117FPS wegen 120hz OLED, VRR/G-Sync und Tearing.
Dann gibt es noch DLSS, ja Upscaling spart auch Strom. Vor allem wenn auch ohne Upscaling das FPS-Limit erreicht wird.
Z.b. Baldurs Gate 3 verbraucht das Spiel native in 4k 300W. Man kann dann DLSS Quality nutzen, was die Bildqualität VERBESSERT und dabei rutscht der Verbrauch auf nur 180W, in 4k mit maxed Settings.
Bei CPUs sieht man das gleiche. Ich hatte z.b. mal einen 5950X, der lief Stock bis auf 5Ghz und zog insgesamt 80W dabei in Cinebench R23.
Dann habe ich den gedrosselt auf die Spannnug und Takt, die innerhalb des PLs auf allen Kernen läuft, das war 1,1V bei 3,8Ghz. Dann habe ich solange den Takt erhöht bei 1,1V bis die CPU nicht mehr stabil lief und kam so auf 4,2Ghz.
Die ganzen 800Mhz weniger haben in Cinebench -10% Punkte ausgemacht, aber während des Tests zog die CPU nicht mehr 80W sondern eher 50W. 10% Singlecore Leistung für 30W bzw ~40% mehr Strom.
Beim Surfen hat das ganze auch viel ausgemacht, da die CPU alleine beim Surfen z.b. auf PCGH immer auf 5Ghz bei 1,5V und damit auf 80W hochgeboostet ist. Das hätte normal nicht passieren dürfen, ist es aber.
Nach dem UV waren es nur noch 40W.
Klar "der Kunde" wünscht sich das alles aus der GPU/CPU herausgeholt wird, ohne das man was einstellen muss.
Aber es gibt Leute die gerne selber Hand anlegen, die können so nicht mehr viel machen, und es gibt Leute wie mich, die Teile lieber am Effizienzoptimum laufen haben.
Am Ende sind es >150W weniger aus der Steckdose bei meinem PC, was weniger Hitze im Raum und pro Tag gerne 0,6-1kW/h weniger kosten bedeutet, weil ich Abends und am WE viel am PC bin.
Ich habe nun einen 5800X3D, aber die oben angedeuteten 30W des 5950X waren aufs Jahr gerechnet auch >30€ Stromkosten bei mir, da die CPU fast immer auf 80W anschlug.
P.S. Ein CP2077 mit PT läuft mit maximalen Settings in 4k sowie DLSSP+FG+RR bei 90-100FPS bei 280W mit dem UV. Sparsamer als ne 4080 (oder gar 4070Ti) und trotzdem deutlich mehr FPS.
Die 5-7% bzw 5-7FPS weniger zu Stock, merkt man gar nicht.
Edit:
Wer eine 4090TI haben will und Übertakten will, der soll es ruhig machen, dagegen sage ich ja nichts.
Aber man sollte SELBER die Entscheidung haben ob man übertaktet oder nicht und für mich sind ALLE GPUs und viele CPUs auf dem Markt von vornerein übertaktet, ohne das man die Wahl hat.