Gedankenexperiment: Kerne abschalten verbessert Verbrauch bei noch vorhandener Performance?

L

Lohnkrake

Guest
Ich habe mir in meinem Kopf aus "Gründen" die Frage gestellt:

Ist ein Gaming-Rechner möglich, der max. 300W (~450W Lastspitzen) verbraucht und dennoch in CPU-Limit Spielen wie Anno oder Tropico min. 30 FPS auf einer vollen Map schafft bei mittleren bis hohen Details.

Im GPU-Limit sollen aktuelle Spiele in 1440p in 70-80 FPS möglich sein bei mittleren-hohen Settings.
Am wichtigsten sind aber eher:
1. Bildrate geht über alles
2. Auflösung
3. Anti-Aliasing
4. Texturen
Dann der Rest.

Eine Überlegung von mir ist, dass man einen 13100f nimmt, dessen 4C/8T fürAufbauspiele im CPUlimit voll ausreichen sollte. Oder aber, man nehme einen 13900K und schaltet alles bis auf 4C ab und behält HT bei. Nehmen wir ein festes Powerlimit für die CPU... sowas wie 45W (erstmal aus der Luft gegriffen). Wäre der i3 oder der i9 performanter (gibt eine höhere Bildrate aus) bei gleichen Powerlimit?

Danach käme die GPU, hier das selbe wie bei der CPU: RX 6700 mit 180W betreiben oder eine 7900 XTX bei 180W betreiben?
 
Wenn du ein FPS Limit setzt und beide CPUs das erreichen wirst du wahrscheinlich keinen großen Unterschied zwischen verschiedenen Modellen einer Serie sehen. Ungenutzte Kerne können auf ein paar mW Verbrauch runter schalten.
 
Grundsätzlich ist innerhalb einer Chipfamilie/Architektur ein großer Chip der durch sein Powerlimit eingebremst wird immer schneller/effizienter als ein kleiner Chip der am Vollanschlag läuft.
Das hat aber Grenzen - denn große Chips brechen irgendwann komplett ein, wenn das Powerlimit zu weit von ihrem Normalbetrieb entfernt ist (und manuell keine Chipteile ganz abgeschaltet werden).

Insgesamt ist der Unterschied in der reinen Performance aber in aller Regel so gering, dass er niemals die nötigen Mehrkosten rechnet - bedeutet die Mehrkosten eines stark gedrosselten 13900K stehen in keinem Verhältnis zu einem 13100F am Anschlag, auch wenn der 13900K bei gleichem Verbrauch etwas schneller ist.

Für dein Vorhaben würde sich eher ein 13600K anbieten den man manuell auf 100W max einbremst sowie eine RTX4070Ti die auf 200W limitiert wird. Dann biste in aller Regel unter 300W Lastverbrauch und das System ist sehr effizient und fix.
 
Grundsätzlich ist innerhalb einer Chipfamilie/Architektur ein großer Chip der durch sein Powerlimit eingebremst wird immer schneller/effizienter als ein kleiner Chip der am Vollanschlag läuft.
Bei GPUs geh ich da vollkommen mit. Bei CPUs wird das eher knapp. Hat die größere Version auch mehr Cache pro Kern kann das helfen, aber Parallelisierung an sich ist da eher nachteilig.
Beim 13100 im speziellen haben 13600 und höher den Vorteil echte Raptoren zu sein während ersterer ein neue gelabelter Alder-Lke ist. Ergo mehr Cache, ergo effizienter. 13600 gegen 13900 dürfte dagegen in den Bereich kaum messbar gehen.
 
13600 gegen 13900 dürfte dagegen in den Bereich kaum messbar gehen.
In dem Duell gehts praktisch rein über den höheren Singlecoreturbo in spielen die der 13900er nutzen kann (das funktioniert oft auch in engen Powerlimits da Spielelast meist wenige Threads und Teillast ist).
Aber klar, der Effekt ist bei GPUs sehr viel größer.
 
Wäre der i3 oder der i9 performanter (gibt eine höhere Bildrate aus) bei gleichen Powerlimit?
In dem Fall der i9, weil diesem mehr L3-Cache zur Verfügung stellt. Habe ich damals in einem IPC-Test selbst gemessen, als ich alle CPUs auf vier Kerne eingestellt habe. Die i9 waren immer ein gutes Stück schneller als die i7, i5 usw.

Wenn du also so etwas bei einer CPU machen möchtest, dann immer mit dem Modell mit der höchsten Ausbaustufe an L3-Cache.
 
Also macht der L3-Cache den Unterschied.

Und die 4070 Ti bietet bei 200W die meiste Rasterperformance? Hätte gedacht, dass eine 4090 vorne liegt im Direktvergleich.
Oder mal ganz doof gefragt:
Kann man bei einer GPU überflüssigen Ram abschalten und dabei den Verbrauch senken?
 
Hab mal kurz aus Interesse Anno 1800 angeschmissen...

5900X darf bis zu 180 Watt ziehen bei mir
7900XTX darf bis zu 500 Watt ziehen bei mir

Effektiv im Game brauche ich mit Overclocking keine 450 Watt auf Ultra, da ich so stark im CPU Limit bin mit dem Ryzen 5900X.

Ich denke, du brauchst das Powerlimit der Grafikkarte nicht Ansatzweise so hart zu verringern, um unter die 300 Watt zu kommen.
 
Mein 5800X3D liegt bei 60-105W je nach Spiel und Auflösung.
Meine 4090 läuft mit UV und 120 FPS Limit in 4k auf rund 200-300W. In 1440p und vorallem mit 90FPS Limit sollte die definitiv unter 200W sein.

Als Test habe ich mal Anno 1800 angemacht.
In 1440p mit maximalen Einstellungen habe ich auf auf Crown Falls (nur ~25% besiedelt) mit maximal rasugezoomer Kamera und weitem Winkel rund 65FPS. Dabei hat die 4090 ca 170W und der 5800X3D 60W.
Bei der CPU zeigt HWiNFO nur EINEN Kern unter Last und das ca 50% max, die GPU liegt beim 50-60%.

In 4k sind es immernoch 65FPS, aber dafür 80-90% GPU Last, CPU Last bleibt ähnlich. GPU braucht dann 230W.
Wenn ich ein wenig, nicht ganz, reinzoome, geht die FPS mal bis 50 in 4k runter.

Der 7800X3D könnte hier noch effizienter sein, wenn er mal nächsten Monat kommt, der 7950X3D zeigt es ja schon.
Eine 4070Ti sollte mit ein wenig UV in 1440p gut laufen, besser ist vielleicht eine 4070 (wenn die mal kommt).

Alternativ gibt es jetzt schon den 7700 non-X, der hat ab Werk ein geringeres Powerlimit.
 
Zuletzt bearbeitet:
Zurück