Bitte helft mir, etwas bzgl. des Stromverbrauchs zu verstehen

astralhorizon

Schraubenverwechsler(in)
Hallo zusammen,

ich habe vor kurzem von einem 400W Netzteil + GTX 1070 auf ein 650W Netzteil + RTX 3070 geupgradet. Die Netzteile sind beide von BeQuiet und in ihrer Effizienz vergleichbar. Dazu laufen ein Ryzen 5600, eine m2-SSD und nur eine HDD.

Die TDP der RTX 3070 liegt höher als die der GTX 1070. Ich spiele allerdings weiterhin Full HD und auf ähnlichen Einstellungen. Jetzt ist die erste Frage, über die ich nachdenke, die ich mir allerdings nicht definitiv selbst beantworten kann:

Habe ich vorher mehr Strom verbraucht, weil die GTX 1070 voll ausgelastet wurde, oder verbrauche ich jetzt weniger, weil die RTX 3070 aufgrund der für sie niedrigen FHD-Auflösung weniger ausgelastet wird?

Versteht ihr, was ich meine? Ich habe die 1070 ja zuvor an ihr Limit getrieben, die RTX 3070 nun aber kaum. Also könnte es doch sein, dass für dieselbe produzierte Leistung die RTX 3070 weniger Strom verbraucht, weil sie über mehr "Leistung pro Energieverbrauch" verfügt.

In Benchmarks und Reviews sieht man vor allem den Idle-Verbrauch und den unter Volllast. Beides trifft ja in meinem Fall auf meine RTX 3070 nicht zu, weshalb mir schwer fällt, die Angelegenheit richtig einzuschätzen.

Zweite Frage:

Vorher kam ich mit einem 400W Netzteil aus, jetzt musste ich sicherheitshalber aufgrund des Upgrades und der Empfehlungen auf 650W upgraden. Aufgrund der oben beschriebenen Umstände werde ich diese 650W aber nur sehr selten auslasten. Ist das Netzteil im von mir genutzten niedrigeren Wattbereich ineffizienter als bspw. ein 500W Netzteil? Ich meine so etwas mal gelesen zu haben. Oder ist das nicht mehr so? Es ist ein Platinum-Netzteil (Straight Power).

Inb4 ich erwarte natürlich keine definitiven Ferndiagnosen; mir geht es eher darum, ob meine Gedanken prinzipiell, d.h. theoretisch, richtig sind.

Vielen Dank an wen auch immer mich aufklärt. :)
 
Zuletzt bearbeitet:
Habe ich vorher mehr Strom verbraucht, weil die GTX 1070 voll ausgelastet wurde, oder verbrauche ich jetzt weniger, weil die RTX 3070 aufgrund der für sie niedrigen FHD-Auflösung weniger ausgelastet wird?
Nur wenn du auch ein Frame Limit gesetzt hast

Und ja NT werden bei wenig Last ineffizenter aber das ist nicht mehr so stark bzw. es muss schon sehr weit runter gehen bis das zuschlägt....
hier auch zu sehen:
unter: Wie viel Watt Leistung muss mein neues PC-Netzteil bringen?
 
Die 3070 wird auch versuchen ihre maximale Leistung zu erbringen und ohne einem Frame Limit oder V-Sync wird sie auch so viele FPS erzeugen wie sie kann.

Mittels HWinfo oder HWMonior kannst du ersehen, was für Watt deine Grafikkarte und Prozessor je nach Leistung erbringt. Möchtest du es genau wissen, dann kannst du dir auch ein Strommessgerät an die Steckdose stecken. Dann misst das Gerät, was dein gesamtes System, je nach Beanspruchung verbrauchen wird.

In meinem Fall kann ich den Stromverbrauch für einen längeren Zeitraum immer übersehen.
Ashampoo_Snap_Donnerstag, 23. Februar 2023_08h15m17s_001_.png Ashampoo_Snap_Donnerstag, 23. Februar 2023_08h15m34s_002_.png Ashampoo_Snap_Donnerstag, 23. Februar 2023_08h15m57s_003_.png
 
Sorry, das hätte ich ergänzen müssen: Ich nutze eigentlich fast immer V-Sync, d.h. die Framerate ist begrenzt.

Vielen Dank für eure Tipps! Wie genau ist die softwareseitige Messung des Stromverbrauchs?
 
Wie genau ist die softwareseitige Messung des Stromverbrauchs?
Bei NV passt das schon ziemlich gut. Wenn die Karte die 200W anzeigt kannste davon ausgehen dass das auf +/- 10 W schon stimmt.
Wenn du die Details wissen willst:
 
Für mich noch mal als Fazit: Ich kann also davon ausgehen, dass mein neues System theoretisch im oben geschilderten Szenario WENIGER Strom als das alte zieht, sofern ich die Framerate, bspw. durch V-Sync, begrenze und die GPU noch Luft nach oben hat?

@Incredible Alk
Interessant, ich werde nachher mal HWinfo installieren und prüfen!
 
Für mich noch mal als Fazit: Ich kann also davon ausgehen, dass mein neues System theoretisch im oben geschilderten Szenario WENIGER Strom als das alte zieht, sofern ich die Framerate, bspw. durch V-Sync, begrenze und die GPU noch Luft nach oben hat?
Woher sollen wir das wissen? Teste einfach selbst!

In der Regel ist neue Hardware leistungsfähiger und normalerweise würde sie auch mehr Strom verbrauchen. Wie es genau mit bestimmten Limits ausfällt, lässt sich per Glaskugel nicht ersehen.
 
Für mich noch mal als Fazit: Ich kann also davon ausgehen, dass mein neues System theoretisch im oben geschilderten Szenario WENIGER Strom als das alte zieht, sofern ich die Framerate, bspw. durch V-Sync, begrenze und die GPU noch Luft nach oben hat?

@Incredible Alk
Interessant, ich werde nachher mal HWinfo installieren und prüfen!
Ich bin auch von einer 1070 auf die 3070 gewechselt. Ebenfalls auf FHD geblieben.
Hab mich da viel mit der Stromaufnahme und undervolting beschäftigt und kann sagen @stock settings braucht die 3070 etwas mehr Strom. Auch bei gleichem Framelimit usw.
Man darf nicht vergessen das die 3070 gut 3mal mehr Shader und GDDR6 Speicher und ca ±100% mehr Grafikleistung hat. Irgendwo muss dafür auch der Strom hergenommen werden.
Die TDP 150Watt der 1070 vs 240Watt der 3070 sagt das eh auch schon deutlich aus.
Was man auch nicht ausser acht lassen sollte ist, das die Ampere Chips der 30er Serie deutlich höhere und schnell wechselnde Lastspitzen haben und ein Netzteil mehr stressen als zB Pascal - unterdimensionierte Netzteile können da schon mal abschalten. Daher ist dein Wechsel auf 650Watt durchaus gerechtfertigt.
 
Für mich noch mal als Fazit: Ich kann also davon ausgehen, dass mein neues System theoretisch im oben geschilderten Szenario WENIGER Strom als das alte zieht, sofern ich die Framerate, bspw. durch V-Sync, begrenze und die GPU noch Luft nach oben hat?
Grundsätzlichlich ja. Die 3070 liefert pro Watt mehr FPS als eine 1070. In deinem Fall, mit begrenzten FPS, ist genau das zu erwarten, was du beobachtest.
Etwas unklar, aber im Endeffekt wohl zu vernachlässigen, ist die unterschiedliche Effizienz der Netzteile.
Unter hoher Last wird die 3070 allerdings mehr Leistung aufnehmen als die 1070. Möglicherweise hätte dein 400W Netzteil dennoch gereicht.
 
Zuletzt bearbeitet:
Falls du einen ähnlichen Verbrauch mit 3070 wie mit der 1070 zuvor erzielen möchtest, dann kann man sich noch mit dem MSI Afterburner beschäftigen.

Abgesehen davon, kann ich berichten das nun durch den Wechsel von 3070 zu 4080 in BF4 zB. der Verbrauch des Gesamtsytems um 30Watt niedrieger, als zuvor mit der 3070 und wiederum 30Watt weniger im Vergleich zur 1080 ist und das bei höherer FPS Begrenzung (Wechsel von 144 auf 165Hz).

In Zahlen reden wir hier von 160W, 190W und 210W (Gesamtsystem, gemessen an der Dose)
 
Woher sollen wir das wissen? Teste einfach selbst!
This.

Es ist extrem davon abhängig, was genau die GPU tun soll wie viel sie im Vergleich zu anderen verbraucht.

Ich habe früher D2 Resurrected in 4K (DLSS Quality) auf einer RTX2080 gespielt. Die war auf 180W max eingestellt und verbrauchte diese auch oft um die 60 fps in allen Situationen durchzuhalten.

Meine aktuelle RTX4080 macht den gleichen Job mit unter 100W und 2D-Performance Taktraten unterhalb 2 GHz, selbst wenn ich auf 144fps erhöhe sinds immer noch 30W weniger als die 2080er vorher.

Wenn ich dagegen den Hexer anwerfe haut die 4080 sofort die 250W raus die ich ihr erlaube (und würde 300 fressen wenn sie dürfte) - da ist der Verbrauch also deutlich höher als vorher (die Karte aber auch am Limit).

Schnapp dir den Afterburner und lass dir den Momentanverbrauch einfach per OSD im Spiel anzeigen. :ka:
 
Zurück