RTX 3090 FE bei 0,737 Volt – maximales Undervolting

PCGH_Dave

Redaktion
Teammitglied
Moin zusammen :pcghrockt:

In diesem Thread ist die Frage aufgekommen, ob eine RTX 3090 bei minimal möglicher Spannung überhaupt noch etwas leistet, beziehungsweise nicht zu viel Leistung gegenüber der Standardeinstellung mit 350 Watt Powerlimit verliert.

Wer Raff kennt, der weiß, dass er seine Hardware meist so niedrig-belastet wie möglich betreibt. Damit ist nicht die eigentliche Last in Spielen gemeint, sondern die der Hardware selbst. Sowohl CPU, als auch GPU sind bei ihm stark undervolted. Ich fahre mit dieser Effizienz-Schiene ebenfalls seit vielen Jahren sehr gut, keine Frage also, das jetzt nicht auch so bei der 3090 zu machen.

Die Leitfrage dieses kleinen Themas lautet: Verliert eine RTX 3090 mit Undervolting nicht zu viel Leistung?

Das habe ich prompt getestet. Hier sind die zwei Profile:

Standard: Alles ab Werk, also 350 Watt Powerlimit, kein OC, der Takt hängt dann sehr vom Anwendungsszenario ab.
UV: 1,7 GHz bei 0,737 Volt, sowie +250 MHz auf den Speicher. Sonstige Einstellungen nicht verändert.

Der bereits im anderen Thread erwähnte 3DMark-Vergleich:

Standard/UV
3DMark 350 Watt.png
3DMark max. Undervolting.png


Der Leistungsverlust liegt bei 2,73 Prozent
Der Effizienzgewinn bei 21 Prozent
Punkte pro Watt, Standard: 22,19, UV: 26,85 ---> eine Steigerung von 21 Prozent

The Riftbreaker, WQHD, max. Details inkl. Raytracing, integrierter GPU-Benchmark

Standard/UV
Riftbreaker 350 Watt.png
Riftbreaker max. Undervolting.png


Der Leistungsverlust liegt bei 5,67 Prozent
Der Effizienzgewinn bei 32,12 Prozent
Fps pro Watt, Standard: 0,632, UV: 0,835 ---> eine Steigerung von über 32 Prozent

Und zum Schluss noch Cyberpunk 2077, WQHD, max. Details inkl. Raytracing, ohne DLSS, PCGH-GPU-Benchmark

Standard/UV
CP 2077 350 Watt.png
CP 2077 max. Undervolting.png


Der Leistungsverlust liegt bei 3,40 Prozent
Der Effizienzgewinn bei 23,2 Prozent
Fps pro Watt, Standard: 0,125, UV: 0,154 ---> eine Steigerung von rund 23 Prozent

Mein Fazit:
Undervolting lohnt sich definitiv. Ampere ist ab Werk unglaublich ineffizient eingestellt. Vielen Dank für eure Aufmerksamkeit :)
 
Zuletzt bearbeitet:
Glückwunsch zu Raffs 3090 (spielt der jetzt bis die 3090Ti verfügbar ist auf einer Kartoffel :confused:)!

Ok, dass aktuelle GPUs (und CPUs...) ab Werk viel zu hoch geballert werden ist ja kein Geheimnis aber dass es bei Ampere wirklich SO extrem ist ist schon ne Ansage. Mal im Ernst, 5% mehr oder Weniger an Leistung dürften im Spielealltag nu seltenst überhaupt auffallen - dafür übern Daumen 100W einzusparen ist ein verdammt guter Deal, alleine schon wegen der Geräuschentwicklung.

Hoffentlich wird das bei Ada ähnlich sein - dann könnte man eine 450W-TDP-Karte vielleicht mit noch halbwegs verkraftbaren 300W betreiben bei ner Handvoll Prozent weniger Performance...
 
Raff zockt laut seiner Aussage jetzt auf einer 2080 Ti, bis die 3090 Ti da ist. Sein Verlust ist mein Gewinn :-P
Um noch ein bisschen Werbung zu machen, weil ich das darf:
 
Ich habe erstmal mit Metro Exodus EE getestet. Damit das läuft, musste ich im Curve Editor 737 mV und 1665 MHz einstellen. Das resultiert dann in 1695 - 1710 MHz und etwa 280 w. GPU FPS/10w: 1,74. @ Standard: 1,45
Die Settings
1647779252951.png

FPS Vergleich
1647779312767.png

noch interessanter ist der Report
1647779396068.png

Ach so, ich habe 1 Run zum aufwärmen genutzt und danach 3 aggregierte laufen lassen.
Hier nochmal der FPS Vergleich in Prozent
1647779939605.png
 
Zuletzt bearbeitet:
Weiter geht's mit CP2077. Integrierter Benchmark. Einstellung global auf Raytracing ultra, so Quatsch wie Chromatische Aberration, Filmkörnung und Bewegungsunschärfe auf Aus. DLSS auf Qualität. Auflösung wieder 3440x1440.
Vergleich in FPS
1647783501588.png

Vergleich in Prozent
1647783542839.png

und noch der Report
1647783574163.png


Als letztes noch Division 2. Ist grafisch nicht so anspruchsvoll wie die anderen beiden, erzeugt aber trotzdem eine hohe GPU Last.
 
Zuletzt bearbeitet:
Sind das auch wirklich 100% stabile Werte?
Ich kann bei meiner 3090 auch auf 750mv bei rund 1700MHz ansetzen, ich kann damit alle Benchmarks wie TimeSpy Extreme machen, kein Problem.
Aber komischerweise ist es beim Spiel Diablo 2 Resurrected nicht stabil, Stichwort abstütze wenn man Shenk besiegt, ich habe von Anfang an gespielt und hatte nie Probleme bei Shenk, in der Zeit hatte ich auch nur auf 800mv gesenkt.
Erst als ich noch mehr undervolten wollte, also die 750mv, kam dies auf, erst bei 775mv kamen keine abstürzte mehr bei dem Spiel.
Ich glaube nicht das man dies nur auf das Spiel schieben kann, dies kann man sich zwar einreden, aber ob man sich selbst belügen muss ist hier die frage...
 
Nur weil eine Karte durch TimeSpy kommt muss sie nicht in allen Spielen stabil sein. Manchmal sind es wirklich ältere oder nur sehr vereinzelte Spiele die eine Instabilität offensichtlich machen.
Meine 2080er lief jetzt seit 2028 auf 8000MHz vRAM-Takt und alles lief problemlos. Erst God of War stürzte reproduzierbar alle 1-2 Stunden ab bis ich auf 7800 MHz runterging.
Ich hatte mal eine GTX285 die alle damaligen Grafikkracher und Benchmarks mit 720 MHz GPU-Takt stabil machte.... ja, auch crysis usw.. Erst für Streetfighter 4 was anforderungstechnisch absolut billo war musste ich auf unter 700 MHz runter weil das Spiel sonst regelmäßig Brownscreens (sic!) produzierte.
 
Vorneweg: Danke @PCGH_Dave für die Eröffnung des Themas und sorry für die Arbeit, die ich dir am Sonntag gemacht habe.
So und jetzt wie versprochen noch Division 2. Ingame Bench, DX 12 und alle Qualitätsregler nach rechts.
FPS Vergleich
1647788325968.png

Vergleich in Prozent
1647788376627.png

Und noch der Report, der noch einen einzelnen Run mit dem 737 mV Profil und einem 83 FPS Limit enthält. Spart nochmal 40 W und 4° Temperatur.
1647788603731.png
 
Vorneweg: Danke @PCGH_Dave für die Eröffnung des Themas und sorry für die Arbeit, die ich dir am Sonntag gemacht habe.
Das war keine Arbeit, hab ich in der Kaffeepause gemacht ^^
Wirklich, wenn du sowas beruflich machst, dann wird man sehr effizient in diesen Dingen.
Sind das auch wirklich 100% stabile Werte?
In meinem Fall ja. Raff hat die Werte validiert und ich weiß, dass der alles @ Ultra-Maximum zockt, inklusive Raytracing. Ich hab bisher hauptsächlich Elden Ring damit gezockt, bisher alles dufte.
 
Zuletzt bearbeitet:
Fett würde evtl. besser passen, falls man mal das OCen@350W ausprobiert.
(natürlich nur, wenn die Vramtemps noch 24/7 passen)

Eigentlich ist OCen ja auch ein UVen und wenn der Chip+Vram so gut ist, müsste doch Was gehen.
(minimal weniger Volt und dann mal den maxTakt ausloten, wäre nice to know)
 
Zuletzt bearbeitet:
Die FE ist einfach wuchtig - eine echte Erscheinung, die beeindruckt. Das ist ja nicht negativ gemeint, im Gegenteil. Ich war jedenfalls schockverliebt. :D

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und die VRAM-Temps sind ziemlich knorke seit der Pad-Mod. Dave hat außerdem den als Backside Cooler "missbrauchten" GPU-Kühler dazubekommen. Dazu müsste sie aber in einen der unteren Slots. Dann klappt's mit weniger als 90 °C unter fiesesten Bedingungen. :-)

MfG
Raff
 
Also in 4k und Maxed out in Elden ring schaffe ich es leider nicht unter 0.8 Volt zu gehen mit meiner 3090Fe . Sobald ich meine Kurve so einstelle das ich bei 0.8 meinen Max Takt von 1650Mhz habe. Stürzt das Game ab.
Lustiger weise funktioniert aber Cyberpunk ohne Probleme.
Ebenfalls bemerkenswert mit einem Core Takt von 1200mhz und 0.7Volt mit dem TDP Regler auf 50% schaffe ich es unter 150Watt teilweise zu verbrauchen.
In Cyberpunk bin ich so von 60FPS ( eigene Szene ) auf 42 FPS herunter gerutscht.
Das macht bei ca 70% der Leistung nur 42% verbrauch.
 
Also in 4k und Maxed out in Elden ring schaffe ich es leider nicht unter 0.8 Volt zu gehen mit meiner 3090Fe . Sobald ich meine Kurve so einstelle das ich bei 0.8 meinen Max Takt von 1650Mhz habe. Stürzt das Game ab.
Dann weiter mit dem Takt runter. Die Asus ROG, mit der ich vorher die CPU-Benchmarks gemacht habe, packt nur 1.630 MHz bei 0,737 Volt. Da ist meine FE schon ein Golden Sample dagegen.
 
mit dem TDP Regler auf 50% schaffe ich es unter 150Watt teilweise zu verbrauchen.
In Cyberpunk bin ich so von 60FPS ( eigene Szene ) auf 42 FPS herunter gerutscht.
Das macht bei ca 70% der Leistung nur 42% verbrauch.
Bei so harten Powerlimits die die Karte dazu zwingen notfalls Leerzyklen einzuschieben bitte auch neben den AVG FPS besonders auf die minfps achten - es kann da passieren dass zwar die Durchschnittsleistung nur 30% fällt aber man Frametimes aus der Hölle bekommt... Deswegen gehe ich bei meiner 2080 maximal auf 60% Powerlimits runter, bei 50% werden die FPS zwar nicht viel weniger aber es wird hässlich (mikro)ruckelig.
 
Sind das auch wirklich 100% stabile Werte?
Ich kann bei meiner 3090 auch auf 750mv bei rund 1700MHz ansetzen, ich kann damit alle Benchmarks wie TimeSpy Extreme machen, kein Problem.
Aber komischerweise ist es beim Spiel Diablo 2 Resurrected nicht stabil, Stichwort abstütze wenn man Shenk besiegt, ich habe von Anfang an gespielt und hatte nie Probleme bei Shenk, in der Zeit hatte ich auch nur auf 800mv gesenkt.
Erst als ich noch mehr undervolten wollte, also die 750mv, kam dies auf, erst bei 775mv kamen keine abstürzte mehr bei dem Spiel.
Ich glaube nicht das man dies nur auf das Spiel schieben kann, dies kann man sich zwar einreden, aber ob man sich selbst belügen muss ist hier die frage...
Ich habe bei meiner Karte ähnliches beobachtet und mir drängt sich der Schluss auf, dass die bis zu +30Mhz, die die Karte bei leichter Last auf den eingestellten Takt aufschlägt, problematisch sein können. Wenn man hauptsächlich Hochlast Szenarien testet, wie Metro Exodus oder diverse UE4 Titel, läuft alles fehlerfrei. Bei leichterer Last treten dann aber Probleme auf, was im ersten Moment kontraintuitiv ist, aber aus meiner Sicht die einzige Erklärung ist.
Kann das jemand bestätigen?

Zusätzlich zum Obigen habe ich die Vermutung, dass die Taktwechsel an sich, bis zum Maximaltakt, ein Problem sein können oder eine Zwischenstufe bis zum maximalen Takt nicht ganz stabil ist. Daher versuch ich nur die letzten paar Punkte auf der originalen Taktkurve Richtung Zielwert zu verschieben.

Gibt es eine Möglichkeiten diesen nicht steuerbarten "Overboost" abzuschalten?

@PCGH_Dave Warum gibst du nur +250Mhz auf dem Speicher?
 
Zuletzt bearbeitet:
Ich bin zwar nicht gefragt , aber bei mir gingen in Games eigentlich immer so um die plus 500mhz teilweise auch weit mehr.
Warzone und Cyberpunk liefen auch mit +1000mhz Stabil. Mehr games habe ich noch nicht getestet.
Vram chillt bei mir aber auch immer bei 63c bzw beim gaming sogar eher 55c.
 
Zurück