NVIDIA Ampere Laberthread

Mit welchem Programm lässt du dir die Werte ingame anzeigen? Ist ja offenbar nicht der AB?
Doch ist der MSI-Afterburner mit HWinfo64! :nicken:

Bild_2021-02-09_134721.png
 
Von daher kann ich nur empfehlen ein undervolting Profil zu erstellen, man hat nur minimal weniger FPS und dafür deutlich bessere Temperaturen, weniger Watt-Verbrauch und der Speicher freut sich auch!
UV-Profil hab ich und den Speicher rühre ich nicht an. Unter 95°C lässt mich das alles total kalt. Glaube dem Speicher ist es auch relativ egal ob 70°C oder 90°C. Ab 100°C kann man langsam mal drüber nachdenken an einer Lösung zu arbeiten, aber darunter sehe ich noch keine Notwendigkeit hier zu handeln.
 
Wenn ihr die Mem Temps wirklich an die Spitze treiben wollt dann geht das nur durch eine möglich hohe Auflösung, in UWQHD sind die Temps bei mir auch dauerhaft unter 100 Grad, in 5K jedoch (z.Bsp. in The Witcher 3 nach gut 15 Minuten sind es gut und gerne mal 102 Grad).

0.93V Undervolting brachte bei mir nichts was Temps angeht, ich denke da muss man mindestens auf 0.85V setzen.
 
Also wenn ich versuche meine zu Undervolten dann gehen da max minus 32mV sonst stürzt mir das Game ab.
Läuft aber auch unter Luft bei 1900-1950mhz.
Btw: Spiele in 4k mit (Raytracing in den games die es denn haben) denke das lastet die GPU auch etwas intensiver auslastet als jetzt WQHD oder andere kleineren Auflösungen.
 
Zuletzt bearbeitet:
UV-Profil hab ich und den Speicher rühre ich nicht an. Unter 95°C lässt mich das alles total kalt. Glaube dem Speicher ist es auch relativ egal ob 70°C oder 90°C.
Ja was soll der Speicher auch sonst machen, ist ja kein Lebewesen sondern nur ein Bauteil! :D
Ab 100°C kann man langsam mal drüber nachdenken an einer Lösung zu arbeiten, aber darunter sehe ich noch keine Notwendigkeit hier zu handeln.
Ich möchte ja auch niemanden zu etwas zwingen, daher habe ich ja geschrieben, ich kann es nur empfehlen, was der einzelne User daraus macht oder wie diese sich Verhalten, das muss jeder selbst wissen.

Mir ist es wichtig, dass meine Grafikkarte nicht zu heiß wird, daher strebe ich immer Werte deutlich unter 70°C an und mit meinem undervolting Profil erhitzt sich der Speicher bis max. 82°C, meist bleibt auch drunter, je nach Game.

Aber die Unterschiede zwischen den Default Werten und den undervolting Werten, was GPU-Temperatur, Speicher-Temperatur und den Watt-Verbrauch betrifft, sind schon erstaunlich. Der Leistungsverlust in FPS gemessen mach in den Games ca. 3-5 FPS, da ich eh nur in UHD 4K Game und die FPS dann wegen VSync auf 60 FPS cappe, spüre ich den Leistungsverlust nicht einmal!

Aber selbst wenn ich VRR nutzen würde, wäre es mir auch egal, ob ich jetzt 80 oder 83-85 FPS habe, dass macht keinen Unterschied. Merken würde es man vermutlich nur dann, wenn man ansonsten konstant die 120 bzw. 144 FPS hätte und man immer darunterbleiben würde, aber das erreicht man bei den tripple A Games in UHD sowieso nicht.

Habe dazu auch mal ein Video mit The Witcher 3 gemacht, da kann man gut sehen, das sich UV schon lohnt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Also wenn ich versuche meine zu Undervolten dann gehen da max minus 32mV sonst stürzt mir das Game ab.
Läuft aber auch unter Luft bei 1900-1950mhz.
Ich habe hier mal ein Video bezüglich der Erstellung eines Undervolting Profiles über den MSI-Afterburner und dem Curve Editor gemacht, was die Einstellungen und Vorgehensweise betrifft, vielleicht hilft es Dir!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Danke für das Video aber so Ähnlich habe ich das auch schon versucht vlt brauch meine 3090 einfach mehr Voltage.
Bzw. ich möchte halt auch einen Möglichst hohen Takt .
 
Danke für das Video aber so Ähnlich habe ich das auch schon versucht vlt brauch meine 3090 einfach mehr Voltage.
Bzw. ich möchte halt auch einen Möglichst hohen Takt .
Dann würde ich 0,900 oder 0,950 Volt versuchen, da solltest Du einen Takt deutlich über 1900 MHz schaffen, was ja dann zumindest dem Default Wert entspreche würde. Natürlich hängt UV genauso von der Chip-Güte ab, wie OC, es bleibt wie immer eine Silicon Valley Lotterie!

Aber klar ist auch, allein nur ein hoher Takt bedeutet nicht gleich deutlich mehr FPS, dann müssten ja die Grafikkarten von AMD in Form der RX 6800XT / 6900XT mit Ihren 2800 bis 3000 MHz die Nvidia Ampere Grafikkarten in Grund und Boden stampfen! :D
 
Dass HWI nun die VRAM Temp anzeigen kann ist wie man sieht mehr Fluch als Segen. Alle machen sich nun wegen der Speichertemperaturen verrückt. Dabei tritt der VRAM bei Temperaturüberschreitung genauso automatisch in die Bremse wie die GPU.

Das technische Grafikkartendesign ist allein verantwortlich den Unterschied zwischen 85° und 100°. Meine MSI 3090 bleibt zum Glück auch bei 450 Watt für Luftkühlung eher lauwarm. Insoweit also durchaus eine Empfehlung.
 
@ Zotac probier es mal so, dann ist die Curve schöner. 1. Curve Editor öffnen und den Punkt bei der gewünschten Spannung anklicken. 2. Core Clock bis auf die gewünschte Frequenz nach rechts schieben 3. Alle folgenden Punkte in der Curve markieren (Shift + linke Maustaste) und auf den selben Wert nach unten ziehen.
 
@ Zotac probier es mal so, dann ist die Curve schöner.
Habe ich gerade mal gemacht, auf die Schönheit der Curve habe ich bisher noch nicht geachtet! :D

Sieht dann so aus:
MSI-Afterburner Curve Editor.jpg


Und dann auch gleich mal in Cyberpunk 2077 getestet, funktioniert auch, aber mehr wie 1770 MHz darf ich der Curve im Curve Editor nicht geben, da ja die Grafikkarte bis zu zwei Boost-Stufen, also 30 MHz hochtaktet, denn alles über 1800 MHz führt bei meiner Grafikkarte in Cyberpunk 2077 sonst zum Absturz.

Hat so auch einwandfrei funktioniert, aber Cyberpunk 2077 scheint schon etwas besonderes zu sein, was die Empfindlichkeit bei UV angeht, wie aber auch bei der Speicherauslastung, die immer wieder mal die 10.000 MB knacken kann [hier im Screen sind es nur um die 7.000 MB!], die ich sonst in keinem Spiel bisher so gesehen habe. :hmm:

Screen:
Cyberpunk 2077 Screenshot.jpg


Von daher ist eigentlich Cyberpunk 2077 ideal zum Testen auf Stabilität für UV geeignet, wenn das Profil hier durch geht, dann habe ich in keinem anderen Szenario ein Problem gehabt! :daumen:
 
82 Grad sind sehr gut, wobei ich in Warzone auch relativ niedrige Temps habe, trotz UWQHD. Versuche mal via DSR in 4K-5K, am Besten ein Spiel wie The Witcher 3 oder Metro Exodus.
 
Zurück