Sapphire Nitro 580 VRAM overclocking - maximale Spannung?

SnaxeX

BIOS-Overclocker(in)
Hallo Leute,

ich wollte wissen, welche Spannung ich maximal am VRAM anlegen darf. Wenn ich nämlich beim GPU takt auch manuell die Spannung anlegen mag, macht er das auch automatisch beim VRAM. Es ist ja so, dass die GPU an sich automatisch eigentlich beim Clock 1200mV anlegt, wenn man aber auf manuell umschaltet, 1150mV stehen. Jetzt wollte ich wissen, ob beim VRAM (wo aktuell 950 steht), ich auf 1000mV gehen darf? Ich habe dazu nicht wirklich was gefunden im Internet bzw. eher nur undervolten, weil Google mir ja wegen dem Mining Hype nur solche Ergebnisse ausspuckt.
 
Wie definierst Du denn Maximal?
Raucht nicht sofort ab?
Raucht nicht in 2 Wochen ab?
Raucht nicht in 12 Monaten ab?
 
Wie definierst Du denn Maximal?
Raucht nicht sofort ab?
Raucht nicht in 2 Wochen ab?
Raucht nicht in 12 Monaten ab?


Raucht nicht in den nächsten paar Jahren ab, bis sie dann in 3-4 Jahren wieder ersetzt wird. Quasi ein 24/7 Status wie man z.B. bei einer Ryzen CPU maximal 1.425V anlegen sollte, man aber auch eine Spur höher gehen könnte, um zu testen.
 
Ich frag mich was die Leute sagen, die ihren Ryzen schon Jahrelang mit dieser Spannung getestet haben unter Vollast :-)

Du verstehst auf was ich hinaus will?
Das sind Annahmen. Noch hat niemand seinen Ryzen schon ein paar Jahre.

Ich würde bei Deiner Erwartung die Spannung nicht anfassen. Persönliches Ding. Entweder OC mit dem Bewusstsein, dass man die Lebensdauer verringert, oder lassen.
 
Hallo Leute,

ich wollte wissen, welche Spannung ich maximal am VRAM anlegen darf. Wenn ich nämlich beim GPU takt auch manuell die Spannung anlegen mag, macht er das auch automatisch beim VRAM. Es ist ja so, dass die GPU an sich automatisch eigentlich beim Clock 1200mV anlegt, wenn man aber auf manuell umschaltet, 1150mV stehen. Jetzt wollte ich wissen, ob beim VRAM (wo aktuell 950 steht), ich auf 1000mV gehen darf? Ich habe dazu nicht wirklich was gefunden im Internet bzw. eher nur undervolten, weil Google mir ja wegen dem Mining Hype nur solche Ergebnisse ausspuckt.

Die Spannung unter dem Speicher im Wattman ist bei Polaris sowie Vega eher als Mindestspannung der GPU zu verstehen. Jedenfalls ist es wohl auch nicht der IMC, den den 2. Spannungs-Loop, die einzelne Phase für AUX, kann nicht verändert werden. Speicherspannung ist bei Samsung-Chips 1,5V und durch einen ganz anderen Voltage Controller gesteuert, der selbst gar nicht Kommunikationsfähig ist.
Bei der 480 hilfts diese 2. Spannung auf 1000mV zu stellen, da die Chips da noch nicht so gut waren. Und wenn die Vcore zu sehr sinkt, dann kanns irgendwie auch zu GPU Memory Errors kommen. Bringt jedenfalls nicht bessere OC Leistungen für den Speicher, da ist es immer noch am Besten die Timings zu verändern. Schau mal in meinem Thread vorbei, da steht beschrieben wie du dir dein BIOS anpassen kannst, Vcore, Timings, etc. (Post#3). Außerdem findest du dort auch ein UEFI/GOP das mit einem gemoddetem Bios funzt.
[BIOS-Mod] RX480 -> RX580 Conversions + Howto RX470/RX480 -> RX570/RX580
 
Die Spannung unter dem Speicher im Wattman ist bei Polaris sowie Vega eher als Mindestspannung der GPU zu verstehen. Jedenfalls ist es wohl auch nicht der IMC, den den 2. Spannungs-Loop, die einzelne Phase für AUX, kann nicht verändert werden. Speicherspannung ist bei Samsung-Chips 1,5V und durch einen ganz anderen Voltage Controller gesteuert, der selbst gar nicht Kommunikationsfähig ist.
Bei der 480 hilfts diese 2. Spannung auf 1000mV zu stellen, da die Chips da noch nicht so gut waren. Und wenn die Vcore zu sehr sinkt, dann kanns irgendwie auch zu GPU Memory Errors kommen. Bringt jedenfalls nicht bessere OC Leistungen für den Speicher, da ist es immer noch am Besten die Timings zu verändern. Schau mal in meinem Thread vorbei, da steht beschrieben wie du dir dein BIOS anpassen kannst, Vcore, Timings, etc. (Post#3). Außerdem findest du dort auch ein UEFI/GOP das mit einem gemoddetem Bios funzt.
[BIOS-Mod] RX480 -> RX580 Conversions + Howto RX470/RX480 -> RX570/RX580

Danke für den Link und für die Infos, ich schau es mir gleich einmal an.
 
Zurück