• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

kurze frage

ΔΣΛ

PCGH-Community-Veteran(in)
Ja natürlich, mehr Leistung benötigt natürlich mehr Strom.
Ist wie beim Auto, wenn man schneller fährt verbraucht man auch mehr Sprit ;)
 

ΔΣΛ

PCGH-Community-Veteran(in)
Egal ob die Spannung nicht erhöht wurde, wenn mehr von der Graka abverlangt wird benötigt sie auch mehr Strom.
Das selbe trifft auch auf die CPU zu, eine Leistungssteigerung ohne Gegenleistung (Strom) gibt es nicht.
 

Incredible Alk

Moderator
Teammitglied
Ganz grob gesagt gibts da ne Faustregel für, dass der Stromverbrauch linear mit takt und quadratisch mit Spannung steigt.

Angenommen, deine Karte verbraucht 150W und du übertaktest von 700 auf 800 MHz. Dann kommst du rechnerisch auf
150W * (800/700) = 171 W.

Wenn du dabei noch statt 1,2v dann 1,25v anlegen würdest wärst du bei:

150W * (800/700) * (1,25/1,2)^2 = 185 W.

Das sind wie gesagt keine genauen Werte (in der Realität hängt das auch stark vom Bereich ab ob die GPU schon an der Grenze arbeitet oder noch etwas "Luft" hat) aber zum groben überschlagen passts ganz gut.
 

General Quicksilver

Freizeitschrauber(in)
Neben der bekannten linearen Beziehung von Takt und Verlustleistung, sowie der quadratischen Beziehung von Spannung und Takt existiert auch noch eine Temperaturabhängigkeit und Verlustleistung. Überschlagsweise kannst du pro 20°C höherer Kartentemperatur 10% mehr Verlustleistung einrechnen. (Der genaue Wert hängt wohl vom jeweiligen Chip ab, da wohl Schaltung, Fertigungstechnik usw. Einfluss auf diesen Wert hat.) Also für jedes Grad höhere Tewmperatur kannst du das mit der bekannten Formel errechnete Ergebnis Überschlagsweise mit 1,005 multiplizieren. Leider ist das Ergebnis wohl recht ungenau, da aus den genannten Gründen der zu verwendende Wert unbekannt ist. Dieser müsste messtechnisch für den gegebennen Chip ermittelt werdeen um genauer rechnen zu können.

Um das mal am oben genannten Beispiel zu verdeutlichen:

Die Karte verbraucht im Übertateten und Überspannten Zustand 185W statt 150W bei gleicher GPU - Temperatur. Wenn die GPU nun aber durch die gesteigerte Leisrtungsaufnahme um z.B.: 10°C höher liegt steigt auch die Leisgsaufnahme an. Im Beispiel von 185W auf ~ 194,5W an. (185W * 1,005^10, wobei im Exponent die Differenztemperatur eingetragen werden muss). Der selbe Zusammenhang gilt auch bei Standarteintellung, weshalb sich die TDP auf Tcase max bezieht.;)
 

Incredible Alk

Moderator
Teammitglied
Ja, stimmt schon, diese Effekte habe ich aber der Übersichtlichkeit wegen ausgelassen weil sie auch meist keinen großen Einfluss haben durch moderne Lüftersteuerungen bei denen der Chip nicht wirklich heißer, die Karte nur lauter wird ;-)

Insgesamt ists nach meiner Erfahrung auch so, dass obige Formeln bei modernen Chips meist leicht zu hohe Ergebnisse liefern - aber wie gesagt für den groben Daumen ists brauchbar.
 
Oben Unten