Warum verbraucht eine Grafikkarte unter Last fast so viel Energie wie im Idle bei selbem Takt?

Track11

PC-Selbstbauer(in)
Hallo,

ich hatte kürzlich im Nvidia Controll Pannel die Energieoption auf Maximale Leistung gesetzt und beobachtet, dass meine Karte immer den Standard 3D Takt fährt, auch im 2D Bereich.
Ich switche immer zwischen mehreren Programmen hin und her. Um hier kein Delay der Performance zu haben, brauche ich immer den maximalen Takt damit mein Workflow gleich bleibt. Auch wenn die Taktanhebung in Millisekunden durchgeführt wird, so ist das Treiber / OS Delay zum Teil bis zu 3 Sekunden lang.

Ich weiß, dass eine Grundversorgung der einzelnen Komponenten immer anliegen muss und denke dabei an E Motoren. 3500 UPM unter Last verbrauchen ein Vielfaches an Energie im verhältnis zu 3500 UPM ohne Last.

Ich kann mir die Frage nur selber so beantworten, wenn ich davon ausgehen würde, dass eine GPU keinen 2D Bereich auf dem Chip hat sondern im 2D Betrieb lediglich den 3D Modus als 2D verwendet mit einer beschnittenen Taktrate.

Stimmt das?
 
Wie kommst du darauf dass Taktrate mit Leistungsaufnahme gleichzusetten wäre?

Durch deine Höchstleistungseinstellung taktet die Karte aggressiver hoch bzw fährt die P-States zurück (vergleichbar etwa wie ein Automatikgetriebe das du auf Sport statt eco stellst) aber natürlich verbraucht die Karte dadurch nicht unter Windows Hunderte von Watt wie bei 3d Last. Genau wie dein Auto im Sportmodus nicht automatisch sofort dauerhaft so viel verbraucht wie bei Vollgas nur weil die Drehzahl höher gehalten wird.


In beiden Fällen wird nur das Ansprechverhalten auf Kosten eines kleineren Mehrverbrauches verbessert. Und in beiden Fällen ist das für den "Normalbetrieb" unnötig weswegen die zahmere Einstellung Standardmäßig aktiv ist.
 
Wie kommst du darauf dass Taktrate mit Leistungsaufnahme gleichzusetten wäre?
Ich bin davon ausgegangen, dass die Last die Leistungsaufnahme bestimmt und nicht der anliegende Takt.
Falls du eine Nvidia Karte hast, kannst du unter "Nvidia Systemsteuerung\ 3D Einstellung verwalten\Energieverwaltungsmodus->[Maximale Leistung bevorzugen]" klicken, den PC neustarten und schauen wie im Rivatuner die Temps hoch bleiben so wie der Lüfter des Kühlers beginnt zu arbeiten.

Gerade gemessen. Mit der Einstellung "Adaptiv" liegt der gesamte PC im Idle mit runtergetakteter GPU bei 46 Watt.
Mit der Einstellung "Maximale Leistung" bin ich bei voller Taktrate im 2D Betrieb bei 85,5 Watt gleichbleibend.

Ich bin immer davon ausgegangen, dass die anliegende Taktrate nur dann effektiv als Verbraucher gilt, wenn Berechnungen auch effektiv durchgeführt werden. Zur Zeit von CPUs ohne Thermal Power Management war es bei einem Athlon mit 1,5 Ghz effektiv nur dann heiß, wenn auch Last anlag.

Dies kann aber hier nicht sein, da mein Stromverbrauch steigt, die Taktrate zwar hoch aber im Leerlauf ist und dies durch Rivatuner auch so bestätigt wird.
 
Bisschen mehr Strom als wenn die Karte rubter taktet nimmt die GPU schon, und zwar weil, wegen dem höheren Takt eine höhere Spannung angelegt wird.

Aber genauso viel wie unter maximal Last ist blödsinn...

Die gpu nimmt unter maximal Last wohl eher 250 bis 400 Watt...

Und da sind 85 in Idle ja noch einiges weniger...
 
Ich bin immer davon ausgegangen, dass die anliegende Taktrate nur dann effektiv als Verbraucher gilt, wenn Berechnungen auch effektiv durchgeführt werden. Zur Zeit von CPUs ohne Thermal Power Management war es bei einem Athlon mit 1,5 Ghz effektiv nur dann heiß, wenn auch Last anlag.
Das eine hat mit dem anderen nichts zu tun. Auch dein alter Athlon hat beim nichtstun bei 1,5 Ghz schon mehr verbraucht als bei 0,5 ghz (sonst hätte das heruntertakten ja gar keinen Sinn). Genau wie ein Motor mehr Benzin verbraucht wenn die Leerlaufdrehzahl 3000 statt 700 ist obwohl der Wagen stillsteht.

Hohe Taktraten erfordern höhere Spannungen was zu höheren Leckströmen und damit Verlustleistungen führt. Das ist schon seit der Erfindung des Transistors so. Deine falsche Annahme basiert darauf, dass du Temperatur (Stoffeigenschaft) in ein direktes Verhältnis zu Stromverbrauch/Wärmeleistung (Energiefluss) gesetzt hast was nicht funktioniert. Zusätzlich ist der Effekt heute viel grösser als beim alten Athlon weil die Sparfunktionen viel komplexer sind als das was du rein am Takt siehst - es werden beispielsweise ganze Chipbereiche durch powergating komplett abgeschaltet im untersten level was auf Höchstleistungseinstellung auch nicht mehr passiert.

Schau dich mal in meinen Blogs um zu den Themen Verbrauch, Temperatur, Spannung, Boostfunktionen usw., sehr vieles an Hintergrund hab ich da ausführluch beschrieben.

Beispiel
 
Zuletzt bearbeitet:
Genau wie ein Motor mehr Benzin verbraucht wenn die Leerlaufdrehzahl 3000 statt 700 ist obwohl der Wagen stillsteht.
Da verwechselst du jetzt etwas. Standgas ist im Bereich 750- 1000 upm und dient dazu am wenigsten Emissionen zu erzeugen. Der Motor hat dann die Drosselklappe komplett geschlossen, zieht sehr wenig Luft und läuft sehr fett. Hierbei wird Spritt eingespritzt, der nicht verbrannt werden kann, wodurch der Motor immerwieder an Drehzahl schwankt (+/- 200 upm), was aber so schnell passiert, dass das Tachometer nicht nachkommt. Es gibt deshalb Totpunkte bei der Kurbelwellenstellung im Verhältnis zu Kolbenposition, die durch eine Schwungscheibe, also ein Masserad, überwundenwerden. Mittels Fliehkraft wird also der Motor künstlich laufen gehalten. Die dabei verwendete Menge an Kraftstoff variiert deshalb auch stark von motor zu motor im Leerlauf und verbraucht zuweilen erheblich mehr Kraftstoff als bei dem für den Motor eingestellten optimalgrad an Umdrehungen. Der geringste Verbrauch ohne Last wird bei fast allen 4 zylindrischen Ottomotoren bei 1300-1400 UPM zu finden sein, was aus der Kurbelwellenrotation zu errechnen ist. Aus diesem Grund hat Audi übrigens auch den 5 Zylinder Motor auf den Markt gebracht.


Zu der Athlon Situation:
1,5 ghz unter Last = 68°C 1.125Vcore
1,5 ghz im idle = 35°C 1.125Vcore
Ohne den Energieverbrauch gemessen zu haben, neige ich dazu zu behaupten, dass unter Last die Vcore die selbe ist wie im Idle bei den Atlons. Würdest du das so bestätigen? Wenn dem so ist, hätte ich gerne gewusst, ob der Energieverbrauch unter Last bei Athlons weitaus höher ist als im idle... hust

Dein Blogeintrag behandelt ausschließlich den Unterschied zwischen ausgeschriebener Verlustleistung und effektivem Verbrauch. Ich wüsste nicht wie mir das jetzt hätte weiterhelfen können.


Ich breche es herunter und frage mich wie das hier Zustande kommt.


GTX1660S
Treiber auf Adaptiv > 2D Windows Desktop > 300 Mhz> 39°C = 45 Watt System
Treiber auf performance > 2D Windows Desktop > 1850 Mhz > 68°C = 85 Watt System
Treiber auf performance > 3D WoT > 1850 Mhz > 72 °C limit = 115 Watt System


Ich setze nichts gleich und schreibe eigentlich genau, was ich fragen wollte. Ich bitte dich deshalb etwas genauer zu lesen.
 
Da verwechselst du jetzt etwas. Standgas ist im Bereich 750- 1000 upm und dient dazu am wenigsten Emissionen zu erzeugen. Der Motor hat dann die Drosselklappe komplett geschlossen, zieht sehr wenig Luft und läuft sehr fett. Hierbei wird Spritt eingespritzt, der nicht verbrannt werden kann, wodurch der Motor immerwieder an Drehzahl schwankt (+/- 200 upm), was aber so schnell passiert, dass das Tachometer nicht nachkommt. Es gibt deshalb Totpunkte bei der Kurbelwellenstellung im Verhältnis zu Kolbenposition, die durch eine Schwungscheibe, also ein Masserad, überwundenwerden. Mittels Fliehkraft wird also der Motor künstlich laufen gehalten. Die dabei verwendete Menge an Kraftstoff variiert deshalb auch stark von motor zu motor im Leerlauf und verbraucht zuweilen erheblich mehr Kraftstoff als bei dem für den Motor eingestellten optimalgrad an Umdrehungen. Der geringste Verbrauch ohne Last wird bei fast allen 4 zylindrischen Ottomotoren bei 1300-1400 UPM zu finden sein, was aus der Kurbelwellenrotation zu errechnen ist. Aus diesem Grund hat Audi übrigens auch den 5 Zylinder Motor auf den Markt gebracht.
Willst du, dass ich bei den Chips genau so detailliert in die Thematik einsteige wie bei Verbrennungsmotoren mit dem Effekt, dass du zuerst ein Semester studieren musst um die Antwort zu verstehen oder reicht es, ein Beispiel aus dem Alltag ausreichend zu vereinfachen um etwas zu erklären?
Ja, ich weiß das ganze Bremborium was du da erzählst (denn, Überraschung, das ist mein eigentlicher Beruf...).


Aber ok, dann antworte ich eben auf dem höheren Level ohne vereinfachte Beispiele. ;-)
Ohne den Energieverbrauch gemessen zu haben, neige ich dazu zu behaupten, dass unter Last die Vcore die selbe ist wie im Idle bei den Atlons. Würdest du das so bestätigen?
Die alten Athlons waren je nach Modell noch nicht in der Lage, die Betriebsspannung aufgrund von P-States zu verändern. Das bedeutet nicht, dass die vCore deswegen die gleiche ist weil diese aufgrund von vDrop und vDroop Effekten je nach Lastsituation schwankt. Hier führt das sogar dazu, dass niedrigere Lastspannungen höhere Leistungsaufnahmen zur Folge haben weil die Anzahl der Schaltvorgänge pro Sekunde einen weit höheren Einfluss auf die Leistungsaufnahme haben als die Verlustleistung im Idlezustand durch den Poole-Frenkel Effekt.
Um für CPUs typische Größen zu nennen: Sehr schnelle CPUs können heute schnell mal 150W unter Vollast verbrauchen. Wenn sie nichtstun und im untersten Sparmodus schlafen wird der verbrauch einstellig. Taktet man sie voll durch und legt die hohe Betriebsspannung an ohne dass was berechnet wird steigt die leistungaufnahme in der Größenordnung von 5W auf 15W an - aber bei weitem nicht annähernd auf 150W. Die Art und Höhe der Auslastung ist beinahe der einzige nennenswerte Einfluss auf die Leistungsaufnahme.

Wenn dem so ist, hätte ich gerne gewusst, ob der Energieverbrauch unter Last bei Athlons weitaus höher ist als im idle
Ja, ist er - und zwar massiv. Bei aktuellen Chips sind die Unterschiede nur aufgrund verschiedenster Techniken nochmal deutlich größer geworden. Wo der Athlon von vielleicht 40 auf 80W gesprungen ist springen moderne CPUs ggf. von 20 auf 200W bei gleicher Spannung und Takt. Das liegt aber hauptsächlich daran dass Chipbereiche an und abgeschaltet werden was damalige CPUs nunmal nicht konnten.

Treiber auf Adaptiv > 2D Windows Desktop > 300 Mhz> 39°C = 45 Watt System
Treiber auf performance > 2D Windows Desktop > 1850 Mhz > 68°C = 85 Watt System
Treiber auf performance > 3D WoT > 1850 Mhz > 72 °C limit = 115 Watt System
Treiber Adaptiv --> unterster PState --> gringstmögliche Taktung von GPU und vRAM oberhalb der Ausfallgrenze + Powergating aller nicht genutzter Chipbereiche --> Minimal möglicher Verbrauch bevor die Karte instabil wird.
Moderne Karten liegen bei einem Verbrauch (nur die Grafikkarte ohne Restsystem!) zwischen 5 und 20 W.
Treiber Performance --> höherer P-State + voller RAM-Takt (was übrigens den größten Teil des höheren Verbrauches ausmacht), kein Power-Gating --> Verbrauch den die Karte beim nichtstun hat ohne irgendwas groß herunterzutakten oder abzuschalten - wird auch oft erreicht im "2D-Last"-Betrieb etwa bei vielen angeschlossenen Bildschirmen oder Multimedialast wie UHD/HDR-Videos. Daraus resultieren je nach Kartenmodell Verbräuche zwischen 20 und 60W.
3D-Last ist dasselbe nur dass die GPU massiv zu Tun hat unter sonst gleichen Betriebsparametern. Dadurch steigt die Leistung je nach Kartenmodell auf 300+W an. Bei Vollast der Karte sind es bei deiner GTX1660S exakt 125W weil hier das künstliche Limit eingreift - deine 115W des Gesamtsystems sind nahezu sicher ein Messfehler weil die Grafikkarte alleine das unter Vollast schon zieht.
 
Zuletzt bearbeitet:
Treiber Performance --> höherer P-State + voller RAM-Takt (was übrigens den größten Teil des höheren Verbrauches ausmacht), kein Power-Gating --> Verbrauch den die Karte beim nichtstun hat ohne irgendwas groß herunterzutakten oder abzuschalten - wird auch oft erreicht im "2D-Last"-Betrieb etwa bei vielen angeschlossenen Bildschirmen oder Multimedialast wie UHD/HDR-Videos. Daraus resultieren je nach Kartenmodell Verbräuche zwischen 20 und 60W.
3D-Last ist dasselbe nur dass die GPU massiv zu Tun hat unter sonst gleichen Betriebsparametern. Dadurch steigt die Leistung je nach Kartenmodell auf 300+W an. Bei Vollast der Karte sind es bei deiner GTX1660S exakt 125W weil hier das künstliche Limit eingreift - deine 115W des Gesamtsystems sind nahezu sicher ein Messfehler weil die Grafikkarte alleine das unter Vollast schon zieht.
Das ist die Erklärung die ich gesucht habe. Der Performance Modus ist praktisch also ein Leistungsmapping bei dem alles der Karte aktiv ist, auch wenn es nicht genutzt. Also der Eigenverbrauch der Vollaktivierung.
Das würde auch erklären, weshalb die gezogene Wattzahl gleichbleibend ist.

Die 115Watt sind kein Messfehler, auch wenn ich die Genauigkeit dieser Messgeräte stark anzweifel
ist ein X51 alienware mit i5 4460s und die GTX ist (wie oben beschrieben) von mir gelimited auf 70% powertarget.

Danke für deine Antwort. Auch wenn sie nicht soooo erfreulich ist. :)
 
gelimited auf 70% powertarget.
Dann wird die Karte unter Vollast ~88W verbrauchen (und der UNterschied zu "2D-Last" wird natürlich geringer).
Hmmm wenn du an der Steckdose misst und ich deinem Netzteil mal wohlwollende 90% unterstelle hättest du nen Nettoverbrauch von etwa 104W, verblieben nur etwa 15W für die CPU und den ganzen rest (RAM, Board, Laufwerke,...) - das ist zu wenig.
Klar, mit auf 70% limitierter GPU wirds weniger aber die 115W brutto erscheinen mir immer noch arg tief, um die 150W kämen eher hin. Aber das istn anderes Thema.
Der Performance Modus ist praktisch also ein Leistungsmapping bei dem alles der Karte aktiv ist, auch wenn es nicht genutzt. Also der Eigenverbrauch der Vollaktivierung.
So in etwa, ja. Der Hauptunterschied ist bei den meisten Karten wie gesagt dass der Grafikspeicher hochgezogen wird. Besonders AMD steht dafür in der Kritik da diese Karten das schon tun wenn man nur ein Video (hardwarebeschleunigt) abspielt und der Idleverbrauch der Karten dann von 10 auf 50W springt (wovon vermutlich 35 der zusätzlichen 40W auf den vRAM gehen). NVidia kann das besser, dennoch geht der Verbrauch im Performancemodus eben ein stückweit hoch.

Wie gesagt bei dem Modus gehts vorrangig ums Ansprechverhalten. Wenn Teile der Karte genutzt werden sollen die abgeschaltet sind vergehen (schlimmstenfalls) ein paar Millisekunden um die Bereiche aufzuwecken (,hochzutakten) und zu nutzen. Diese Latenz hat man im Performancemodus nicht - dafür eben etwas mehr Verbrauch.
 
Zuletzt bearbeitet:
Dann wird die Karte unter Vollast ~88W verbrauchen (und der UNterschied zu "2D-Last" wird natürlich geringer).
Hmmm wenn du an der Steckdose misst und ich deinem Netzteil mal wohlwollende 90% unterstelle hättest du nen Nettoverbrauch von etwa 104W, verblieben nur etwa 15W für die CPU und den ganzen rest (RAM, Board, Laufwerke,...) - das ist zu wenig.
Klar, mit auf 70% limitierter GPU wirds weniger aber die 115W brutto erscheinen mir immer noch arg tief, um die 150W kämen eher hin. Aber das istn anderes Thema.
Hab nen Alienware X51 rev2 mit externen 240 Watt netzteil welches netto aber bei 180 aussteigt. Der 4460S hat eine sehr kleines watt package. 115 Watt dürften echt langen. Eine SSD wäre auch noch dabei aber macht den Kohl nicht fett.
Kann deine Rechnung verstehen, du gingst aber von einem normalen Rechner aus, denke ich .
 
Naja, bei einer Standardüberschlagung sähe das so aus:
4460S --> 65W
1660S --> 125W
Restpauschale (Board, RAM, Laufwerke,...) --> 50W

Summe 240W Maximalverbrauch netto, grob 270W brutto Steckdose, Netzteildimensionierung 400W.


Nun hast du deine GPU auf 70% limitiert, die Ausstattung an Board, RAM usw. ist sehr klein so dass hier vielleicht nur 10W anstehen und ne SSD verbraucht quasi nix (im Idle). Zusätzlich könnte es sein, dass der hersteller bei der CPU auch recht niedrige/strenge Verbrauchslimits gesetzt hat um mit dem kleinen externen NT hinzukommen und WoT ist ja nicht Maximalpeak sondern gerade im CPU-Bereich weniger.
Dann wärens noch
4460S --> ~30W
1660S --> ~80W
Restpauschale (Board, RAM) --> ~10W
Summe 120W netto, grob 135W brutto Steckdose.

Deshalb halte ich deine 115W an der Dose noch für etwas niedrig aber die Größenordnung kommt bei solchen Einstellungen schon etwa hin.
 
Vergleichst du jetzt das tdp mit dem Energieverbrauch?
Mein PC zieht ohne Last 45 Watt aus der Dose
Bei Prime 95 allcore 3,2 ghz (turbo aus) 82 Watt ohne Throtteling .
Cinebench 15 allcore 3,2 ghz = 453 Punkte = 86 Watt -3 Watt Grundversorgung - 45 Watt System = 38 Watt CPU
Cinebench 15 turbo = 437 Punkte = 72 - 95 Watt Durschnitt = 83,5 Watt -3 Watt Grundversorgung - 45 Watt System = 35,5 Watt CPU

Bei WoT ist die CPU 40% ausgelastet und die Frames auf 120 FPS fixiert + GPU auf 70%. Denke, dass 115 Watt hier wirklich effektiv sind. Achso undervolted ist sie auch und geht nur noch bis 1845mhz @ 0,925 V
Durch das Rechnen, habe ich mir gerade nen 4790s bestellt und hoffe dass ht was bringt bei c4d
Beim Verfassen der Antwort hier wird mir klar, dass ich ein par Angaben vergessen habe zu erwähnen. Sorry.

Wie dem auch sei, der Topic wurde geklärt und ich danke dafür :)
 
Vergleichst du jetzt das tdp mit dem Energieverbrauch?
In dem Falle (CPU und GPU ohne Overboostfunktionen) geht das für die Maximalabschätzung (Details: https://extreme.pcgameshardware.de/threads/alkis-blog-46-verbrauch-und-tdp.577616/)

Aber du hast Recht dass man da sehr voirsichtig sein muss und das natürlich nicht generell geht - wenn du etwa nen 5800X hättest mit 105W TDP würde ich 142W Verbrauch als Boost (1,35xTDP bei diesem Modell) annehmen. Für genau deine Hardware könnte man das aber so machen wenn man den Peakverbrauch abschätzen wollte.
 
Zuletzt bearbeitet:
Zurück