Eine Frage zu Volllast

haii91

PC-Selbstbauer(in)
Hiho, ich habe eine Frage zu dem Begriff "Volllast". Immer kommt es in diversen Tests vor, dass der maximale Stromverbrauch von der Vollast abhängig ist. Was versteht man unter diesen Begriff?
Wird zum Beispiel die Grafikkarte bis ans Limit seiner Leistung gebracht, oder reicht es schon wenn man ein Programm startet, dass die Karte 80% beansprucht wird.

Ich habe eine GTX 770 und wird unter Vollast mit 230 Watt angegeben.
Unter welchen bedingung kann ich damit rechnen, dass die Karte 230 Watt zieht? Sind es wahre 100%?

Ich freue mich auf Antworten :).
 
wenn deine Karte zu 100% ausgelastet ist spricht man von volllast, die lüfter drehen hoch, die karte taktet mit maximalem takt und zieht so die größt mögliche menge an strom -> volllast
Gruß
 
Das ist tatsächlich gar nicht so ganz einfach. :D

Rein physikalisch gesehen bedeutet Vollast, dass jeder Transistor der GPU so schnell er kann schaltet. Das würde in der Realität aber ein sofortiges Schmelzen der GPU zur Folge haben, daher:

...bedeutet Vollast in der Realität, dass die Grafikkarte schneller Befehle bekommt als sie sie abarbeiten kann und entsprechend immer maximal mögliche Arbeitsbelastung hat - das wird angezeigt als "100% GPU-Last".

Und hier gibts wiederum Unterschiede, welche Art diese Befehle denn nun sind - beispielsweise belasten künstliche Tools wie der Furmark die Karte thermisch stärker als ein Spiel (auch wenn beide "100% Last" erzeugen) da die Berechnungen des Furmarks auf maximale Abwärme ausgelegt sind und somit sozusagen künstlich den in der Realität erreichbaren Maximalfall erzeugen.


Die Angaben der Hersteller wie die 230W bei deiner GTX770 sind die Thermal Design Power und geben an, wie viel Abwärme die Karte maximal (dauerhaft) abgeben darf - was bei elektronischen bauteilen quasi auch glöeich der aufgenommenen Stromleistung ist. Diese 230W werden bei starker Spielelast erreicht, zumeist bewegt sich der Verbrauch in der Praxis etwas darunter. Der Furmark erreicht hier ebenfalls die 230W - eigentlich würde er deutlich mehr verbrauchen (wie oben erklärt), dass das nicht passiert bremsen die Karten dann aber künstlich ein indem sie beispielsweise den GPU-Takt soweit absenken dass eben nur die erlaubten 230W verbraucht werden (das ist das "PowerLimit").


Ich hoffe das war einigermaßen verständlich. :D
 
Das ist tatsächlich gar nicht so ganz einfach. :D

Rein physikalisch gesehen bedeutet Vollast, dass jeder Transistor der GPU so schnell er kann schaltet. Das würde in der Realität aber ein sofortiges Schmelzen der GPU zur Folge haben, daher:

...bedeutet Vollast in der Realität, dass die Grafikkarte schneller Befehle bekommt als sie sie abarbeiten kann und entsprechend immer maximal mögliche Arbeitsbelastung hat - das wird angezeigt als "100% GPU-Last".

Und hier gibts wiederum Unterschiede, welche Art diese Befehle denn nun sind - beispielsweise belasten künstliche Tools wie der Furmark die Karte thermisch stärker als ein Spiel (auch wenn beide "100% Last" erzeugen) da die Berechnungen des Furmarks auf maximale Abwärme ausgelegt sind und somit sozusagen künstlich den in der Realität erreichbaren Maximalfall erzeugen.


Die Angaben der Hersteller wie die 230W bei deiner GTX770 sind die Thermal Design Power und geben an, wie viel Abwärme die Karte maximal (dauerhaft) abgeben darf - was bei elektronischen bauteilen quasi auch glöeich der aufgenommenen Stromleistung ist. Diese 230W werden bei starker Spielelast erreicht, zumeist bewegt sich der Verbrauch in der Praxis etwas darunter. Der Furmark erreicht hier ebenfalls die 230W - eigentlich würde er deutlich mehr verbrauchen (wie oben erklärt), dass das nicht passiert bremsen die Karten dann aber künstlich ein indem sie beispielsweise den GPU-Takt soweit absenken dass eben nur die erlaubten 230W verbraucht werden (das ist das "PowerLimit").


Ich hoffe das war einigermaßen verständlich. :D

Wenn die Transistoren aus Eisen sind, dann würde nichts so schnell schmelzen^^. Physikalisch gesehen müsste man auch mehr Strom verbrauchen, wenn eine Komponente zu heiß wird, durch den erhöhten Widerstand.
Ich kann also davon ausgehen, dass meine Karte beim Spielen nie die 230 Watt erreicht, auch wenn ich 60+fps aufwärts habe? Dann müsste es so stark ruckeln, dass ich bei 2-5 fps liege, oder?
 
Dann hast du aber 100% CPU Last, und 20% GPU Last. ;)

Wie viele Fps du hast, ist egal, wen die CPU nicht limitiert, und die Grafikkarte mit 100% arbeitet, kannst du auch 50 Fps haben.

Wen ich Tessmark, ähnlich wie Furmark, laufen lasse, habe ich eine %-Stromaufnahme von bis zu 107% was um die 321W sind, 7% gehen davon auf die Drei Lüfter. Ingame komme ich selten über 85% (255W) hinaus.

Das eine belastet das mehr, das andere das, aber jede Karte wird auf irgendwas besser reagieren. Die eine macht dort einen Fehler, wo die andere noch munter weiter läuft, und bei einer anderen Anwendung nicht mehr stabil ist.
 
Zuletzt bearbeitet:
Stimmt das dann:ugly:

Bei einer langsamen Grafikkarte 170 Watt die viel leisten muss wegen der gewählten hohen Auflösung und Grafiksettings läuft unter (Volllast 100%) ist dann das gleiche wie, eine schnelle Grafikkarte 230 Watt läuft unter den gleichen Bedingungen weil sie aber eine höhere Rohleistung hat nur mit (Last 60%) und verbraucht ungefähr gleich viel Strom.

Dann kauft man sich doch lieber eine schnellere Grafikkarte.
 
1. Kauft man sich wenn man kann immer die schnelle und nicht die langsame ;)
2. Würde die schnelle dann halt 230w ziehen auch auf volllast laufen, aber die fps wäre höher.
Gruß
 
Wen eine schnelle Grafikkarte 230 Watt TDP maximal zieht sie aber nur zu 60% ausgelastet ist verbraucht sie eben keine 230 Watt.:schief: Anders eine langsame die ständig unter Volllast läuft.

Edit: oder?
 
Zuletzt bearbeitet:
Wenn die Transistoren aus Eisen sind, dann würde nichts so schnell schmelzen^^. Physikalisch gesehen müsste man auch mehr Strom verbrauchen, wenn eine Komponente zu heiß wird, durch den erhöhten Widerstand.
Ich kann also davon ausgehen, dass meine Karte beim Spielen nie die 230 Watt erreicht, auch wenn ich 60+fps aufwärts habe? Dann müsste es so stark ruckeln, dass ich bei 2-5 fps liege, oder?

Aaalso:
1.) Aus welchem Material die Transistoren sind wäre in dem theoretischen Fall völlig egal, "alle Transistoren gleichzeitig" würde wohl viele Tausend Watt bedeuten - in der Praxis schalten nur eine relativ geringe Zahl an Transistoren gleichzeitig.

2.) Ja, eine GPU verbraucht mehr Strom wenn sie heißer wird, das liegt aber weniger an einem erhöhten Widerstand (Halbleiter verhalten sich hier anders als ein popliger Eisendraht) sondern an Leckströmen die mit der Temperatur zunehmen - deswegen ist auch das OC-Potential bei höherer Temperatur etwas geringer.

3.) Deine Karte erreicht beim Spielen schon mal die 230W-Grenze wenn grade mal eine Szene eine Spitzenlast erzeugt, die allermeiste Zeit wird die Karte aber weniger (ganz grob 200W) verbrauchen unter Last.

4.) Die FPS haben damit absolut gar nichts zu tun. Ob die Karte 300 fps zeichnet die wenig Aufwand pro Frame haben oder 20fps mit hohem Aufwand pro Frame ist der Karte egal. Einen Unterschied gibt es nur dann, wenn du die fps künstlich begrenzt, beispielsweise durch vSync. Wenn die Karte also eigenmtlich 100fps schaffen würde aber durch vSync nur 60 berechnen muss wird auch die Auslastung und entsprechend der Stromverbrauch fallen.
 
Ich meinte damit jetzt nicht dass je mehr sie zieht desto mehr fps werden berechnet... ich hab das im vergleich zu schwächeren gemeint... wenn beide auf 100% laufen.
Dass die eine karte auf 100% läuft die andere bei gleichen einstellungen und fps aber nur auf z.b. 60% erreicht man nur in dem seeehr seltenen fall das cpu limit = gpu Limit wäre, was aber fast nie der fall ist... die karte berechnet unlimitiert immer so viele fps wie möglich und läuft in diesem fall aich immer auf volllast... der Stromverbrauch wird halt mit der zeit wegen der ansteigenden Temperatur höher.
Gruß
 
Dann hast du aber 100% CPU Last, und 20% GPU Last. ;)

Wie viele Fps du hast, ist egal, wen die CPU nicht limitiert, und die Grafikkarte mit 100% arbeitet, kannst du auch 50 Fps haben.

Wen ich Tessmark, ähnlich wie Furmark, laufen lasse, habe ich eine %-Stromaufnahme von bis zu 107% was um die 321W sind, 7% gehen davon auf die Drei Lüfter. Ingame komme ich selten über 85% (255W) hinaus.

Das eine belastet das mehr, das andere das, aber jede Karte wird auf irgendwas besser reagieren. Die eine macht dort einen Fehler, wo die andere noch munter weiter läuft, und bei einer anderen Anwendung nicht mehr stabil ist.

Bei welcher Karte hast du 321W? :D das ist, zumindest bei den neuen Karten, physikalisch ned möglich.
 
Es ist eben eine Gigabyte GTX 780 Ti Windforce 3X mit 2*8pin PCI-E Anschlüsse. Da gehen alleine schon 300W durch, und mit den 75 Watt vom PCI-E Slot wären es 375W. Wobei die Kabel so viel her geben, wie die Karte will.

Aber wieso sollte es nicht möglich sein? Das ganze bezieht sich auf das Power Target Range. 100% sind 300W, 117% sind 350 Watt.
 
Aber wieso sollte es nicht möglich sein? Das ganze bezieht sich auf das Power Target Range. 100% sind 300W, 117% sind 350 Watt.

100% sind bei der GTX780Ti nominell 250W, entsprechend sind 116% (was das max PT der Gigabyte WF3 ist) in der Theorie 290W.

Was die Karte tatsächlich verbraucht hab ich in einem Blog verewigt:
http://extreme.pcgameshardware.de/blogs/incredible-alk/1514-alkis-blog-23-der-stromblog.html

Man kommt tatsächlich (mit Gewalt) auf fast 350W mit der Karte, aber nur weil das PowerTarget sehr "Kartenfreundlich" ausgelegt wurde, sprich die 250 angekündigten TDP sind (zumindest bei meiner Karte) schon etwa 280W.

Beim spielen (sprich in der Realität) ists aber deutlich weniger.
 
Jetzt wird´s interessant, anfang´s ging ich auch davon aus, aber 1. besitzt die Gigabyte kein Referenz PCB.

Und laut Kepler BIOS Tweaker habe ich im Power-Table einen Default, und Max. Wert von 250W (100%). Beim Power Target habe ich aber 300W (100%) und 350W (117%). Erhöhe ich unter Last die Drehzahl des Lüfters, steigt auch die Auslastung des PT´s, und die Lüfter werden mit dem Chip wohl nicht so viel zu tun haben. Im Gegenteil, wenn der Chip kühler bleibt, müsste die Stromaufnahme sogar leicht sinken.

Ich werf aber mal wieder einen Blick in deinen Blog.
 
Zurück