Geforce GTX 580 drosselung der Leistungsaufnahme umgehen

poiu

Lötkolbengott/-göttin
TechPowerUp berichtet wie man mit GPU-Z die schutzfunktion umgeht.

für alle die nicht genau wisen worum es geht Zitat aus dem PCGH Test

Geforce GTX 580 im Test: Die bessere Geforce GTX 480? - geforce, nvidia, fermi - Seite 2


Geforce GTX 580: Power Containment
Wie bereits angesprochen, hat Nvidia eine Schaltung auf dem PCB der Grafikkarte integriert, welche dafür sorgen soll, dass sogenannte Ausreißer-Applikationen wie zum Beispiel Furmark oder OCCT keine enormen Spitzen in der Messung der Leistungsaufnahme verursachen. In unseren Tests erwies sich die erste Implementierung noch verbesserungsfähig. Zum Beispiel wurde der aktuelle Furmark oder die offizielle Version des PCGH-VGA-Tools erkannt und entsprechend eingebremst: Intern reduziert der GF110-Chip dabei die Taktraten auf 50 Prozent. Ältere Versionen des Furmark hingegen werden jedoch nicht erkannt und verursachen weiterhin Lastspitzen um 310 Watt.

TechPowerUp beschreibt nun wie mit einem einfachen Command Line Befehl bei Start von GPU-Z das Throttling der GPU Deaktiviert.

Deaktivieren mit : "/ GTX580OCP" Beispiel : C:/...../gpuz.exe /GTX580OCP

Die Throttling Funktion bleibt dann bis zum nächsten Neustart deaktiviert.

Disable GeForce GTX 580 Power Throttling using GPU-Z | techPowerUp

am Ende gibt es noch die obligatorische Warnung, das man für Hardwareschäden selbst verantwortlich ist.

Gruß
poiu
 
Zuletzt bearbeitet:
Also wenn ich die Grafik Richtig deute sind wir da bei 350 Watt !!!!!
Also ein Camping WasserKocher hat nur 500.
Also alle GTX 580 Besitzer kocht eure Eier auf der Graka
 
Kein Wunder, dass Nvidia da den Riegel vorschiebt, wie es übrigens auch AMD (ATI) macht... Bei der Leistungsaufnahme würde doch jeder Lüfter in die Knie gehen oder zur Turbine werden. Bleibt nur zu hoffen, dass in naher Zukunft kein Spiel rauskommt das die 580 noch mehr auslastet als das gute "alte" Grid, denn da sind's ja auch schon gut 230W.
 
Mensch wenn ich dies lese frage ich mich immer wieder wieso beim Prozessor die Leistungsaufnahme immer weiter heruntergefahren wird aber bei der Grafikkarte dies immer absurdere Formen annimmt und diese immer größer wird. :daumen2:
Mehr Rechenstärke und Leistung bei einer Grafikkarte ist ja wünschenswert aber muss dies zeitgleich mit einer höheren Energieaufnahme daher kommen bzw. kann dies nur über diese realisiert werden ?
Der Unterschied von meiner 6800GT auf meine derzeitige GTX285 hat schon mehr als gereicht...
 
Für den Kühler sind über 300W kein Problem.

Und wie siehts mit CUDA Anwendungen aus, in denen die Karten ja relativ "leicht" an ihre Leistungsgrenze gebracht werden können?

Hab ich dann da jetzt nen überproportionalen Einbruch? Oder raucht mir die Karte/MB dann irgendwann ab, weil ich 350 Watt zieh? Also ich find das sehr grenzwertig.

Vorallem wenn das wirklich rein auf Software geht, dann isses mal voll fürn poppes, und mehr ne Marketing Sache um im Verbrauchsprüfstand gut dazustehen, und nicht die Leistungsaufnahme noch weiter explodieren zu lassen, wo se doch vorher schon so massiv für kretisiert wurden.
 
Abrauchen kann da normal nichts. Die Spannungsversorgung der Graka sollte dafür ausgelegt sein, und wenn die GPU mal zu warm wird, dann drosselt sie sich halt - oder schaltet sich ab. Beim Mobo denke ich auch nicht das wirklich Probleme auftreten können, zumindest solange gewisse Toleranzen nicht nennenswert überschritten werden. (was bei knapp über 10% Differenz nicht der Fall sein sollte)

Und wenn das NT nicht gerade an der Grenze arbeitet, es sich also bei ~40 Watt zusätzlicher Last an 12V gleich abschaltet, dann sollte auch das kein Problem sein.

Ich dachte auch erst das diese "Drosselung der Leistungsaufnahme" zum Schutz der Graka implementiert wurde, aber wie ich das sehe ist sie wohl nur zur Verbesserung der Meßergebnisse da.
 
Bei Cuda Anwendunge braucht die Karte sicherlich nicht mehr Strom als bei einem Spiel.
Etwa Race Driver Grid. Eher weniger. Erinner mich noch dunkel an ein paar Benchmarks...die aber glaub ich in der anderen Zeitschrift waren.

Ich denke Nvidia wusste das dass mit der Drosselung nicht lange funktioniert und hat die Karten wohl wissend drauf ausgelegt das sie auch 350 Watt schadlos verheizen können.

Wäre ja ne arg negative Publissity wenn die Dinger kaputtgingen. Dann lieber 2€ mehr in gescheite Bauteile setzen.

Bei so einem Prunkstück das 30% vor der Hd 5870 ist....ist die Leistungsaufnahme egal
Die 6870 ist nicht unbedingt diskussionswürdig

lg
 
Ich dachte auch erst das diese "Drosselung der Leistungsaufnahme" zum Schutz der Graka implementiert wurde, aber wie ich das sehe ist sie wohl nur zur Verbesserung der Meßergebnisse da.

Moin zusammen

Du meinst um in denn Tests/Reviews besser da zu stehen, der Gedanke kam mir auch :ugly:
 
Moin zusammen

Du meinst um in denn Tests/Reviews besser da zu stehen, der Gedanke kam mir auch :ugly:

Wenn die Redakteure derart unfähig sind um das nicht zu merken sind sie aber in der falschen Branche , denn Furmark schlägt sich normalerweise in der Temperatur und ,vor allem , im (kaum überhörbaren) Lüftergeräusch nieder ;-)

Warum Nvidia das gemacht hat ist mir schleierhaft, aber es ist ja anscheinend relativ einfach zu umgehen wenn man wirklich die maximale Temperatur testen möchte.
 
wir können nur spekulieren ;) wobei ich mich auch frage was das bringen soll und wie genau steuert der Kontrollchip?

Mir fällt grade ein lustiges worst case szenario ein , in einem Jahr oder so kommt ein Spiel das die GPU so stark fordert (Tesselation, DX11, what ever) und dann regelt der Chip die GPU auf 50% -> ruckel ruckel :ugly:

Ich frag mich ob das möglich wäre^^ oder ob der NV treiber echt nur auf Furmark reagiert, das wäre mal interssant und ob es unterschiede zwischen testsamples und finalen Karten gibt!
 
Zuletzt bearbeitet:
Wie laut wird den die Karte im Furmark wenn sie nicht throttelt, so laut wie die Gtx480? Ich denke nicht das es jemals so ein Game geben wird.
 
Automatisches throttling ist nix Schlimmes, Furmark ist im taeglichen Gebrauch sowieso nicht reproduzierbar. Mich stoert die neu erfundene "TDP", die in Wahrheit keine TDP ist, sondern ein schwammig definierter Durchschnittswert, den nVidia erfunden hat, um die exorbitante Leistungsaufnahme GF100/110 zu vertuschen. Da werden dann aus ~320 W bei der GTX480 halbwegs ertraegliche 250 W, und schon spricht jeder von 250 W TDP. Die GTX 580 hat dann nur noch 244 W, und schon fangen alle an und erzaehlen, dass die ja sparsamer ist als die kommende HD 6970 (255 W echte TDP). Und das in Hardware Foren :schief:
Wenn nVidia nicht in der Lage ist, eine vernuenftige Leistung/pro Watt hinzubekommen, dann sollten sie auch dazu stehen. Wer knapp 500 Euro fuer eine Graka ausgibt, den stoert hoher Verbrauch eh nicht. Na ja, nVidia halt :ugly:
 
Wie laut wird den die Karte im Furmark wenn sie nicht throttelt, so laut wie die Gtx480? Ich denke nicht das es jemals so ein Game geben wird.

Eine HD 5870 zb. ist lauter unter Max.Last.
Die GTX 580 hat eine deutlich bessere Kühlung.
Sie wird nur rund ~ halb so laut in Furmark wie ihr Vorgänger, selbst wenn sie ungedrosselt ist.
Und ist dabei noch 7°C kühler.


attachment.php


Also die Drossel is ein rein psychologisches Ding, denn Furmark ist ein Mindfuck.
Wenn alle Welt dein Produkt nur noch nach dem Verbrauch in ein, zwei Anwendungen beurteilt,
welcher in 99,9% aller anderen Fälle nie auftritt, dann würde auch ich diese ein, zwei Anwendungen drosseln.
 
Skysnake schrieb:
Und wie siehts mit CUDA Anwendungen aus, in denen die Karten ja relativ "leicht" an ihre Leistungsgrenze gebracht werden können?
Eine solche CUDA-App haben wir noch nicht gefunden. Solltest du etwas haben, was auf CUDA setzt und derart auslastet wie Furmark - her damit.
 
Ich habe ein BeQuiet 650 W Netzteil. OC meines CPU siehe Signatur. Ist das NT ausreichend für meine gestern erworbene GTX 480 SC von EVGA? Konnte noch nicht testen, weil sie erst im Laufe der Woche ankommt. Gekühlt wird die Karte mit Wasser!
Danke für die Info!

Mfg mmayr
 
Zurück