Nvidia Geforce plus G-Sync: Hohe Idle-Leistungsaufnahme ab 144 Hz - Fix in Aussicht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce plus G-Sync: Hohe Idle-Leistungsaufnahme ab 144 Hz - Fix in Aussicht

Offenbar verbrauchen Nvidias Geforce-Grafikkarten deutlich mehr Strom im Leerlauf, wenn ein G-Sync-Monitor mit 144 Hertz oder mehr zum Einsatz kommt. Nvidia ist das Problem bekannt und möchte es mit einem kommenden Treiber beheben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce plus G-Sync: Hohe Idle-Leistungsaufnahme ab 144 Hz - Fix in Aussicht
 
Ich dachte das ist im Bios der Grafikkarte festgelegt, ab wann sie in den Stromsparmodus wechselt :hmm: (So kenne ich es jedenfalls)
Okay, hätte ich jetzt nicht gedacht
 
Grundsätzlich schon, aber der Treiber kann darüber bestimmt, wann welcher Power-State genutzt wird.

Btw. wie sieht es eigentlich bei drei Monitoren aus? Meine System mit der 970 zieht im Betrieb mit drei Bildschirmen bei 120Hz (andere Wiederholrate nicht getestet) auch etwa 40W mehr aus der Dose als mit einem Bildschirm.:hmm:
 
Verstehe nicht warum Nvidia das nicht sofort bewusst war und erst ein anderer dies aufdecken muss.....oh sorry ich vergass den GTX970 Fauxpass, kann man ja "totschweigen" zumidest solange bis es jemand merkt :schief:.
 
Na endlich, sehr gute Nachricht. Ich persönlich habe nämlich keine Lust immer von 120 Hz auf 144 Hz umzustellen.
 
Na endlich, sehr gute Nachricht. Ich persönlich habe nämlich keine Lust immer von 120 Hz auf 144 Hz umzustellen.

musst du doch gar nicht?

du stellst Dekstopauflösung mit 120 Hz ein und im Treiber für Games maximale Frequenz (144 Hz)

dann hast du auf dem Desktop 120Hz und runtergetaktete Grafikkarte und im Spiel die vollen 144 Hz - wenn du das Spiel beendest hast du auf dem Desk wieder 120Hz
 
musst du doch gar nicht?

du stellst Dekstopauflösung mit 120 Hz ein und im Treiber für Games maximale Frequenz (144 Hz)

dann hast du auf dem Desktop 120Hz und runtergetaktete Grafikkarte und im Spiel die vollen 144 Hz - wenn du das Spiel beendest hast du auf dem Desk wieder 120Hz

Ah ok, wußte ich gar nicht, dass man das im Treiber differenzieren kann.
 
Über GSync könnte man ja sogar die Frequenz noch weiter absenken. Wenn gerade nichts auf dem Bildschirm passiert, könnte man ja auch auf 30 Hz gehen.
 
Das ist der Grund warum ich auf dem Desktop 120Hz nutze.

Das war doch schon seit jeher so und jetzt fällt das denen erst auf? Das wurde schon so oft in den Nvidia und Boardpartner Foren angesprochen und nichts ist passiert. Kaum "bemerkt" das die Fachpresse, sei das Problem bekannt und man arbeitet angeblich schon daran . Vorher kam man immer mit dem Argument, dass der höhere Takt wegen dem höheren Pixel Clock benötigt wird. Ich glaub da nicht an eine schnelle Lösung, aber schön wäre es.

Wenn ich mich recht entsinne, hat das auch nichts mit G-Sync oder Nvidia zu tun sondern war bei vielen Monitoren bei 144Hz so. Sobald man 144Hz einstellt geht die Karte in einen höheren P-State wie bei Multimonitoring und das teilweise bei AMD Karten genauso. Nur die aktuellen Generationen scheinen das besser zu machen.
 
Zuletzt bearbeitet:
und *puff* war die immer so hochgelobte 'sparsamkeit' der nv-karten weg.
sowas aber auch......

nebenbei finde ich er erstaunlich das die sogenannte 'fachpresse' das ebenfalls, wie nv selbst, solange ignoriert, bis es nichtmehr zu verschweigen geht.
ein schelm wer böses dabei denkt....

früher hatte die fachpresse den anspruch solche sachen wie abnorme stromverbräuche oder speicherbugs oder treiberungereimtheiten umgehend aufzudecken und denjenigen hersteller somit dazu zu bringen sich da zu bewegen.
heute ist man wohl sosehr auf werbeeinnahmen angewiesen, das solche sachen nichtmehr machbar sind, zu lasten der leser und dem wunsch dieser von der fachporesse auch informationen zu kriegen wenn etwas nicht so funktioniert wie die werbung es verspricht bzw es der hersteller angiebt.
unabhängige berichterstattung ist soetwas nichtmehr, leider....

mfg
robert
 
Dennoch irgendwie blöd, entweder man verzichtet im 2D Modus auf 20% der Bildwiederholfrequenz oder nimmt einen 60W höheren Stromverbrauch in kauf. Man kann die Karte, soweit ich weiß auch manuell zum Stromsparen zwingen.

nebenbei finde ich er erstaunlich das die sogenannte 'fachpresse' das ebenfalls, wie nv selbst, solange ignoriert, bis es nichtmehr zu verschweigen geht.
ein schelm wer böses dabei denkt....

früher hatte die fachpresse den anspruch solche sachen wie abnorme stromverbräuche oder speicherbugs oder treiberungereimtheiten umgehend aufzudecken und denjenigen hersteller somit dazu zu bringen sich da zu bewegen.
heute ist man wohl sosehr auf werbeeinnahmen angewiesen, das solche sachen nichtmehr machbar sind, zu lasten der leser und dem wunsch dieser von der fachporesse auch informationen zu kriegen wenn etwas nicht so funktioniert wie die werbung es verspricht bzw es der hersteller angiebt.
unabhängige berichterstattung ist soetwas nichtmehr, leider....

mfg
robert

Lügenpresse!!! Lügenpresse!!! Lügenpresse!!! Lügenpresse!!! Lügenpresse!!! Lügenpresse!!!
Volksverräter!!! Volksverräter!!! Volksverräter!!! Volksverräter!!! Volksverräter!!! Volksverräter!!!

Fackeln raushol...


Mal ehrlich:
glaubst du wirklich Nvidia hätte den halben Planeten bestochen damit sie dieses (relativ) kleine Problem unter den Teppich kehren?

Die Wahrheit ist das einige Dinge manchmal recht schwer herauszufinden sind (wie der Speicherbug bei der GTX 970) oder es bekannt ist und sich kein Schwein interessiert (wie der VW Abgasskandal, gab schon Anfang der Jahrtausedwende Berichte das allgemein kreativ gemessen wird). Glaubst du wirklich es misst ein Redakteur jederzeit in allen Konstealtionen den Stromverbrauch (btw, wie sieht die Sache bei meinem Röhrenmonitor über den Analogeeingang aus [die Röhrenmonitore werden allgemein ignoriert, Lügenpresse!])?. Übrigens hat man auch früher etliche Dinge spät oder nur durch Zufall herausgefunden, etwa die Mikroruckler oder den Pentiumdivisionsfehler.
 
naja, wenn ich ein fehlverhalten einer meiner komponenten zu hören bekomme, so wie es zb beim stromverbrauch ja der fall ist(oder zb beim abgas bei vw auch war), werde ich alsbald neugierig und sehe mir das genauer an.
wenn ich das auch nachvollziehen kann und zufällig zb hier im forum mitlese, mache ich das publik und erwarte eigentlich das soetwas die fachpresse dann umgehend aufgreift(der fehler wurde ja wohl nicht erst gestern publik).
das hat mit lügenpresse und co nix zu tun sondern schlicht mit desintresse derer von denen man es nicht erwarten würde.
scheint so als überlege man sich immeröfter was man schreibt um es sich nicht eventuell, vieleicht zu verscherzen, und das ist sehr sehr schade.

aber geld nehmen wollen das man nicht zu sc hlimm mit werbung zugeballert wird oder erwarten das man seinen werbeblocker abstellt, damit man vor lauter blinkiblinki-werbung kaum mehr in ruhe lesen kann, das geht
es geht leider immer mehr in richtung reiner gewinnmaximierung bei gleichzeitigem überlegen was man tut, wenn die infos denn mal nicht nur positiv sind .......

mfg
robert
 
Zuletzt bearbeitet:
Finde ich super, das Nvidia so schnell reagiert sobald so ein Fehler aufkommt. Jedem Entwickler kann mal ein Fehler unterlaufen die trotz guter Qualitätskontroller nicht auffallen, es sind ja auch nur Menschen. Gerade da wo die Effizienz der Karten so gut ist, ist es natürlich im gleichen Maße schlecht wenn der Verbauch zu hoch ist für 144 Hz Nutzer. Wenn der Fehler behoben ist, dann hat man mit Gsync dann ein ausgezeichnetes Produkt. Von so einer Reaktiosfreude kann sich so manch anderer Hersteller etwas abschneiden. :daumen:
 
Finde ich super, das Nvidia so schnell reagiert sobald so ein Fehler aufkommt. Jedem Entwickler kann mal ein Fehler unterlaufen die trotz guter Qualitätskontroller nicht auffallen, es sind ja auch nur Menschen. Gerade da wo die Effizienz der Karten so gut ist, ist es natürlich im gleichen Maße schlecht wenn der Verbauch zu hoch ist für 144 Hz Nutzer. Wenn der Fehler behoben ist, dann hat man mit Gsync dann ein ausgezeichnetes Produkt. Von so einer Reaktiosfreude kann sich so manch anderer Hersteller etwas abschneiden. :daumen:

Du meinst mit "so schnell reagieren" und "Reaktionsfreude" also, dass sie es nach einem Jahr endlich mal fixen? :ugly: Das Problem gibt es schon ziemlich lange. Es gibt ja G-Sync-Monitore mit 144 Hz nicht erst seit gestern. Siehe die Beiträge von einigen Usern weiter oben im Thread.
 
und *puff* war die immer so hochgelobte 'sparsamkeit' der nv-karten weg.
sowas aber auch......

So was aber auch, wie auf einmal Leute aus der Deckung kommen und Mistgabel schwingend losstürmen... Wie vorhersehbar.

Das Problem ist seit über einem Jahr bekannt, auch nVidia. Die Rückmeldung war zunächst, dass es nicht anders ginge. Und da man die Wiederholrate auf dem Desktop ohne Nachteile auf 120 Hz begrenzen kann und trotzdem in allen Spielen (ohne manuelle Umstellung, dank der Option "Preferred Refreshrate" in den 3D-Einstellungen) trotzdem die volle Framerate nutzen kann, sehe ich das nicht als überhaupt nennenswertes Problem.

Kann man bei AMD/Freesync eigentlich über den Treiber höhere Wiederholraten in Spielen erzwingen, die das nicht von sich aus anbieten? Ernsthafte Frage!
 
Das Problem ist seit über einem Jahr bekannt, auch nVidia. Die Rückmeldung war zunächst, dass es nicht anders ginge. Und da man die Wiederholrate auf dem Desktop ohne Nachteile auf 120 Hz begrenzen kann und trotzdem in allen Spielen (ohne manuelle Umstellung, dank der Option "Preferred Refreshrate" in den 3D-Einstellungen) trotzdem die volle Framerate nutzen kann, sehe ich das nicht als überhaupt nennenswertes Problem.

Danke! Ich habe schon die ganze Zeit gesucht, wie ich das einstellen kann. :)
 
Zurück