Radeon Grakas mit 2 FHD Monitoren - starker Stromverbrauch (immer noch?)

Myaras

Schraubenverwechsler(in)
Hallo ihrs,

ich habe da mal eine Verständnisfrage zu einer Aussage in diesem Artikel: https://www.pcgameshardware.de/Rade...pecials/RX-5500-XT-Test-Benchmarks-1338838/2/
Da heißt es, dass bei Anschluss von 2 Monitoren die Leistungsaufnahme im Idle anstatt 7 Watt, 21 Watt beträgt. Dass ein zweiter Monitor etwas mehr braucht, habe ich mir gedacht, aber das die Graka gleich dreimal mehr Strom zieht im idle?

Das soll also bei der 5500 XT und 5700 XT ebenfalls auftreten. Bei NVidia nicht. Nun ist der Artikel vom Dezember 2019 aber ich finde nur Tests aus diesem Zeitraum, die Ähnliches aussagen. Kann eventuell jemand was dazu sagen, dass die Radeon karten immer noch so viel mehr Verbrauchen wenn man mehr als einen Monitor nutzt? Oder ist das nur, wenn man einen FHD und einen 4K zB anschließt? Bei mir wären es 2 FHD Monitore, beide 60 hz. Also trifft das nicht zu? Oder doch zu NVidia greifen?
 
Das die mehr verbrauchen liegt daran, dass unter bestimmten Umständen der Speicher nicht runter taktet. Das einzige was daran schlimm ist, dass die Lüfter im Idle an und aus gehen, weil die Karte etwas wärmer wird. Das lässt sich aber beheben wenn man Zero Fan ausschaltet.
Die Leistungsaufnahme ist doch nun wirklich völlig egal. Ob die Karte jetzt 7W oder 21W zieht was macht das fürn Unterschied?
Sagen wir mal dein Rechner befindet sich 8h am Tag im idle. Und der zieht 14W mehr. Dann sind das 112Wh = ca. 0,1kWh am Tag. Macht im Monat also 3kWh. Bei meinem Strompreis hier wären das weniger als 1€.

So also das Problem tritt aber MEISTENS nur auf bei Monitoren mit unterschiedlicher Frequenz. In den meisten Fällen wenn die die selbe Frequenz beide haben, passiert das nicht.
Wenn du 2xFHD mit 2x60Hz anschließt ist es ziemlich unwahrscheinlich, dass das überhaupt auftritt.
 
Wenn du noch bis zum Wochende warten kannst, kann ich es dir sagen, zumindest anhand von GPU-Z.
Denn wir schließen zum Filmschauen immer den TV an meinen PC an.
 
Zwei FHD sollten noch unproblematisch sein. Kritischer wird es erst, wenn man sehr hohe Auflösungen oder Frequenzen nutzt, oder verschiedene Monitore, die zum Beispiel sehr verschiedene Frequenzen nutzen.
 
Also wenn man sich schon Gedanken macht bei 7 zu 21W dann würde ich erst wissen wollen, wie du reagierst wenn sich deine Grafikkarte im Spiel dann mal 250 - 300 Watt nimmt?

Bei deiner angeführten Rechnung sind es zwischen 10 - 15€ im Jahr was hier ansteigen würde, jedoch ein idle von 7w entsteht auch nur wenn du nichts wirklich nichts machst und auch noch Hintergrunddienste killst die eventuell die Karte ansteigen lässt. Und wer sitzt schon vor dem PC und macht nichts? NV Karten ziehen auch mal gerne im idle 12-15w daher die Aussage NV macht es nicht, relativiert wieder weil ja NV von Haus aus mehr idle nimmt.
 
nvidia_refresh_120syk1e.jpg nvidia_refresh_1441gjkd.jpg

Auch bei NV reicht schon ein Monitor.
 
War das bei der 5700xt nicht ein Treiberbug, dass der Speichertakt im Dualmonitorbetrieb ansteigt, haben sie das schon gefixt? Mal Raff fragen.

Ansonsten mehr Pixel mehr Energie, war schon immer so. Was will er erst sagen, was der zweite Monitor noch zusätzlich verbraucht? Dann lass ich das gleich, wenn mir 21w, also dann 14w mehr als Idle = 1 Monitor zu viel sind. Das kann schon schnippen wenn du die Maus bewegst.
 
meine Karte zieht auch fröhlich Strom bei Nvidia aber sind auch 4k Monitore und TV oder 2x WQHD und einer 165Hz.
Der Nvidia Inspector läuft ned krieg ích direkt Greyscreen.

Schade das beide sowas scheinbar nicht gebacken kriegen in der heutigen Zeit,
 
Hier mal meine GPU-Z Werte von der Navi:
8-9 W mit Monitor
8-9 W mit Monitor + TV gespiegelt
23-24 W mit Monitor (Video im VLC)
23-24 W mit Monitor + TV gespiegelt (Video im VLC)

Macht also da keinen Unterschied.

Monitor hat 1920x1200 und der TV 1080i.

Treiber ist der 22.4.2 Beta.
 
Zuletzt bearbeitet:
Zurück