AMD Käufer sollten mal bei Gamestar den Bericht darüber lesen, wie eine Einstellung bezüglich VRR in Windows und im Treiber den Stromverbrauch um bis zu 80% reduzieren kann.
Also genau das, was immer wieder für Verwirrung sorgt, wenn Leute von einem viel zu hohen Verbrauch im Idle sprechen und auch bei PCGH vielleicht bei Tests falsch eingestellt gewesen sein könnte, wenn man mal eben die Treiber bei Grafikkartentests verwendet hat.
20 statt 100 Watt sind immerhin schon was.
Ich meine mich diesbezüglich an Beschwerden zu erinnern.
PCGH wiedermal am uninformierten Shitposten Deluxe. Ich hab seit Windows 10, 2 Bildschirme mit 144hz und 60hz und beide haben schon immer unabhängig voneinander gearbeitet. Funktioniert sogar bei Spielen in Echtzeit wenn ich das Fenster von einem zum anderen Monitor verschiebe passen sich die Bildwiederholraten einwandfrei auf den jeweiligen Bildschirm an was sich ganz leicht mit RTSS prüfen lässt. Videos haben auch noch nie ein Problem dargestellt völlig egal in welchen FPS das Material vorliegt. Also ihr solltet echt mal anfangen korrekt zu recherchieren und erst dann was posten oder euer Schundblatt ein für alle mal dicht machen. Von Community-Hetze bishin zu völlig fehlerhaften und unrecherchierten Artikeln oder einfach Artikeln wo man einen Dolmetscher braucht weil soviele Rechtschreibfehler drin sind, bei da PCGH ist jeder unnötige Schwachsinn vertreten.
Wie ich gerade geschrieben habe, bei Gamestar gab es gerade einen Bericht, wo man mitunter in Windows etwas einstellen muss, damit das alles auch richtig laufen kann.
Es reicht also nicht einfach nur einen Treiber zu installieren und da evtl. noch Adaptive Sync anzustellen.
Im Monitor und auch Windows gibt es Einstellungen, die die Bildrate und wohl auch den Stromverbrauch beeinflussen können.
Und es scheint nicht immer auf Anhieb richtig zu funktionieren.
Wer darauf Wert legt, sollte halt auch einen Stromzähler für 10 Euro in Betracht ziehen.
Damit kann mn dann auch wirklich einmal nachrechnen, wieviel man selber so an Strom im Jahr mit diversen Geräten und Einstellungen verbraucht.
Die ganzen Milchmädchenrechnungen in Foren sind nämlich meistens falsch, da gar nicht Realwerte verwendet werden, der eigene Wert kann sogar um den Faktor 2-3 geringer ausfallen, wenn man es richtig macht, also Extremstromverpuffung, wie da vorgerechnet wird.
Somit lohnt sich der Kauf einer 4060 (Ti) dann nicht wirklich, wenn man damit den preisnachteil einer 3060 8Ti) wieder einspielen will. Das hat PCGH nämlich auch falsch angegeben. Da wird halt zu viel fantasiert und spekuliert, was sein könnte. Dabei gibt man selbst immer sogar Vergelichswerte an, wie das je nach Spiel und Einstellung sehr viel niedriger sein kann, udn das sind Werte von Spielen, die viel verbrauchen, die gestetet werden, ich habe viel niedrigere Werte bie vielen Spielen, bei Casual spingt die Karte manchmal nicht einmal an, die schläft quasi.
Zu dem Sparen gehört dann natürlich auch, ob eine Radeon 7900XTX nun nur mit unter 10, 20 oder 100 Watt im Idle läuft.
AMD Karten sind also mitunter im Idle stromsparender als die Karten von NVidia, sogar als der 4000er Serie.
Es kommt halt drauf an, was und wie man es macht, und ob da kein Bug drin ist, den man noch hätte beheben können.