News Energie sparen: AMD FreeSync soll den Verbrauch mit neuem Feature reduzieren

ProMotion von Apple ist nichts anderes als eine variable Bildwiederholrate, was wiederum die Voraussetzung für Adaptive Sync ist, was jeder Monitor mitbringt, der Freesync unterstützt. Das gibts seit 2013, warum macht sich AMD erst jetzt Gedanken darum? Zumal, Radeon-GPUs sind deshalb so verschwenderisch im Idle, weil der Speicher ab ~98 Hz Bildwiederholrate einfach nicht herunter taktet (was mitunter ein Grund ist, warum ich seit der RX 5700 XT in keine AMD mehr investiert habe).

Anhang anzeigen 1429433

Möglicherweise kann uns ein User mit passendem Monitor (4K, 240 Hz) ja mal aufzeigen, ob sich die Sache inzwischen gebessert hat beziehungsweise bald bessern wird, das wäre endlich mal ein guter Ansatz von AMD für ihre GPUs. Die Werte oben stammen aus dem Launch-Test zur 7900 XT(X).
In etwa immer noch korrekt die Angaben,
ich hatte eine Rücksendung an einen großen Warenhändler kurz ausprobiert auf meinem 240hz WQHD Samsung Odyssey um mich selbst schlau zu machen in dieser Sache.

RGB aus, 96 Watt Leerlauf bei der Sapphire Nitro+ Radeon RX 7900 XTX :ugly:, sie taktet aber tatsächlich runter. Klar die XTX ist auch ein Ungeheuer aber man sollte schon den Leerlaufverbrauch noch deutlich drücken, da hat man wohl den VESA Standard im Blick auf den AMD aber schon seit geraumer Zeit auch Einfluss hat.

Löblich allerdings das man jetzt wohl Nägel mit Köpfen macht und über VRR, Freesync und starke Treiberanpassungen usw. versucht der Geißel Herr zu werden.
 
ProMotion von Apple ist nichts anderes als eine variable Bildwiederholrate, was wiederum die Voraussetzung für Adaptive Sync ist, was jeder Monitor mitbringt, der Freesync unterstützt. Das gibts seit 2013, warum macht sich AMD erst jetzt Gedanken darum? Zumal, Radeon-GPUs sind deshalb so verschwenderisch im Idle, weil der Speicher ab ~98 Hz Bildwiederholrate einfach nicht herunter taktet (was mitunter ein Grund ist, warum ich seit der RX 5700 XT in keine AMD mehr investiert habe).

Anhang anzeigen 1429433

Möglicherweise kann uns ein User mit passendem Monitor (4K, 240 Hz) ja mal aufzeigen, ob sich die Sache inzwischen gebessert hat beziehungsweise bald bessern wird, das wäre endlich mal ein guter Ansatz von AMD für ihre GPUs. Die Werte oben stammen aus dem Launch-Test zur 7900 XT(X).
Hier Mal meine Daten von der Saphire RX 7900XTX. Also die haben am Idleverbrauch richtig was getan und ich bin damit sehr zufrieden. Aflösung ist 3440x1440 auf 34 Zoll Monitor bei 144 Herz
 

Anhänge

  • screenshotGPU1.gif
    screenshotGPU1.gif
    26 KB · Aufrufe: 96
  • screenshotGPU2.gif
    screenshotGPU2.gif
    17,6 KB · Aufrufe: 100
Hier Mal meine Daten von der Saphire RX 7900XTX. Also die haben am Idleverbrauch richtig was getan und ich bin damit sehr zufrieden. Aflösung ist 3440x1440 auf 34 Zoll Monitor bei 144 Herz
So in etwa sieht das bei mir ebenfalls aus, selbe Auflösung und 144hz. Nur sobald ich den 2. Monitor anschließe (1080p, 60hz), geht es direkt auf ca. 50W hoch
 
Die sollten mal lieber ihre Freesync Premium Pro HDR Pipeline ändern.. und das Dadurch aufgezwungene Dynamische tonemapping
Viele HDR Monitore, Vorallem die OLEDS leiden unter Tonemapping Problemen und erreichen nichtmals ihre angegebene Peak Brigthness

Haste n Freesync Premium Pro zertifizierten Monitor und das Ding läuft an Nvidia problemloser als wie an ner AMD Karte

was FSR3 angeht.. das wird diese Generation nichts mehr.. AMD versucht das thema auch tot zu schweigen..
wie denn auch.. in nem halben jahr haben die das nicht mal eben zusammengekloppt..
das Nvidia das ganze bereits funktionsfähig in spiele integriert hat.. hat amd voll überfahren
Wie ist das eigentlich. Fährt man derzeit besser source tone mapping im Monitor zu aktivieren mit einer AMD Karte?
 
Zurück