News RDNA 3: AMD verbessert den Verbrauch im Multi-Monitor-Betrieb mit hohen Bildwiederholungsraten [Bericht]

Bei der Monitor bestückung auch kein wunder
Und wieso?
Steck die Monitore an ne beliebige RTX4000 und du bist im 2D-Performance-Modus bei ~30W. :ka:

Es ist ja löblich dass AMD zumindest versucht da ranzugehen und wenigstens ein paar kleine Erfolge erzielt. Aber sowas viele Monate nach Release zu bringen und immer noch weit davon weg zu sein was der Konkurrent seit Ewigkeiten kann ist einfach nicht besonders prickelnd.
 
Bei der Monitor bestückung auch kein wunder
Schwachsinn.

Der Test von Tom's Hardware mag legit sein...aber es gibt nicht nur verschiedene Grafikkarten, sondern auch tausende Monitore und dutzende bis hunderte Auflösungs und Wiederholrate Kombinationen und viele haben 1-4 teils verschiedene Monitore.
Das alles zu testen ist kaum möglich und das ist ja das große Problem an der Geschichte.
Es wird NIE eine 100%ige Lösung für jeden geben.

Für Betroffene sind das im Schnitt ca 15€ im Jahr an extra Kosten (bei 2 Stunden "idle" täglich) bzw 50kW/h pro Jahr. Idle bedeutet oft auch einfaches Surfen, Excel arbeiten und so.
Für eine Generation die Energiesparen will, ist das nicht wenig.
Wenn nur 1% der AMD Nutzer betroffen ist, sind es trotzdem locker 5MW/h pro Jahr. Damit könnte ein Cybertruck fast 500 mal um die Erde fahren. :D
 
Bei mir hat sich nicht wirklich was getan. Braucht ohne Mausbewegung ca 20 Watt, bei Maus oder Fenster Bewegung ca. 35 Watt und wenn man z.B. ne Website öffnet 52 Watt.
 
Steck die Monitore an ne beliebige RTX4000 und du bist im 2D-Performance-Modus bei ~30W. :ka:
Das stimmt so nicht. Je nach Monitor Konfiguration kann auch eine RTX 4000 deutlich mehr im Idle verbrauchen.

Eine 4060 verbraucht bis heute 52 W im Idle bei Multimonitor und das seit Release wo Tester das festgestellt haben.

Das gesamte ARC Lineup von Intel hat einen hohen Idle Verbrauch seit Release bis heute.

Das Ganze ist kein AMD only Problem. Das ist ein Trugschluss.
Der Test von Tom's Hardware mag legit sein...aber es gibt nicht nur verschiedene Grafikkarten, sondern auch tausende Monitore und dutzende bis hunderte Auflösungs und Wiederholrate Kombinationen und viele haben 1-4 teils verschiedene Monitore.
Das alles zu testen ist kaum möglich und das ist ja das große Problem an der Geschichte.
Es wird NIE eine 100%ige Lösung für jeden geben.
Richtig und genau deshalb können auch Nvidia Karten betroffen sein genauso wie Intel Arc. Es ist eben kein AMD only Problem.
Höherer Verbrauch unter Last, FSR wesentlich schlechtere Qualität als DLSS, ewiges Warten auf Features wie FSR2/3, Raytracing meilenweit hinten bei Performance und Features..

Und das sind nur die Sachen, wo ich sicher bin. Keine Ahnung wie es mittlerweile mit der Konkurrenz zu NVENC aussieht oder Performance von Early-Access/Nischentiteln/Simulatoren/Mods. Auch da war AMD lange Zeit abgeschlagen.
Wesentlich schlechter und Meilenweit sind halt schon beabsichtigte Übertreibungen.

Man hat Stand heute Upscaling, eine Frame Gen, ab Anfang 24 als Alleinstellungsmerkmal eine Frame Gen via Treiber für alle DX11/12 Games. (die aber bereits nutzbar ist in einem Vorschau Treiber) Die schlechtere Bildqualität von FSR3 oder 2.2 Upscaling fällt nur im direkten Vergleich auf und auf Standbildern.

Zudem kommt es sehr darauf an ob und wie gut die Devs FSR implementiert und optimiert haben.

Man siehe in Avatar Frontiers of Pandora gibt es optisch keinerlei nennenswerte Unterschiede. Die Optische Qualität der Frame Gen liegt sowieso auf einem Level.

Idle Verbrauch wurde optimiert und für Stromsparen unter Last hat man jetzt das One Klick HYPR-RX ECO Profil eingeführt mit dem 23.12.1. Zu dem gibt es im Treiber schon länger one klick Auto Undervolting für Leute die sich das nicht trauen.
Zudem bietet die Adrenalin Software deutlich mehr Treiber Features von Haus aus, wofür man bei Nvidia den MSI Afterburner und Geforce Experience extra noch braucht.

Die nativ schlechtere RT Leistung ist nur in Singleplayer Games relevant, weil RT im Multiplayer Bereich obsolet ist und wie Nvidia nutzt man dann eben Upscaling und Frame Gen um fehlende Leistung zu kompensieren.
Auch Frame Gen ist im Multiplayer wegen der höheren Latenz obsolet.

Zudem gilt das schnellere RT nur für die Oberklasse.

Eine 7700XT ist in RT genauso schnell wie die 4060 Ti egal ob 8 oder 16 GB Variante lt. Computerbase.

Ja, Ada lovelace is effizienter aber eben auch teurer in der Anschaffung. Bis sich dies amortisiert im Vergleich zum besseren P/L von AMDs Lineup direkt beim Kauf vergeht einiges an Spielzeit.

Weiterer AMD Vorteil, mehr Vram.
Nvidia hat das etwas bessere Speichermanagement. Das macht laut PCGH aber 0,5-1,0 GB aus wenn. Und ist der Speicher voll bricht die Leistung ein auch mit besserern Speichermanagement.

Mit RX7000 hat man den H264/65 Encoder ebenfalls deutlich verbessert. Hierzu gibt es viele YT Videos. Zudem hat RX7000 auch AV1 Support. Weil AV1 ein übergreifender Encoder Standard ist nutzen hier alle den Gleichen.

AMD bietet wie Nvidia in Broadcast eine AI Noise Cancellation Funktion.

Im produkiven Bereich hat man HIP API und ROCm API zu Nvidias Cuda etabliert, man kann mit dem HIPIFY Tool Cuda Programme und Code nativ auf Radeon GPUs ausführen usw. nun auch unter Windows und mit Customer GPUs.
Einzig mit OptiX hat Nvidia hier noch einen Pluspunkt.

Alles in Allem sehe ich nicht so viele tatsächliche Punkte. Natürlich ist RTX4000 sehr gut ab einer 4070 und bietet eigene Vorteile aber auch Ada ist nicht frei von Kritik und RDNA3 nicht so schlecht wie es Mancher macht, wenn man sich mal die Mühe macht die Details zu betrachten.

Ich persönlich spiele zudem schon lange Escape From Tarkov oder Star Citizen als Nische und Alpha bzw. Beta Games. Hier kann ich die gemachten Aussagen auch nicht nachvollziehen.
 
Zuletzt bearbeitet:
Eine 4060 verbraucht bis heute 52 W im Idle bei Multimonitor und das seit Release wo Tester das festgestellt haben.

Das gesamte ARC Lineup von Intel hat einen hohen Idle Verbrauch seit Release bis heute.

Das Ganze ist kein AMD only Problem. Das ist ein Trugschluss.
Der Unterschied ist: Intel ist ziemlich neu dabei, da kann man noch einiges verzeihen. AMD hat das Idle-Problem mindestens seit der HD4770, das werden jetzt 15 Jahre in denen sies nicht gebacken bekommen.
Natürlich gibt es zigtausende Kombinationen von Monitoren die man anschließen könnte und klar ist da auch mal was dabei, wo NVidia auf 50W hochgeht ums hinzukriegen. Nur ist das da die Ausnahme und nicht die Regel - und es sind mal 40-50W wenns blöd kommt, keine 100.

Die Sache kann man versuchen schönzureden aber es funktioniert nicht. Wer mehrere Jahrzehnte Grafikkarten herstellt und immer noch solche Basics nicht hinkriegt wie beispielsweise vRAM runterzutakten wenn keine 3D-Last anliegt muss damit leben, dass es kritisiert wird. Denn an der Stelle so große probleme über so lange Zeit zu haben ist nunmal AMD only.
 
Ja, Ada lovelace is effizienter aber eben auch teurer in der Anschaffung. Bis sich dies amortisiert im Vergleich zum besseren P/L von AMDs Lineup direkt beim Kauf vergeht einiges an Spielzeit.
Genau. Und die Spielzeit sammelt jeder. Deswegen kauft man eine GPU. Wenn man den Verbrauch auf 2-3 Jahre dazurechnet kosten die Mittelklasse-Karten beider Lager dasselbe. Und dann wird es schon extrem eng für AMD.

Ich hab auch keinen Bock von Nvidia abgezockt zu werden (weswegen ich auch schon länger nicht aufgerüstet habe, warte auf Intel). Aber AMD macht es mir nicht leicht mit ähnlich horrenden Preisen wie Nvidia, obwohl fast in jeder Disziplin abgeschlagen.

Zum Thema der Qualitätsunterschied FSR vs DLSS fällt nur im direkten Vergleich auf.. Das ist natürlich subjektiv und ändert gar nichts. Der Unterschied ist enorm, das ist Fakt, und Upscaling ist mittlerweile enorm wichtig. Es ist bei neueren Games die Standardeinstellung. Nur alleine wegen diesem einen Thema ist AMD beim Gaming für mich momentan schlicht nicht konkurrenzfähig. Und es ist ja nicht nur der Ist-Zustand. AMD hat ein Jahr lang an FSR3 gewerkelt und die Qualität nicht verbessert, und es gibt keinen Grund zu glauben, dass da demnächst irgendwas kommen wird.
 
Für eine Generation die Energiesparen will, ist das nicht wenig.
Wenn nur 1% der AMD Nutzer betroffen ist, sind es trotzdem locker 5MW/h pro Jahr. Damit könnte ein Cybertruck fast 500 mal um die Erde fahren.
Eine Generation die Energiesparen will betreibt keine 3-4 Monitore zum Spaß. Und kauft sich highend Hardware wo mal gerne die gpu 300watt verbraucht. Alleine der Stromverbrauch der Monitore selbst ist absolute energieverschwendung und die wenigstens schalten diese nur ein wenn sie gebraucht werden.

Wer am Computer wirklich arbeiten muss und 3 Monitore benötigt wird es wohl hinkriegen sich im Vorfeld zu informieren wenn es ihn interessiert. Es gibt genug Möglichkeiten. Die einfachste ist z.b. eine igpu. Oder eine zusätzlich kleine gpu. Wo 3 der 4 Monitore dranhängen.

Bei den meissten ist es das haben wollen und nicht das brauchen. Bei einer Generation die zum Energie/Resourcen sparen neigt sollte das brauchen eher im Vordergrund stehen als das Haben wollen. Oder ein Gesunde Mischung.
Intel ist ziemlich neu dabei, da kann man noch einiges verzeihen
Nein. Intel vertreibt seid langer, langer Zeit igpus. Nur war bei der Entwicklung Energiesparen keine Priorität. Sie haben auch misst gebaut, als ich erfahren hatte wer da das Zepter in der Hand hatte, war klar das dass ein Halbgares Produkt wird.

Sicher, bei AMD stand Energieeffizienz auch nicht auf der Tagesordnung im Idle , semi idle betrieb, hier hieß es eher Anschluss an Nvidia halten.

Auch Nvidia ist im multimonitor betrieb nicht ideal, die rtx 3000er konnten dort auch genug Energie verbraten.

Du kannst aber auch sehen das AMDs chiplet Design im Grund betrieb immer etwas mehr Energie braucht als Monolith Chip Design. Das sieht man an der CPUs wie auch jetzt besonders an den GPUs. Wenn nicht alles stimmt.
 
Zuletzt bearbeitet:
Schönen Gruß an den AG: Der hat sie nicht alle! Oder ist das am Ende so ein China-Farmer Unternehmen, wo die Mitarbeiter den ganzen Tag Gold farmen in MMO Spielen?
 
Stell dir schnell einen weg. Wenn der AG dann in 5 Jahren die Hardware tauscht, kannst du den günstig abgreifen. Musst ihn nur wegstellen in eine dunkle Ecke, wo er nie benutzt und gefunden wird. :lol:

Und welche Grafikkarten sind in den Rechnern? AMD APU? Intel GA4000? xD

5120x1440 sind keine 5K. Das ist ein halber 5K Bildschirm.
 
Zuletzt bearbeitet:
Der Unterschied ist: Intel ist ziemlich neu dabei, da kann man noch einiges verzeihen. AMD hat das Idle-Problem mindestens seit der HD4770, das werden jetzt 15 Jahre in denen sies nicht gebacken bekommen.
Natürlich gibt es zigtausende Kombinationen von Monitoren die man anschließen könnte und klar ist da auch mal was dabei, wo NVidia auf 50W hochgeht ums hinzukriegen. Nur ist das da die Ausnahme und nicht die Regel - und es sind mal 40-50W wenns blöd kommt, keine 100.

Die Sache kann man versuchen schönzureden aber es funktioniert nicht. Wer mehrere Jahrzehnte Grafikkarten herstellt und immer noch solche Basics nicht hinkriegt wie beispielsweise vRAM runterzutakten wenn keine 3D-Last anliegt muss damit leben, dass es kritisiert wird. Denn an der Stelle so große probleme über so lange Zeit zu haben ist nunmal AMD only.
Das hat nichts mit schönreden zu tun eher das es Viele überdramatisiert und aufgebauschen (absgesehen von RDNA3 wo es die Probleme tatsächlich gab) damit man irgendein Argument gegen AMD hat. Und natürlich wird bei Intel und Nvidia das ganze relativiert. ^^ Aber ja, so sind die Hersteller Liebhaber. Und ja, die gibt es auch bei/für AMD. Leider. Ich bin da mehr für Tatsachen. Und das das Problem seit mehreren Jahrzehnten besteht und die Aussage impliziert es hätte jede Generation betroffen sind einfach Fake News. Das ist bereits technisch mehr als unwahrscheinlich, denn es sind seit der hd4770 zig verschiedene komplett unterschiedliche Architekturen.
AMD hat ein Jahr lang an FSR3 gewerkelt und die Qualität nicht verbessert, und es gibt keinen Grund zu glauben, dass da demnächst irgendwas kommen wird.
AMD hat Upscaling von FSR3 zu 2 verbessert. Das geben sie auch so an. Auch das FSR4 in Entwicklung ist dazu gibt es bereits Infos der bekannten Leaker.
Es ist bei neueren Games die Standardeinstellung. Nur alleine wegen diesem einen Thema ist AMD beim Gaming für mich momentan schlicht nicht konkurrenzfähig.
In Multiplayer Games sind DLSS, FG und auch RT sicherlich auf längere Zeit keine Standard oder ich nenne es eher Zwang.
In Multiplayer Games gerade in kompeditiven, schneller Shootern sind Nvidias Features obsolet und werden oft nicht mal implementiert.
 
Zuletzt bearbeitet:
Ich habe es bei meiner RX 7600 getestet: Sobald ich am 1440p Monitor oder im Treiber von 60 auf 120 oder 144 Hz schalte (FreeSync Premium) , geht der Idle-Verbrauch von 4 bis 8 auf 18 Watt hoch. Die RTX 3060 braucht in diesem Szenario 7 bis 11 Watt.
 
Zurück