News Radeon RX 7900 XT(X): Neues Treiber-Update reduziert teilweise hohen Stromverbrauch

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7900 XT(X): Neues Treiber-Update reduziert teilweise hohen Stromverbrauch

Mit dem zweiten Radeon-Treiber für die RX 7900 XT(X) behebt AMD zumindest einen Teil der Probleme mit zu hoher Leistungsaufnahme.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 7900 XT(X): Neues Treiber-Update reduziert teilweise hohen Stromverbrauch
 
Es soll reichen wenn der secondäre Moni mit 60Hz läuft.
Dann kann der primäre Moni auf 144Hz bleiben.

Mit CRU das Blanking ändern, geht momentan net bei den 7000ern.
(erlaubt AMD net, warum auch immer)
 
Hier mal HWInfo dazu:
Anmerkung 2022-12-22 120208.png
 
Es soll reichen wenn der secondäre Moni mit 60Hz läuft.
Dann kann der primäre Moni auf 144Hz bleiben.

Ich habe es so verstanden, dass der unverhältnismäßig hohe Verbrauch auftritt, sobald ein Monitor 100+Hz hat, egal ob andere Monitor angeschlossen sind.

Ich kann für mein 2-Monitor(144Hz) Setup schonmal bestätigen, dass die Einsparungen vorhanden sind.. bin von 100W auf ~50W runter... bei weniger Hz sogar noch weniger ...~25W bei 60Hz....
Ein Anfang... mal sehen was noch kommt...

Ist das im Idle oder bei YT Wiedergabe?
 
fällt sowas nicht während der Entwicklung auf? ging die Entwicklung etwa erst vor 2 Monaten oder 2 Jahren los?

wie unfähig kann AMD noch sein.
Natürlich weiß AMD das, es interessiert sie aber nicht.
Warum sollte es sie auch, interessiert die Käufer ja auch nicht.
Die meisten Reviews messen das überhaupt nicht - und wenn doch begreifen die Käufer nicht, was es bedeutet.
Daher liest man auch überall, die 7900XTX wäre billiger als die 4080. Was - bei aktuellen Verbräuchen - nicht wirklich stimmt, da man pro Jahr locker 50-100 Euro an Stromkosten mehr hat.
Damit kostet die 7900XTX über den Nutzungszeitraum eher mehr als die 4080.
Glücklicherweise sind die meisten Käufer aber kurzsichtig, so dass das keinen juckt.

Warum sollte AMD also begrenzte Ressourcen rein stecken?
 
Ja, was AMD bei Release da abliefert ist wirklich eine Frechheit!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Natürlich weiß AMD das, es interessiert sie aber nicht.
Warum sollte es sie auch, interessiert die Käufer ja auch nicht.
Die meisten Reviews messen das überhaupt nicht - und wenn doch begreifen die Käufer nicht, was es bedeutet.
Daher liest man auch überall, die 7900XTX wäre billiger als die 4080. Was - bei aktuellen Verbräuchen - nicht wirklich stimmt, da man pro Jahr locker 50-100 Euro an Stromkosten mehr hat.
Damit kostet die 7900XTX über den Nutzungszeitraum eher mehr als die 4080.
Glücklicherweise sind die meisten Käufer aber kurzsichtig, so dass das keinen juckt.

Warum sollte AMD also begrenzte Ressourcen rein stecken?
Das rechnest du mir aber jetzt mal bitte aus wie du auf 50 bis 100 Euro mehr Stromverbrauch im Jahr kommst..
Vor allem nach dem Update... Und der Stromverbrauch wird weitersinken...
Gehen wir jetzt mal von 50 Watt idl aus, nach dem Update..
20 bei Nvidia...
Sind 30 Watt...
Bei maximal 40 Cent pro Kwh

Ich komme da bei 10h am Tag pro Tag auf max 13 Cent....
 
Das rechnest du mir aber jetzt mal bitte aus wie du auf 50 bis 100 Euro mehr Stromverbrauch im Jahr kommst..
10 Stunden PC an täglich, davon mindestens 8 Stunden "2D-Last", sprich Videos usw. wo die Karte 60W statt 25 braucht (wie ne NV-Karte)
8h x 365d x (60W-25W) = 102200 Wh = 102,2 kWh

Arbeitspreis 40 cent/kWh --> ca. 40€ pro Jahr.

Das variiert natürlich stark mit Nutzungszeit und Nutzungsart des betroffenen PCs - aber bei mir wären das tatsächlich 40+€ Strom im Jahr mehr nur wegen des Idleverbrauches beim Video abspielen.
Wenn dann der Bug noch existiert wo alleine ein 144Hz-TFT einen Idleverbrauch von 100W erzeugt biste auch schnell bei 100€ im Jahr mehr - zumindest in Deutschland wo dank grandios bescheuerter Energiepolitik der Strom das vierfache kostet wie im rest der Welt (da interessiert das alles wirklich niemanden).

Wenn ich mir da die Nutzungszeit einer Grafikkarte ansehe (4-5 Jahre sinds mittlerweile bei mir) dann sind das 250-500€ Unterschied je nach Rechnung. Da überlegste dir dann schon ob du ne 7900XTX oder ne RTX4080 nimmst.
 
10 Stunden PC an täglich, davon mindestens 8 Stunden "2D-Last", sprich Videos usw. wo die Karte 60W statt 25 braucht (wie ne NV-Karte)
8h x 365d x (60W-25W) = 102200 Wh = 102,2 kWh

Arbeitspreis 40 cent/kWh --> ca. 40€ pro Jahr.

Das variiert natürlich stark mit Nutzungszeit und Nutzungsart des betroffenen PCs - aber bei mir wären das tatsächlich 40+€ Strom im Jahr mehr nur wegen des Idleverbrauches beim Video abspielen.
Wenn dann der Bug noch existiert wo alleine ein 144Hz-TFT einen Idleverbrauch von 100W erzeugt biste auch schnell bei 100€ im Jahr mehr - zumindest in Deutschland wo dank grandios bescheuerter Energiepolitik der Strom das vierfache kostet wie im rest der Welt (da interessiert das alles wirklich niemanden).

Wenn ich mir da die Nutzungszeit einer Grafikkarte ansehe (4-5 Jahre sinds mittlerweile bei mir) dann sind das 250-500€ Unterschied je nach Rechnung. Da überlegste dir dann schon ob du ne 7900XTX oder ne RTX4080 nimmst.
Die ursprüngliche Aussage war 50 bis 100 Euro im Jahr...
Z.b bei mir ich lass desän maximal 2h am tag zum zockn laufen
Rest sparrsames Notebook..

Ich kann weder die Kosten nachvollziehen noch das verallgemeinern das jeder drauf zahlt
 
Ich kann für mein 2-Monitor(144Hz) Setup schonmal bestätigen, dass die Einsparungen vorhanden sind.. bin von 100W auf ~50W runter... bei weniger Hz sogar noch weniger ...~25W bei 60Hz....
Ein Anfang... mal sehen was noch kommt...
Das sind ja schon fast vertretbare Werte...
Warum zum Geier AMD sowas nicht zum Launch gebacken bekommt, lässt meine Stirn ordentlich falten schlagen. Gut, dass zahlreiche Reviews auf die Problematik eingegangen sind, sollte bei AMD vllt. mal ein paar Dudes zum Aufwachen bewegen.
 
@perupp
Also ich rechne mal so:

Strompreis 60ct/Kwh
Mehrverbrauch 7900XT(X): 30W
Betriebszeit: 10h/365d -> 3650h
30W -> 0.03Kw ->0.03Kw*10h -> 0.3Kwh -> 0.3Kwh * 3650h -> 1095Kwh -> 1095Kwh * 0,6ct ->65,70€ p.a.

So, wer hat denn einen solchen Rechner 365 Tage 10 pro Tag im Desktop idle?
Wer hat denn den Rechner überhaupt 10h am Tag an?
Wer den Rechner produktiv nutz sollte mal über das Thema Steuerberater nachdenken!
Wenn man mal über den "normalen" Nutzer spricht und mal im Schnitt 4 Stunden am Tag, an sagen wir mal 280 Tagen ansetzt... und den Strompreis bei aktuell 48,8ct bei mir ansetzt...
Da sollte man vielleicht über ein anderes Hobby nachdenken! Briefmarken sammeln?! Panini Fußballsammelkarten?

Klar hat AMD da noch Hausaufgaben, Patchnotes im Treiber lesen hilft manchmal...

Frage in die Runde, welches Produkt der letzten 3...4 Jahre von Intel, nVidia, AMD war denn am releaseday so ausgereift wie hier tw. gepoltert wird?

Ich packe euch die Liste in den Spoiler, damit es übersichtlich bleibt!

:ugly:
 
Gut, dass zahlreiche Reviews auf die Problematik eingegangen sind, sollte bei AMD vllt. mal ein paar Dudes zum Aufwachen bewegen.
Vergiss es. Das Problem hat AMD seit 15 Jahren und bis auf solche wirklich harten Bugs wo 100W ins Nichts verschwinden hat sich daran bisher nichts geändert.
Das ganze Energieverbrauchsthema ist halt für nicht-Deutsche nur ein sehr niedrigpriores Beiwerk. Wie gesagt, den Rest der Welt interessiert es (leider) nicht ob eine Grafikkarte beim nichtstun 20, 40 oder 80W säuft. :ka:

rage in die Runde, welches Produkt der letzten 3...4 Jahre von Intel, nVidia, AMD war denn am releaseday so ausgereift wie hier tw. gepoltert wird?
Welches technische Problem hat denn beispielsweise eine RTX4080?
Hint: Der viel zu hohe Preis ist nicht technisch (und nein, bei 4080ern brennen auch keine falsch eingesteckten Stromanschlüsse ab)
 
Zurück