News Radeon RX 7900 XT(X): Neues Treiber-Update reduziert teilweise hohen Stromverbrauch

Das sind ja schon fast vertretbare Werte...
Warum zum Geier AMD sowas nicht zum Launch gebacken bekommt, lässt meine Stirn ordentlich falten schlagen. Gut, dass zahlreiche Reviews auf die Problematik eingegangen sind, sollte bei AMD vllt. mal ein paar Dudes zum Aufwachen bewegen.

Weil es immer das Gleiche ist... zum Release läuft nix! nirgends! und bei niemandem! Mal hat der Eine einen größeren Bock drin... mal der Andere....
 
Schon interessant wie hier gegen AMD gehaun wird gegen deren Idle Verbrauch, während das bei Nvidia so toll sein soll. Meine 2080 Ti säuft auch 45 Watt mehr im Idle laut meinem Strommessgerät sobald ich die Hertz Anzahl von 60 auf 144 drehe. Neuster Treiber ist drauf. Dass das also ein alleiniges Problem von AMD wäre kann ich nicht nachvollziehen und wenn das jetzt mit der 4000er Reihe besser geworden ist, schön für Nvidia, hab aber momentan keiner der neusten Karten, wäre also im Zweifel nett wenn hier auch mal per Treiber für ältere Modelle nachgebessert wird.
 
Welches technische Problem hat denn beispielsweise eine RTX4080?
Hint: Der viel zu hohe Preis ist nicht technisch (und nein, bei 4080ern brennen auch keine falsch eingesteckten Stromanschlüsse ab)

Das sind Äpfel mit Birnen, und das weisst du auch... Wie lief es mit der 4090 9 Tage nach Release, wäre der richtige Ansatz für den Vergleich, denn wir sprechen ja mal hier über den jeweiligen Stand einer neuen Gen. im Zeitraum nach dem Release.....

Wenn ich mich an RTX3xxx zurück erinnere, verstehe ich den Dreck den man jetzt nach AMD wirft noch weniger....

Sorry...
 
Zuletzt bearbeitet:
fällt sowas nicht während der Entwicklung auf? ging die Entwicklung etwa erst vor 2 Monaten oder 2 Jahren los?

wie unfähig kann AMD noch sein.
Ja natürlich fällt dies AMD auf, nein dies hat nichts mit Unfähigkeit zu tun.
Es wird jedoch als wichtiger angesehen, dass man die Karten herausbringt beziehungsweise kaufen kann, denn AMD Aktionäre wie auch Partnerkartenhersteller warten auf den Verkaufstag.
Die Leistungsaufnahme in bestimmten Punkten ist kein primäres Problem was die Funktionalität beeinträchtigt, da man es via Treiber lösen kann, was AMD natürlich auch tun wird.
Hardware bedingte Probleme halte ich für wesentlich relevanter und Problematischer, wie das schmelzen des Stromkabels der 4090 oder das Vram Desaster der 970.
 
Natürlich weiß AMD das, es interessiert sie aber nicht.
Warum sollte es sie auch, interessiert die Käufer ja auch nicht.
Die meisten Reviews messen das überhaupt nicht - und wenn doch begreifen die Käufer nicht, was es bedeutet.
Daher liest man auch überall, die 7900XTX wäre billiger als die 4080. Was - bei aktuellen Verbräuchen - nicht wirklich stimmt, da man pro Jahr locker 50-100 Euro an Stromkosten mehr hat.
Damit kostet die 7900XTX über den Nutzungszeitraum eher mehr als die 4080.
Glücklicherweise sind die meisten Käufer aber kurzsichtig, so dass das keinen juckt.

Warum sollte AMD also begrenzte Ressourcen rein stecken?

Selbst bei 40 cent pro kWh sind es bei 40 Watt mehr (so war es vor dem Update) ca. 35 Euro im Jahr mehr (6 Stunden jeden Tag)
Also mal nicht übertreiben...
Dauert also schon noch nen bissel länger bis sich die 4080 "armotisiert" hat. Als Nvidia mehr Verbrauch hatte war es doch auch kein Problem :P
Jetzt wird es das wieder anscheinend...
Aussderm ist es ja jetzt schon auf ein vernünftiges maß gefixt worden. Von 68w ging es bei mir auf 41w (4080 ist bei 30w) runter. Also wirds wohl keinen Einfluss mehr haben bei den Käufern und sind dann auch nur nur noch 8 Euro im Jahr...

Im HDR Youtube Modus müssten jetzt beide gleichauf sein
 
Die ursprüngliche Aussage war 50 bis 100 Euro im Jahr...
Z.b bei mir ich lass desän maximal 2h am tag zum zockn laufen
Rest sparrsames Notebook..

Ich kann weder die Kosten nachvollziehen noch das verallgemeinern das jeder drauf zahlt
Vorallem wag ich zu bezweifeln das wir hier von realen 8h täglich (365) sprechen. Vlt. gewerblich... aber da würde man vermutlich keine 7900XTX verweden.

Der Preisunterschied von 281Euro (Preis Foundersedition (1399€) und Ref. Karte AMD (1118€))
entspricht ja je nach kWh Preisen die man zahlt:

936,66 kWh 30Cent
702,50 kWh 40Cent
562,00 kWh 50Cent

Da wären aktuell, bei 40 Cent die kWh, 7 Jahre bei 102kWh p.A. bis man den Preis der 4080X erreicht hat und die Karte ist ja auch nicht langsamer ...
 
Zuletzt bearbeitet:
Schon seltsam, insbesondere da AMD doch die ganze Zeit mit „Energieeffizienz“ geworben hatte….
Bashing lausig rübergebracht Nachsitzen 6 setzen.

Abgesehen davon bezieht sich da die Energieeffizenz im Regelfall auf Lastscenarien wie sie in Games oder Benchmarks auftreten. So hoher Idle und Videoverbrauch ist aber in jedem Fall recht ärgerlich und eigentlich auch unnötig. Aber aktueller Stand es wurde Treiberseitig schon ein gutes Stückchen nachgebessert. Etwas später ist zwar noch immer besser wie nie gefixt. Aber am besten wärs es bräucht erst gar kein Fix.
 
Zuletzt bearbeitet:
Vergiss es. Das Problem hat AMD seit 15 Jahren und bis auf solche wirklich harten Bugs wo 100W ins Nichts verschwinden hat sich daran bisher nichts geändert.
Die 6000er Gen war grandios sparsam im Idle, da hat meine keine 10 Watt gebraucht. Dagegen waren die Ampere richtig gefräßig mit teils 30 Watt.

Hinzu kommt das die NV Karten bei gleichen Fps immer einen höheren CPU Stromverbrauch erzeugen durch den Treiber, da kannst auch schnell mal 15-30Watt drauf rechnen.
 
und die Karte ist ja auch nicht langsamer ...

DAS hättest du nicht sagen dürfen! :ugly: Das wirst du noch bereuen!!! :lol:


Ja, aber RT!? :fresse:
Die 6000er Gen war grandios sparsam im Idle, da hat meine keine 10 Watt gebraucht. Dagegen waren die Ampere richtig gefräßig mit teils 30 Watt.

Hinzu kommt das die NV Karten bei gleichen Fps immer einen höheren CPU Stromverbrauch erzeugen durch den Treiber, da kannst auch schnell mal 15-30Watt drauf rechnen.


Noch so ein Verschwörungsmystiker !!! :ugly:

So, ich geh lieber zocken... zu lange PC im idle führt zu Verarmung & Privatinsolvenz durch Stromrechnung!
 
Jaja, AMD vergeudet Strom während Nvidia das im Griff hat... alles klar
 

Anhänge

  • 60Hz.jpg
    60Hz.jpg
    1,7 MB · Aufrufe: 208
  • 144Hz.jpg
    144Hz.jpg
    1,6 MB · Aufrufe: 202
Das rechnest du mir aber jetzt mal bitte aus wie du auf 50 bis 100 Euro mehr Stromverbrauch im Jahr kommst..
Vor allem nach dem Update... Und der Stromverbrauch wird weitersinken...
Gehen wir jetzt mal von 50 Watt idl aus, nach dem Update..
20 bei Nvidia...
Sind 30 Watt...
Bei maximal 40 Cent pro Kwh

Ich komme da bei 10h am Tag pro Tag auf max 13 Cent....
Bei der herangehensweise passt so vieles nicht, da weiß ich gar nicht wo ich anfangen soll.

Zunächst mal haben wohl 80% aller Haushalte eine verdopplung des Strompreises zum 1.1.23. Bei uns ging der Strom von 29 auf 57 cent hoch pro kw/h. Ich kenne Leute da ists noch höher. Ein hoch auf den mit der Solaranlage da mag das anders aussehen aber für die normalsterblichen ohne Silizium auf dem Dach ists nunmal vorerst so. Und ja die Strompreisbremse ist mir bekannt, macht das Ganze aber auch nicht wirklich besser da "nur" 80% des Verbrauchs aus 2022 zu 40 cent abgerechnet wird und der rest zum Marktpreis, der vereinzelt auch mal den Euro durchschlagen hat an der Strombörse. Heute gemittelt zwischen früh und Mittagswert lagen wir da bei ca. 52,5 cent und das ist für Dezember schon ein echt niedriger Wert (Quelle wers nachrechnen will https://energy-charts.info/). Die 40 cent sind damit schon mal mehr oder minder hinfällig, Der mittelwert wird am Ende irgendwo bei 45-50 liegen je nachdem was 2023 noch alles passiert vielleicht auch höher.

Mein Rechner läuft pro Woche ca. 43 Stunden in genau diesem Lastbereich (Teillast/Youtube etc) der bemängelt wird...

bei 30 Watt Verbrauch komm ich auf ca. 67 kw/h pro Jahr
macht dann 26,8€ bei 40 cent bzw. rechnet mans nach dem 20%/80% schlüssel 54kw/h zu 40cent und 13 kw/h zu 57 cent (in meinem Fall) macht dann rund 29 Euro pro Jahr

bei 50 Watt Verbrauch komm ich auf ca. 112 kw/h pro Jahr
44,8€ im Jahr bei 40 cent bzw 90kw/h zu 40cent und 22 zu 57 cent macht am Ende 48,54€

bei 100 Watt Verbrauch 224kw/h
89,6€ bei 40cent bzw. 179kw/h zu 40 cent und 35 kw/h zu 57 cent macht am Ende 91,63€

Zumindest die 50Euro unterschied im Jahr sind bei meinem Gebrauch als Unterschied zwischen etwa einer 4080 oder einer der neuen 7900er durchaus realistisch. Hockt man länger dran entsprechend mehr usw.
Laut dem PCGH Test reden wir von ursprünglich ca. 45 Watt unterschied bei einem YT Video, 50-90 Watt für Anno in FHD usw. Steht ja alles im Test der Rest ist Mathe

Also Ja, auch nach dem Update kommt man noch locker auf zumindest 30 Euro Unterschied

Mal so nebenbei, selbst Deine 13 Cent pro Tag sind aufs Jahr gerechnet auch 4745 cent oder auch 47,45€ also auch knapp 50 Euro ;-)

aber mal BTT
Schön das sich AMD schnell drangesetzt hat. Macht mir meine Entscheidung nicht einfacher aber gibt mir am Ende mehr Auswahl
 
@perupp
Also ich rechne mal so:

Strompreis 60ct/Kwh
Mehrverbrauch 7900XT(X): 30W
Betriebszeit: 10h/365d -> 3650h
30W -> 0.03Kw ->0.03Kw*10h -> 0.3Kwh -> 0.3Kwh * 3650h -> 1095Kwh -> 1095Kwh * 0,6ct ->65,70€ p.a.

So, wer hat denn einen solchen Rechner 365 Tage 10 pro Tag im Desktop idle?
Wer hat denn den Rechner überhaupt 10h am Tag an?
Wer den Rechner produktiv nutz sollte mal über das Thema Steuerberater nachdenken!
Wenn man mal über den "normalen" Nutzer spricht und mal im Schnitt 4 Stunden am Tag, an sagen wir mal 280 Tagen ansetzt... und den Strompreis bei aktuell 48,8ct bei mir ansetzt...
Da sollte man vielleicht über ein anderes Hobby nachdenken! Briefmarken sammeln?! Panini Fußballsammelkarten?

Klar hat AMD da noch Hausaufgaben, Patchnotes im Treiber lesen hilft manchmal...

Frage in die Runde, welches Produkt der letzten 3...4 Jahre von Intel, nVidia, AMD war denn am releaseday so ausgereift wie hier tw. gepoltert wird?

Ich packe euch die Liste in den Spoiler, damit es übersichtlich bleibt!

:ugly:
Strompreis 60 Cent?
Äh du weisst schon das es einen Strompreisdeckel gibt.. Wie kommst du auf 60 Cent?
 
Strompreis 60 Cent?
Äh du weisst schon das es einen Strompreisdeckel gibt.. Wie kommst du auf 60 Cent?

1. Ist der Strompreisdeckel nur eine Nebelkerze
2. Habe ich bewusst alles nach "oben" gesetzt, Preis Nutzungsdauer, etc...
3. Der Rechner der bei mir lange pro Tag läuft hat Gesamtleistungsaufnahme ca: 40...45 W!

Kleine NUCkel-Kisten gibt's schon für ne schmale Mark, wer also Sorgen vor dem Strompreis hat...

Ich denke im Übrigen das wir 2023/24 ohnehin die 1,-€ Marke pro Kwh reißen werden, die CO2 Umlage bekommt ja noch die Eine oder Andere Erhöhung....
 
Das sind Äpfel mit Birnen, und das weisst du auch... Wie lief es mit der 4090 9 Tage nach Release, wäre der richtige Ansatz für den Vergleich
Du hast nach irgendeinem Produkt gefragt und ich kann dir spontan eines nennen. Warum ist das ein schlechter Vergleich? Willste andere Produkte? Alle Raptor-Lake CPUs liefen von Tag 1 an wie sie sollten. Die 4090 übrigens auch - den Hype um ne Handvoll geschmorter weil falösch eingesteckter Stecker unter Hunderttausenden Karten kannste in die Tonne kloppen. Und was ist mit anderen Kategorien? Netzteile? SSDs? Bildschirme? Arbeitsspeicher? Ich habe eher Mühe Produkte zu finden die nennenswerte Bugs bei Release haben statt welche die keine haben.

Da gibts nix drumrumzureden, AMD hat eine deutlich höhere "Bugquote" bei neu herausgebrachten Artikeln als die gesamte Konkurrenz - nur Intel ARC kann da momentan mithalten und vorbeiziehen. Grafikkarten mit großen Idleproblemen, CPUs die anfangs mit kaum einem RAM vernünftig liefen. Das soll kein Bashing sein (ich hab ja selbst ein AMD-System - und es wird nahezu sicher wieder ein Intel danach nach all den Erfahrungen die ich mit der X570 Plattform machen durfte), das ist einfach nur die Faktenlage. :ka:

Die 6000er Gen war grandios sparsam im Idle, da hat meine keine 10 Watt gebraucht. Dagegen waren die Ampere richtig gefräßig mit teils 30 Watt.
Stimmt - das Problem daran ist dass das oftmals nur "Hardcore-Idle" ist, also nicht mal die Maus bewegen. Das ist für Serverworkload was wirklich gutes, im normalen Alltag kommen die Karten aber oft praktisch nie da unten an (ist bei NV übrigens auch so, wenn ich die Maus bewege steigt die Leistungsaufnahme der Karte um 5W an...)
Das Thema ist glücklicherweise nicht so schlimm, da wir hier von 8 oder 12 oder 15W reden. Geschenkt. Nur die 60W Video oder 100W bei 144Hz dürfen halt nicht passieren.^^
 
Zurück