News Radeon RX 7900 XT(X): Neues Treiber-Update reduziert teilweise hohen Stromverbrauch

Nachdem ich jetzt mal nen 13700K bestellt habe, steht auch ein Upgrade von meiner 1080ti an. Hatte eigentlich mit einer RX7900XT geliebäugelt, habe aber nun Bedenken, da ich folgende 3 Monitore nutze:
Samsung G7 32 Zoll, 240 Hz
ASUS ROG 278QR mit 165Hz
Benq XL2420Z mit 144 Hz.

Will nicht mehr auf 3 Monitore verzichten, aber mit ner 7900er wird der Stromverbrauch vermutlich ins Unermessliche gehen, oder?
 
So, wer hat denn einen solchen Rechner 365 Tage 10 pro Tag im Desktop idle?
Wer hat denn den Rechner überhaupt 10h am Tag an?
Wer den Rechner produktiv nutz sollte mal über das Thema Steuerberater nachdenken!
Wenn man mal über den "normalen" Nutzer spricht und mal im Schnitt 4 Stunden am Tag, an sagen wir mal 280 Tagen ansetzt... und den Strompreis bei aktuell 48,8ct bei mir ansetzt...
Da sollte man vielleicht über ein anderes Hobby nachdenken! Briefmarken sammeln?! Panini Fußballsammelkarten?
[...]

Selbst bei 40 cent pro kWh sind es bei 40 Watt mehr (so war es vor dem Update) ca. 35 Euro im Jahr mehr (6 Stunden jeden Tag)
Also mal nicht übertreiben...
Dauert also schon noch nen bissel länger bis sich die 4080 "armotisiert" hat. Als Nvidia mehr Verbrauch hatte war es doch auch kein Problem :P
[...]

Aus eigener Erfahrung und auch im Bekanntenkreis:
Viele arbeiten im "mobilen Arbeiten" am eigenen PC.
Das bedeutet schon mal 5 Tage in der Woche min. 9 Stunden täglich läuft die Kiste, wo die Grafikkarte größtenteils nur im Idle läuft. Das ganze mal ~ 47 Wochen im Jahr sind 2115 Stunden.
Bei einem Mehr-Verbrauch von 50 Watt sind das ~106 kWh pro Jahr.
Wenn ich jetzt von einem mittleren Strompreis von 45Cent ausgehe, sind das ~47 Euro pro Jahr.

Eine GTX 4080 startet z.Z bei ~1350 Euro, eine 7800XTX bei ~1270 Euro. Also gerade mal, 80 Euro unterschied.
Somit hätte sich eine GTX 4080 in nicht ganz 21 Monaten amortisiert.

Eine überlegung, ob man dann nicht doch lieber zu einer, ohne Probleme lieferbaren, GTX 4080 greift, ist da durchaus berechtigt.

Was man heute als "Homeoffice" bezeichnet ist meistens "mobiles Arbeiten". Da hilft dir ein Steuerberater rein gar nichts. Absetzten kann man beim mobilen Arbeiten, mit Ausnahme der Corona-Sonderregelung letztes Jahr, rein gar nichts. Dafür müsste es ein offizieller "Telearbeitsplatz" sein.
 
Nachdem ich jetzt mal nen 13700K bestellt habe, steht auch ein Upgrade von meiner 1080ti an. Hatte eigentlich mit einer RX7900XT geliebäugelt, habe aber nun Bedenken, da ich folgende 3 Monitore nutze:
Samsung G7 32 Zoll, 240 Hz
ASUS ROG 278QR mit 165Hz
Benq XL2420Z mit 144 Hz.

Will nicht mehr auf 3 Monitore verzichten, aber mit ner 7900er wird der Stromverbrauch vermutlich ins Unermessliche gehen, oder?

Ja, ich bin bei 2 Monitoren jetzt bei unermesslichen 50W im Desktop
Ich kann für mein 2-Monitor(144Hz) Setup schonmal bestätigen, dass die Einsparungen vorhanden sind.. bin von 100W auf ~50W runter... bei weniger Hz sogar noch weniger ...~25W bei 60Hz....
Ein Anfang... mal sehen was noch kommt...

Wie es dann mit neuen Treibern noch weiter runter geht wird die Zeit zeigen..
Wie sich deine 240Hz, 165Hz und 144Hz auswirken kann ich nicht sagen, aber tendenziell wird der eher höher liegen, Die Frage ist halt ob die die Monitore alle auf der jeweiligen Frequenz benötigts? Auf meinem 2.ten läuft nur Teamspeak, Monitorung, etc.
Aus eigener Erfahrung und auch im Bekanntenkreis:
Viele arbeiten im "mobilen Arbeiten" am eigenen PC.
Das bedeutet schon mal 5 Tage in der Woche min. 9 Stunden täglich läuft die Kiste, wo die Grafikkarte größtenteils nur im Idle läuft. Das ganze mal ~ 47 Wochen im Jahr sind 2115 Stunden.
Bei einem Mehr-Verbrauch von 50 Watt sind das ~106 kWh pro Jahr.
Wenn ich jetzt von einem mittleren Strompreis von 45Cent ausgehe, sind das ~47 Euro pro Jahr.

Eine GTX 4080 startet z.Z bei ~1350 Euro, eine 7800XTX bei ~1270 Euro. Also gerade mal, 80 Euro unterschied.
Somit hätte sich eine GTX 4080 in nicht ganz 21 Monaten amortisiert.

Eine überlegung, ob man dann nicht doch lieber zu einer, ohne Probleme lieferbaren, GTX 4080 greift, ist da durchaus berechtigt.

Was man heute als "Homeoffice" bezeichnet ist meistens "mobiles Arbeiten". Da hilft dir ein Steuerberater rein gar nichts. Absetzten kann man beim mobilen Arbeiten, mit Ausnahme der Corona-Sonderregelung letztes Jahr, rein gar nichts. Dafür müsste es ein offizieller "Telearbeitsplatz" sein.

Wer seinen privaten PC für die Firma nutzt hat die Kontrolle über sein Leben verloren!
Was passiert denn wenn der private PC aus welchen Gründen auch immer während der Arbeit "abraucht" ? Zahlt der Chef den? Dann brennt meiner täglich!
Oder wenn über den privaten PC via VPN ins Firmennetz so ein niedlicher kleiner Verschlüsselungstrojaner seinen Weg findet?

Einfach nur unfassbar!
 
Zuletzt bearbeitet:
Natürlich ist sie langsam fast schon ne Krücke in RT :ka:
Genau so langsam wie diese knapp langsamere Krücke RTX 3090... einfach mist die RT Leistung stimme dir zu!
Die 6000er Gen war grandios sparsam im Idle, da hat meine keine 10 Watt gebraucht. Dagegen waren die Ampere richtig gefräßig mit teils 30 Watt.

Hinzu kommt das die NV Karten bei gleichen Fps immer einen höheren CPU Stromverbrauch erzeugen durch den Treiber, da kannst auch schnell mal 15-30Watt drauf rechnen.
Im vergleich zur direkten Vorgänger Generation ist die 7000er Generation mit der Leistung die sie bringt effizienter und sparsamer.

Nvidia hat nur einfach einen größeren Effizienz schritt gemacht, wobei man ja die 4090 auch wieder in Leistung zum Preis verhältnis setzt, dann ist es gar nicht mal so viel effizienter als AMD. Die Ausnahme ist die 4080.
 
Wer seinen privaten PC für die Firma nutzt hat die Kontrolle über sein Leben verloren!
Was passiert denn wenn der private PC aus welchen Gründen auch immer während der Arbeit "abraucht" oder über den privaten PC über die VPN ins Firmennetz so ein niedlicher kleiner Verschlüsselungstrojaner seinen Weg findet?

Einfach nur unfassbar!
Jap, BYOD mit eigener Hardware Zuhause? Oo
Naja bin gespannt wer am Ende für die Kosten aufkommt :)
 
Genau so langsam wie diese knapp langsamere Krücke RTX 3090... einfach mist die RT Leistung stimme dir zu!

Im vergleich zur direkten Vorgänger Generation ist die 7000er Generation mit der Leistung die sie bringt effizienter und sparsamer.

Nvidia hat nur einfach einen größeren Effizienz schritt gemacht, wobei man ja die 4090 auch wieder in Leistung zum Preis verhältnis setzt, dann ist es gar nicht mal so viel effizienter als AMD. Die Ausnahme ist die 4080.

Jupp, was mit dem Wechsel von der billigeren Samsung-Produktion hin zu TSMC auch absehbar war. NVidia hätte schon designtechnisch Riesenböcke schiessen müssen, um da nicht deutlich besser zu werden.
Helfen tut natürlich auch, dass die 4090 ein grosses Auslastungsproblem hat, und daher Schwierigkeiten ihr Potenzial auf die Strasse zu bringen. Wirkt in dieser Sache wie eine fette Fury X im Standgas. Aber wenn sie mal brachliegendes Potenzial halbwegs auf die Strasse bringt, frisst die Strom zum Frühstück.
 
Jap, BYOD mit eigener Hardware Zuhause? Oo
Naja bin gespannt wer am Ende für die Kosten aufkommt :)
Ja, das schweift vom Thema ab, aber ehrlich wer sich darauf einlässt.... unglaublich.....

In ner Firma wo das so praktiziert wird, wollte ich nicht als Bild an der Wand hängen!

Fendt, Aurubis, Kärcher, Stihl.... was war denn mit denen ? Da wollte ich nicht der sein, der mit seinem privaten USB-Stick oder gar kompletten Rechner rumhantiert oder "mobile-geworked" hat.....

Ich arbeite Seit 2017 im Homeoffice, IT Ausstattung dazu komplett vom AG! USB-ports gesperrt! Keine Möglichkeit, wenn die Firmenkiste grad verreckt wie in 2021 mal eben schnell ne Mail vom privaten PC zu schreiben...

So BTT!
 
Ich finde es zum einen sehr löblich, dass AMD hier nachbessert, auch wenn da noch einiges getan werden muss!

Zum anderen ist es ein Unding, dass dies nicht schon bei Release so war. Ein Bug kann sich immer mal einschleichen, aber der hohe Verbrauch muss auch davor schon aufgefallen sein und dann muss ich meine Karte halt später releasen, wenn ich das nicht direkt im Griff habe...
Aber gut ich hab mir jetzt erstmal günstig ne 6700XT geschossen, die reicht für meine wecke wieder ein paar Jahre.
 
Ich finde es zum einen sehr löblich, dass AMD hier nachbessert, auch wenn da noch einiges getan werden muss!

Zum anderen ist es ein Unding, dass dies nicht schon bei Release so war. Ein Bug kann sich immer mal einschleichen, aber der hohe Verbrauch muss auch davor schon aufgefallen sein und dann muss ich meine Karte halt später releasen, wenn ich das nicht direkt im Griff habe...
Aber gut ich hab mir jetzt erstmal günstig ne 6700XT geschossen, die reicht für meine wecke wieder ein paar Jahre.

Bei Strompreisen von 3...4ct/Kwh hat das nicht so den Stellenwert.... Deutschland ist nicht der Nabel der Welt... Ein Kollege aus den USA hat nen Schlag bekommen, als ich ihm erzählt habe was bei uns der Strom kostet... er zahlt um die 6ct.....

Da wird in Deutschland dann ein Brennglas angesetz auf das Thema und es kocht hoch... Der Rest der EU ist ja auch nur unwesentlich besser...
 
Bei Strompreisen von 3...4ct/Kwh hat das nicht so den Stellenwert.... Deutschland ist nicht der Nabel der Welt... Ein Kollege aus den USA hat nen Schlag bekommen, als ich ihm erzählt habe was bei uns der Strom kostet... er zahlt um die 6ct.....

Das ist mir wohl bekannt, dass der Strom bei den Amis und in anderen Teilen der Welt billig ist. Nur möchte sich ja aktuell auch jeder mit "Green" IT schmücken und da passt das nicht ganz ins Bild.
Für mich persönlich sind die großen Karten nichts, nicht wegen dem Stromverbrauch, sondern wegen der Hitze, das ist zwar im Winter ganz ok, aber im Sommer würde ich eingehen...
Nur sollte halt der Idle Verbrauch so halbwegs ins Bild passen, den meisten die die Leistung brauchen wird es wumpe sein ob die Karte 350 oder 400W säuft, aber für so "0815" Aufgaben wie youtube schauen sollte das nicht sein.
Vor allem bei Epyc schmücken sie sich ja damit effizient zu sein, dann doch auch bitte hier :)
 
Schon interessant, an welchen Themen sich einige hier hochgeilen. Meine Meinung: so lange 300-400W beim Spielen Standard bleiben, haben normale Spieler wohl eher andere Stromkostenprobleme. Ich lasse zumindest meine Zockerkiste nicht sinnbefreit 10h/Tag im Idle rumwursten. Dafür habe ich nen Arbeits-Mini, andere nen Laptop, oder hat sich die Definition eines Zockers mittlerweile in "10h/Tag <NICHT>-Zocken" verändert?
_____
Topic: finde es gut, dass an den Treibern gearbeitet wird. Nun darf Intel beim Thema entsprechend auch gerne mit machen :cool:
 
Aus eigener Erfahrung und auch im Bekanntenkreis:
Viele arbeiten im "mobilen Arbeiten" am eigenen PC.
Das bedeutet schon mal 5 Tage in der Woche min. 9 Stunden täglich läuft die Kiste, wo die Grafikkarte größtenteils nur im Idle läuft.
Dafür würde ich mir auf sicher einen kleinen Mini PC hinstellen. 15 bis 35W je nach CPU und meist wird ingesamt nicht mehr als 45-60W aus der Dose gesaugt. Wer täglich 8-9h einen fetten Gaming PC für Office und ähnlich anspruchslose Aufgaben missbraucht der macht da in meinen Augen schon mal etwas grundlegendes falsch.

Ich hab einen Dell Mini PC der mit einem Core I3 10105T & 16GB Ram max. 45W verbraucht. Trotzdem wischt der kleine verbrauchs und leistungsmässig bei Office Multimedia und grafisch anspruchslosen Aufgaben mit seinem I7 3770 Vorgänger ganz locker den Fussboden. Für Gaming ist er logischerweise nicht wirklich geeignet dafür ist so ein Mini PC aber aucht nicht gedacht.

Hab in gebraucht für 220€ bekommen.
 
Zuletzt bearbeitet:
Bei Strompreisen von 3...4ct/Kwh hat das nicht so den Stellenwert.... Deutschland ist nicht der Nabel der Welt... Ein Kollege aus den USA hat nen Schlag bekommen, als ich ihm erzählt habe was bei uns der Strom kostet... er zahlt um die 6ct.....

Auch in AT ists nicht so schlimm, meine Kosten für Strom haben sich im Juli um ca. 80% von 10,xx ct je KW/h auf 17,65 ct je KW/h erhöht. (Linz AG).
 
Gebs mal auf Google ein! ;)

Kleines Beispiel mal nur für dich:
AMD-Manager sprechen darin "über die neue hochleistungsfähige, energieeffiziente AMD RDNA-3-Architektur, die für Spieler und Content-Creator deutlich mehr Leistung, Effizienz und Funktionalität bietet"
Hab ich! Google sagt:

1671725586858.png


Versprechen gehalten. Nvidia macht´s halt "noch" etwas besser. Das ist alles.
 
Bei der herangehensweise passt so vieles nicht, da weiß ich gar nicht wo ich anfangen soll.

Zunächst mal haben wohl 80% aller Haushalte eine verdopplung des Strompreises zum 1.1.23. Bei uns ging der Strom von 29 auf 57 cent hoch pro kw/h. Ich kenne Leute da ists noch höher. Ein hoch auf den mit der Solaranlage da mag das anders aussehen aber für die normalsterblichen ohne Silizium auf dem Dach ists nunmal vorerst so. Und ja die Strompreisbremse ist mir bekannt, macht das Ganze aber auch nicht wirklich besser da "nur" 80% des Verbrauchs aus 2022 zu 40 cent abgerechnet wird und der rest zum Marktpreis, der vereinzelt auch mal den Euro durchschlagen hat an der Strombörse. Heute gemittelt zwischen früh und Mittagswert lagen wir da bei ca. 52,5 cent und das ist für Dezember schon ein echt niedriger Wert (Quelle wers nachrechnen will https://energy-charts.info/). Die 40 cent sind damit schon mal mehr oder minder hinfällig, Der mittelwert wird am Ende irgendwo bei 45-50 liegen je nachdem was 2023 noch alles passiert vielleicht auch höher.

Mein Rechner läuft pro Woche ca. 43 Stunden in genau diesem Lastbereich (Teillast/Youtube etc) der bemängelt wird...

bei 30 Watt Verbrauch komm ich auf ca. 67 kw/h pro Jahr
macht dann 26,8€ bei 40 cent bzw. rechnet mans nach dem 20%/80% schlüssel 54kw/h zu 40cent und 13 kw/h zu 57 cent (in meinem Fall) macht dann rund 29 Euro pro Jahr

bei 50 Watt Verbrauch komm ich auf ca. 112 kw/h pro Jahr
44,8€ im Jahr bei 40 cent bzw 90kw/h zu 40cent und 22 zu 57 cent macht am Ende 48,54€

bei 100 Watt Verbrauch 224kw/h
89,6€ bei 40cent bzw. 179kw/h zu 40 cent und 35 kw/h zu 57 cent macht am Ende 91,63€

Zumindest die 50Euro unterschied im Jahr sind bei meinem Gebrauch als Unterschied zwischen etwa einer 4080 oder einer der neuen 7900er durchaus realistisch. Hockt man länger dran entsprechend mehr usw.
Laut dem PCGH Test reden wir von ursprünglich ca. 45 Watt unterschied bei einem YT Video, 50-90 Watt für Anno in FHD usw. Steht ja alles im Test der Rest ist Mathe

Also Ja, auch nach dem Update kommt man noch locker auf zumindest 30 Euro Unterschied

Mal so nebenbei, selbst Deine 13 Cent pro Tag sind aufs Jahr gerechnet auch 4745 cent oder auch 47,45€ also auch knapp 50 Euro ;-)

aber mal BTT
Schön das sich AMD schnell drangesetzt hat. Macht mir meine Entscheidung nicht einfacher aber gibt mir am Ende mehr Auswahl
Das wären bei dir mehr als 6 Stunden täglich! Dafür arbeite ich viel zu viel. Ich könnte das nie erreichen. Wie machst du das? Die meisten Menschen arbeiten bis 16 Uhr, gehen noch was einkaufen, oder pendeln nach Hause. Dann geht's unter die Dusche, der Familie hallo sagen und schon ist irgendwo zwischen 17 und 18 Uhr. Dann müsste man bis 24 Uhr durchgehend YouTube schauen, oder sehr wild surfen und das mit (ganz wichtig) hoher refreshrate, denn wie wir wissen wurde auch jedes YouTubevideo in UHD mit 200Hz aufgenommen... oder?

Bei mir verhält es sich eher so, dass ich um Viertel nach vier aufstehe, dann gehe ich ins Bad, mache mir einen Cappuccino den ich in Ruhe trinke und dabei lese ich auf dem Handy Nachrichten. Um Viertel nach fünf fahre ich los, fange um sechs an zu arbeiten, meist bis 18 Uhr, dann fahre ich nach Hause, dusche und esse und schon ist es zwischen 19 Uhr und 19:30 Uhr. Dann noch Kinder bei den Hausaufgaben unterstützt und einen Film in den BlueRay Player geschoben, zack... 23 Uhr. Spätestens jetzt geht's ans Handy um hier im Forum zu lesen und zu schreiben. Auch schon zwischendurch am Tag immer mal an einer roten Ampel, während der Pausen usw.
Am Wochenende spiele ich dann vielleicht zwei bis drei Stunden, aber auch nur ein oder zweimal im Monat.

Wo nehmt ihr die Zeit dafür her und vor allem... Was bitte zieht man sich sechs Stunden am Tag auf YouTube rein? Wird sowas heutzutage ans BWL-Studium angerechnet, oder was ist da los? :ugly:
 
Zuletzt bearbeitet:
Habe damals dieses Verhalten bei WQHD und 144Hz auch bei meiner Titan X(p) beobachten können.
Hat nvidia damals nicht die Bohne interessiert und gab nie einen Fix dafür, interessant war nur, dass dies sich erst mit einem Treiberupdate "eingeschlichen" hat.
Sobald die Frequenz auf 120Hz bei Monitor gestellt wurde, taktete der Speicher ordnungsgemäß runter und der Stromverbrauch sank so wie es sein sollte.

Also ja, Team Grün konnte das auch mal.
 
Zurück