News RTX 4080: Nvidia lenkt die Aufmerksamkeit auf die Energieeffizienz

Wenn sie jetzt die 4060 umlabeln zur 4080, dann frisst die 4080 auch nicht so viel Strom!
Das kann man dann der Presse präsentieren!
Klingt nach nem Plan Nvidia! :devil:
Naja, bei der neuen GTX 1630 hat es geklappt: 36 Watt im Gaming mit Transient Spikes bei 70 Watt laut TechPowerUp.

Mit einer starken Mark wären die Karten nur halb so teuer, aber dafür müsste man schon die Geschichtsrevisionismuskeule auspacken und nicht so viel spenden für Unfug. Von daher hat Nvidia die Karten groß genug gebaut, dass selbst mit einem sehr schwachen Euro aus diversen Gründen die Karten immer noch ihr Geld wert scheinen. Die Leistung ist natürlich gigantisch und da muss man eben wählen: Mokick fahren oder...:devil:

Damit nicht an der Grafikkarte das Einkommen ausgemacht werden kann, gibt es eben mit der Zeit unterschiedliche Preispunkte, so dass fast alle mit der Zeit auch ihr Wunschmodell kaufen können. Just saying, Nvidia ist nicht der Alleinschuldige an den Preisen, der Fanboy aber auch nicht.

Ich warte auf die Mittelklasse- und Einsteigerkarten und dann schauen wir mal. Wird AMD den Marktführer wirklich unter Druck setzen können? Wir werden es sehen. ;)
 
Trotz identischer TGP wie die RTX 3080 ist die 4080 demnach deutlich stromsparender unterwegs.

Bin gerade zu faul zum rechnen.
Wie lange (in Stunden) müste ich die 4080 mit ~270Watt betreiben damit ich die ~850€ Aufpreis zur 3080 (mit 320Watt) wieder raus habe?
Für 799,- eine gute Karte. Der stündliche Wertverlust schmerzt dann nur noch halb so schlimm.
Masochist müsste man sein...
ja aber Reißnägel unter den Fußnägeln ist deutlich billiger UND schon die Umwelt.
120 Stück für ~6€. Reicht dicke für ein Jahr.


:-D
 
250W sind ab 1. Januar zwischen 14 und 16 pro Stunde bei den meisten Stadtwerken. Bei 20h zocken die Woche macht das 148€ im Jahr.

Ganz so schlimm ist es für die GPU Hersteller also nicht. Wei einpacken kann sind eher die e-Autos. Wenn ein normales Auto 7L auf 100km und damit ca. 14€ pro 100km kostet, verbraucht der Stromer ca. 18kW/h pro 100km was im neuen Jahr 10.8€ sein werden.

Daher rate ich vorsichtig zu sein. Es gibt so die Rechenbeispiele für GPUs mit denen sich leicht scherzen lässt, aber das sollte man nicht zu ernst nehmen im Vergleich zu den Auswirkungen die ein massives Problem sein werden.
 
Schön, dass sie effizienter ist. Aber für 500€ Aufpreis ggü. der 3090 (bekommt man hier und da für 1050-1100) und 100% ggü. der 3080 bekommt manviele KW/h beim Stromanbieter, trotz Energiekrise
 
Zuletzt bearbeitet:
Nach 20 Stunden hast Du 1kWh Unterschied. Rechnen wir mit dem aktuell sehr hohen Preis von ,50€ pro kWh. Dann kannst Du 1900 * 20, also 38.000 Stunden zocken. Also 4,3 Jahre ohne Pause und Schlaf.
Bin gerade zu faul zum rechnen.
Wie lange (in Stunden) müste ich die 4080 mit ~270Watt betreiben damit ich die ~850€ Aufpreis zur 3080 (mit 320Watt) wieder raus habe?
34.000 Stunden, da 850€ geteilt durch 0,50€ /KwH und multipliziert mit 20h / Kwh 34K ergibt, nicht 38K, womit ich auf 3,88 Jahre komme. Problem ist dass CPU etc. bei mehr FPS auch einige Watt mehr ziehen, womit wir wohl wieder bei 4,3 Jahren landen. :devil:

Wenn die Energiesicherheit gewährleistet ist, dann ist es egal, außer man möchte mit einem besonders emissionsarmen Gerät pro Bildqualität punkten wem auch immer gegenüber. Falls nicht, mit Moped durch die Gegend brettern und Sprit besorgen.
 
Jaja...erst heißt es BOAH 600W...dann hieß es BOAH 450W.
Doch Ada ist viel effizienter als die TDP es darstellt. Das sieht schon nach werksseitigem OC aus.
Ich lasse die 4090 mit 315W Limit laufen. Die 135W weniger sind nur 6-7%.
Mit zusätzlichem UV und meinem FPS-Limit komme ich nichtmal auf die 315W, solange ist kein Cyberpunkk 2077 spiele.

Aber am Ende kommen trotzdem Leute und sagen AMD iSt ViEl EffIZieNteR guck mal die TDP...
Ich weiß was Du meinst, aber als ich 315 Watt gelsen habe, ist mir auch ein BOAH und dann ein Lachen über Lippen gekommen.
Ich zocke bei 120 Watt mit meiner 6900xt. Sie ist halt extrem kalt und RT nutze ich nicht, außerdem ist sie gelockt auf 120 FPS kann später mal anders werden aber im Moment bin ich bei keinem Game über 120Watt.
BTW die Temperatur in der Sig. gilt bei Vollast und 300+ Watt.
 
Ich weiß was Du meinst, aber als ich 315 Watt gelsen habe, ist mir auch ein BOAH und dann ein Lachen über Lippen gekommen.
Ich zocke bei 120 Watt mit meiner 6900xt. Sie ist halt extrem kalt und RT nutze ich nicht, außerdem ist sie gelockt auf 120 FPS kann später mal anders werden aber im Moment bin ich bei keinem Game über 120Watt.
BTW die Temperatur in der Sig. gilt bei Vollast und 300+ Watt.
Kommt immer darauf an, welche Spiele und welche Auflösung... ICH rede immer von 4k, weil die 4090 und andere High-End GPUs zu stark sind für 1440p und 1080p, da bleibt sonst zuviel Leistung auf der Strecke.
Das du kein RT spielst ist klar mit einer RDNA2 Karte :D
Gerade eben spiele ich Civ 6 in 4k mit allem auf max und habe auch nur max 120W.

Die Temperatur ist nebensächlich und sagt nichts über den Verbrauch aus. Außer sind 300W = 300W Hitze in den Raum, egal wie groß der Radiator ist oder wie kühl die Karte ist. Solange die Karte nicht thermalthrottled natürlich.

Ich hatte vorher eine 3080 und dann eine 3090, beide haben 320W bzw 350W gezogen, speziell die 3090 war mit 4k im Betrieb und war eigentlich immer am Anschlag mit 350W, selbst mit UV. 4k 120FPS war das Ziel, wurde aber nicht immer erreicht. Und jetzt nach nur einer Gen, kommt die 4090 und hat bei selbem Verbrauch >70% mehr Leistung als meine alten Karten, DAS ist schon enorm.
Davor hatte ich eine Strix 1080Ti die auch mal ab Werk bis 300W ging. Zur 3090 war es auch ein 100% Leistungssprung, aber in 2 Gens nicht einer.

Die Entscheidung, ob ich in 2 Jahren wieder eine Karte kaufen werde, liegt ganz alleine daran, wie die neuen UE5 Spiele auf der 4090 laufen werden. DLAA oder DLSS Quality würde ich schon nutzen...FG würde ich in seinem derzeiten Zustand noch nicht nutzen. Da sind noch ein paar Bugs zu patchen.
 
Ja, weil man mit Nvidia ja auch ohne DLSS mit RT spielen kann...
Mit Fsr kann ich genauso mit RT zocken, aber ich will das nicht. Dann steigt nämlich der Verbrauch auf 300Watt + 1/2 FPS at best.
Also das was von Dir als akzeptabel eingestuft wird und mich aus dem Zimmer jagt.
Für mich ist RT Marketing, die wussten einfach nicht mehr wohin mit der Leistung.

Ps. 4k zocke ich auch nicht sondern 1440p.
Den 4k Monitor habe ich vor 2 Jahren verkauft

PPS. Die 7900XTX hol ich mir trotzdem, weil ich da mehr Bock drauf habe als auf eine 4090
 
Zuletzt bearbeitet:
Ist nur nötig um AMD-Käufer abzuwerben, da die Leistung ja in jedem Fall stimmt. Die muss nicht extra beschriehen werden ;). Ist vor allem bei Nutzern, welche sich gerne auf die Energieeffizienz und wie toll diese bei AMD sei "wichtig".
Ist wie bei Sony da wurde auch die Ssd so hoch gelobt das man hätte meinen können das man in die zukunft reisen kann.

Wenn man sonst nichts hat nimmt man halt das und pflanzt es den leuten ins kopf wie sparsam doch die 4000er reihe ist...
 
Finde es gut, dass die Karte weniger Strom braucht als angegeben in Spielen. Nur ist es leider nebensächlich, wenn sie fast das Zweifache des Vorgängermodells kostet.
 
Wahrscheinlich hat Nvidia dann eine Beispielrechnung dabei als Marketing,wie viel Jahre man spielen muss um die 800€ Aufpreis zur 3080 (699€) wieder drin zu haben.Das ist bei den hohen Grünen Strompreisen in Europa schnell erreicht!
☺️
 
Ja, weil man mit Nvidia ja auch ohne DLSS mit RT spielen kann...
Mit Fsr kann ich genauso mit RT zocken, aber ich will das nicht. Dann steigt nämlich der Verbrauch auf 300Watt + 1/2 FPS at best.
Also das was von Dir als akzeptabel eingestuft wird und mich aus dem Zimmer jagt.
Für mich ist RT Marketing, die wussten einfach nicht mehr wohin mit der Leistung.

Ps. 4k zocke ich auch nicht sondern 1440p.
Den 4k Monitor habe ich vor 2 Jahren verkauft

PPS. Die 7900XTX hol ich mir trotzdem, weil ich da mehr Bock drauf habe als auf eine 4090
Nun das Wärmeproblem kenne ich auch. Das Zimmer wo der Rechner steht ist klein und hat keine Klimaanlage. Aber nur bei Temperaturen Draußen von über 24°C ist das Zimmer wärmer.
Letzten Sommer hatte ich noch eine 3090 im PC. Da hatte ich gerne mal 5-6°C mehr im Zimmer, bei schon 30°C draußen. :D Nur die harten kommen in den Garten.

Wenn man wirklich auf Strom achten will, gibt es eigentlich nur eine bessere Alternative:
Laptops oder eine Art Desktop PC mit Mobile Hardware.

P.S. Ich sage jetzt nicht, kauft keine 7900XTX. Ich würde nur, wie auch bei der 4090, auf Tests warten.
Die 4080 empfehle ich jetzt auch nicht bei den Preisen.
Aber zum Thema: Es sieht nicht unbedingt danach aus, als würde die 7900XT/7900XTX die 4080 bei FPS/W schlagen.
 
Ist wie bei Sony da wurde auch die Ssd so hoch gelobt das man hätte meinen können das man in die zukunft reisen kann.

Wenn man sonst nichts hat nimmt man halt das und pflanzt es den leuten ins kopf wie sparsam doch die 4000er reihe ist...

Na aber aber...klingt so als fändest du nicht dass die Karte/n effizient wäre/n. In der Tat wirst du niemanden finden der nicht auf Team rot steht der das bestätigt. Meine reale Stromaufnahme (gesamtes System) hat sich 0,0 verändert. Vorher habe ich eine 3080Ti im System gehabt und hier war die reale Leistungsaufnahme zwischen 500 und 600 Watt. Fast haargenau selbige Leistungsaufnahme des gesamten Systems habe ich mit der 4090 bei doppelter teils dreifacher Leistung. Nun ohne tausend Tests haargenau durchzuführen müsste doch klar machen wie es um die Effizienz bestellt ist.

Aber gut, deinem Kommentar entnehme ich, dass du das gar nicht anerkennen willst was auch in ordnung ist, dein Kommentar ansich ist allerdings darauf ausgelegt die Karte/n schlecht zu machen oder die Käufer als "willenlose Zombies" ab zu stempeln die auf Marketing hereinfallen. Das ist falsch.

Bleib gesund.
 
Wenn man wirklich auf Strom achten will, gibt es eigentlich nur eine bessere Alternative:
Laptops oder eine Art Desktop PC mit Mobile Hardware.
Da ist die bessere Alternative man stellt das Framelimit runter und geht von DLLS Qualität auf Performance und sagt zum 4kMonitor bye bye und begnügt sich mit einer Nummer kleiner. - Spiele schauen dann noch immer besser aus als mit Laptops oder Laptophardware die man dafür prügeln müsste.

So lässt sich auch eine 3090 mit unter 200Watt betreiben und braucht nicht unbedingt ein Effizienzwunder wie eine 4080 bzw 4090...
Wie lange (in Stunden) müste ich die 4080 mit ~270Watt betreiben damit ich die ~850€ Aufpreis zur 3080 (mit 320Watt) wieder raus habe?
Und solche Stromsparüberlegungen, die sowieso nie aufgehen, sind ebenso verschoben... - und die 850€ Aufpreis bleiben dann auch schon mal fix für die 5080/5090 über. Und die 5 Raytracing-Kracher welche vielleicht in den nächsten zwei Jahren released werden - spiel ich notfalls erst dann wenn sie vollständiig und fertig gepatcht sind - falls es überhaupt 5 sein werden.
 
Die Effizienz der Karte ist überragend und sogar noch leicht vor der 4090. Viele machen auch den Fehler und vergleichen einfach den Stromverbrauch der 3080 mit der 4080. Dabei muss man aber beachten, dass A) die 3080 an die 320 Watt herankommt und B) dass die 4080 viel mehr Leistung hat.

Die 4080 hat eine um 80% bessere Effizienz als die 3080 und eine 100% bessere Effizienz als die 3090ti! Das ist übrigens das, was sich (fast) alle gewünscht haben, als die Horrormeldungen mit 450-600 Watt herumgegeistert sind. Innerhalb einer Generation ist das gigantisch und daher macht z.B. auch eine etwas günstigere 3090ti keinen Sinn mehr zu kaufen.

-> 4k Gaming + Raytracing + hohe Frameraten mit unter 250 Watt! Bisher hat man dafür 450 Watt gebraucht und hatte noch weniger Frames. Entsprechend spart man 200-250 Watt, oder eben die Hälfte ein. Bei den Stadtwerken bezahle ich ab dem 1.01.23 55Cent. Das wären dann pro 100 Stunden zocken 14€ Ersparnis.

-> Noch besser und nachhaltiger ist natürlich einfach seine 1070 zu behalten und mit max. 150 Watt in FullHD weiterhin zu zocken. Geht auch.

average tdp 4080.png


effizienz 4080.png
 
Zuletzt bearbeitet:
Zurück