News RTX 5090 und RTX 5080: Deutlich höhere Verbrauchswerte - 575 und 360 Watt

PCGH-Redaktion

Kommentar-System
Teammitglied
Während die Ankündigung der ersten RTX-5000-Grafikkarten immer näher rückt, kursieren im Netz frische Verbrauchswerte zur RTX 5080 und RTX 5090. Beide dürfen demnach mehr Energie beziehen. Vor allem beim Topmodell gibt es einen Sprung.

Was sagt die PCGH-X-Community zu RTX 5090 und RTX 5080: Deutlich höhere Verbrauchswerte - 575 und 360 Watt

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Können die RTX-5000-Grafikkarten bei der Effizienz deutlich zulegen? Welchen Zuwachs erwarten Sie?
Da glaube ich nicht wirklich dran, dass die neuen Karten großartig effizienter werden. Das die 5090 "von der Stange" jetzt offiziell 575W ziehen darf, halte ich für realistisch. Ich habe gestern und heute die ersten Komponenten für meinen neuen Build bestellt und beim ATX 3.1 Netzteil darauf geachtet, dass es direkt über 2x 12VHPWR Anschlüsse verfügt, dahingehend bin ich zumindest schonmal safe (wobei einer sicherlich reichen wird).
 
Wird viel zu viel Drama um die Stromaufnahme gemacht. Meine 4070 Ti verbraucht effektiv (undervolted) maximal 150W. Lass es dann 200W bei einer 5080 sein. Macht Mehrkosten von unter 0,02 € pro Stunde Gaming. Wer das Geld für die Karte hat, der wird wohl an den Stromkosten nicht zugrunde gehen.
 
Genau da muss Blackwell sich erst beweisen wie gut das UV Potenzial ist.
Automatisch davon ausgehen sollte man jedenfalls nicht.

Bisher sieht vieles danach aus dass das mehr an Leistung hauptsächlich durch mehr Leistungsaufnahme erkauft wird.

Mehrverbrauch geht auch nicht nur einher mit Mehrkosten, sondern auch mit höheren Kühlungsaufwand und mehr Abwärme im Case. Vergessen viele.
 
Was real verbraucht wird und was die Karte laut Limit darf sind zwei ganz verschiedene Dinge, insbesondere wenn man manuell optimiert.
Natürlich kann man ne 4080 und wahrscheinlich auch ne 5080 problemlos mit 250W Limit betreiben ohne dass die performance in den allermeisten Fällen nennenswert leiden würde - ABER das ist nicht immer so, und der hersteller muss wenn er sich für einen solchen Betriebspunkt entscheidet auch das Limit hoch genug wählen dass dieser gehalten werden kann:

Wenn ich "normale" Spiele anwerfe kommt meine 4080er nur selten an das gesteckte Limit (240 statt 320W) und hält dabei weiterhin fast dauerhaft 2700 MHz oder ganz knapp drunter.
Es gibt aber nunmal auch Spiele die derart fordernd sind, dass die Karte in den Settings auf unter 2000 MHz (!) runter muss und ihre 320W wenn man sie erlaubt auch voll ausreizt und selbst dann keine 2700 ereicht. Bereits das alte Quake mit Raytracing-Mod reicht dafür schon aus.

Von daher:
Eine 360W-5080 wird in den allermeisten Fällen die 360W vermutlich nicht ansatzweise nutzen - aber es gibt Szenarien in denen sie es tun wird, sonst würde NV das Limit nicht so hoch wählen.

Dass insgesamt die Powerlimits hoch gehen ist erwartbar: Breitere Chips mit mehr Takt bei gleichem Fertigungsprozeß geht eben nur über mehr Power. Dass die TDP einer 5080 da gegenüber ihrem Vorgänger nur 40W steigt, die einer 5090 gegenüber einer 4090 aber sehr viel mehr erklärt sich schnell wenn man die Gerüchte der verwendeten GPU betrachtet. Eine 5080 ist von der Breite her nicht viel mehr als eine 4080, eine 5090 dagegen ist massiv größer als eine 4090 vom Chipausbau her.

Mehrverbrauch geht auch nicht nur einher mit Mehrkosten, sondern auch mit höheren Kühlungsaufwand und mehr Abwärme im Case.
Eben. Mich nervts auch dass bei JEDEM Thread zu Leistungsaufnahmen immer der Spuch kommt "wenn die GPU so teuer ist blabla ist Stromkosten egal blubb". Jahaaaa. Ist es. Aber darum gehts nicht!
Es geht darum, dass ich 600W einer Grafikkarte erstens kühlen muss ohne dass ich nen Hörsturz kriege und zweitens im Sommer auch spielen will ohne mir in der Wohnung oberkörperfrei einen abzuschwitzen. Das will keiner sehen! :fresse:
 
Wird schon weniger, von 600 Watt sind wir nun bei 575 Watt angekommen. Mal schauen was die 5090 dann wirklich brauchen wird.
 
Wird schon weniger, von 600 Watt sind wir nun bei 575 Watt angekommen. Mal schauen was die 5090 dann wirklich brauchen wird.
Im Juni hatte ich mal orakelt:
Incredible Alk schrieb:
Meine Glaskugel sagt...
Salvage-GB202 mit 160 SM, 28 GB GDDR7 an 448 bit SI und 450W [real], Boosttakt von etwa 3 GHz.

7 Monate später ist der Gerüchtestand

"Salvage-GB202 mit 170 SM, 32 GB GDDR7 an 512 bit SI und 575W tdp, Boosttakt von etwa 3 GHz."

Ok, NVidia hat zu meiner Überraschung anscheinend weniger gecutted als ich dachte (eine "Stufe" mehr freigeschaltete SMs/SI/vRAM) aber an den roundabout 450W Realverbrauch (!) halte ich weiterhin fest, auch wenn die Tendenz dadurch dass alles eine Stufe größer gewählt wurde als von mir vermutet ggf. hin zu 500W gehen könnte.


Nebenbei: Bin ich jetz auch einer von den tollen "Leakern" wo ich vor 7 Monaten schon sehr nahe an dem war was juetzt anscheinend tatsächlich kommt? :ugly:
 
575W mit Luft wird spannend. Ich würde weiterhin davon ausgehen, dass es dabei um die Vorgaben geht von Leistung, die die Karte handeln können muss. Also wahrscheinlich ms lange Peaks. Ich sehe NV nicht über 500W gehen - wozu auch ohne Konkurrenz. Wenn man diese Wattzahlen allerdings braucht um die üblichen 30-35% Mehrleistung gegenüber dem Vorgänger zu erreichen, dann wäre die Generation ein satter Reinfall.
 
Wird schon weniger, von 600 Watt sind wir nun bei 575 Watt angekommen. Mal schauen was die 5090 dann wirklich brauchen wird.
Oder auch Nicht!

TPU hat da ne andere Meinung dazu:

Ob Das so ist, das in diesem speziellen Fall TDP nur Chip alleine ist, kann leider keine andere Quelle bestätigen.
Lt. TPU kommen zu der TDP noch Watt für Vram+PCB+Lüfter+Wandlerverluste etc. hinzu.
(eigentlich brauchts ne Angabe der von außen zugeführten TBP = äußere Messwerte an der Spawas)
 
Da glaube ich nicht wirklich dran, dass die neuen Karten großartig effizienter werden. Das die 5090 "von der Stange" jetzt offiziell 575W ziehen darf, halte ich für realistisch. Ich habe gestern und heute die ersten Komponenten für meinen neuen Build bestellt und beim ATX 3.1 Netzteil darauf geachtet, dass es direkt über 2x 12VHPWR Anschlüsse verfügt, dahingehend bin ich zumindest schonmal safe (wobei einer sicherlich reichen wird).
Welches Netzteil wenn ich fragen darf?
 
Oder auch Nicht!

TPU hat da ne andere Meinung dazu:

Ob Das so ist, das in diesem speziellen Fall TDP nur Chip alleine ist, kann leider keine andere Quelle bestätigen.
Lt. TPU kommen zu der TDP noch Watt für Vram+PCB+Lüfter+Wandlerverluste etc. hinzu.
(eigentlich brauchts ne Angabe der von außen zugeführten TBP = äußere Messwerte an der Spawas)
Bald wird es ja Tests der fertigen Karten geben. DANN wissen wir alle Bescheid. Wie immer, von den Gerüchten halte ich nicht viel.
 
Ob Das so ist, das in diesem speziellen Fall TDP nur Chip alleine ist, kann leider keine andere Quelle bestätigen.
Lt. TPU kommen zu der TDP noch Watt für Vram+PCB+Lüfter+Wandlerverluste etc. hinzu.
Es ist wie immer bei Leaks, jeder würfelt beliebig mit den Abkürzungen rum und am Ende ist alles chaotisch.

Die TBP dürften 600W sein (das, was die elektronik prinzipiell dauerhaft ertragen können muss - sind übrigens bei der 4090 auch schon 600W).
Die TDP sind dann wohl 575W (das, was die Kühllösung wegschaffen können muss = das, was die Karte tatsächlich maximal verbraucht im worst case)
Die GPU-Leistung ist nochmal deutlich kleiner (das, was der Chip selbst verbrauchen darf ohne Restkomponenten), wohl <450W.

Wenn da Märchen kommen wie Vram+PCB+Lüfter+Wandlerverluste sollen in die 25W reinpassen die von TDP zu TBP fehlen kannste nur sagen wer auch immer das geschrieben hat ist absolut ahnungslos.
 
Es geht darum, dass ich 600W einer Grafikkarte erstens kühlen muss ohne dass ich nen Hörsturz kriege und zweitens im Sommer auch spielen will ohne mir in der Wohnung oberkörperfrei einen abzuschwitzen. Das will keiner sehen! :fresse:
Deine Frau? Oder... wer weiß... ich? ;)
Nebenbei: Bin ich jetz auch einer von den tollen "Leakern" wo ich vor 7 Monaten schon sehr nahe an dem war was juetzt anscheinend tatsächlich kommt? :ugly:
Hattest Du eine konkrete Quelle oder hast Du einfach Deine "educated" Glaskugel benutzt? :)
 
Wenn da Märchen kommen wie Vram+PCB+Lüfter+Wandlerverluste sollen in die 25W reinpassen die von TDP zu TBP fehlen kannste nur sagen wer auch immer das geschrieben hat ist absolut ahnungslos.
zumindestens ist es eine interessante Speku von TPU, das man denkt der Vram alleine würde bei der 16GB-5080
mehr Watt ziehen als bei der 32GB-5090 aufgrund des höheren Taktes.
40W vs. 25W
 
Mal schauen wieviel Leistung die bei 250-300Watt verliert.. ob se sich dann noch Lohnt zu einer 4090.. alles drüber ist ja nur sich selbst quälen von Abwärme😅
 
Zuletzt bearbeitet:
Zurück