News RTX 4080: Nvidia lenkt die Aufmerksamkeit auf die Energieeffizienz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu RTX 4080: Nvidia lenkt die Aufmerksamkeit auf die Energieeffizienz

Passend zu den Tests der Geforce RTX 4080 hat Nvidia einen Hintergrundartikel zur Energieeffizienz veröffentlicht. Trotz identischer TGP wie die RTX 3080 ist die 4080 demnach deutlich stromsparender unterwegs.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: RTX 4080: Nvidia lenkt die Aufmerksamkeit auf die Energieeffizienz
 
Mit anderen Worten: Nvidia hat es nicht geschafft, den Boost so auszufahren, dass die veranschlagte Leistung auch genutzt wird. Ob das jetzt gut oder schlecht ist, liegt im Auge des Betrachters.

In Zukunft wird die Leistungsaufnahme wohl noch steigen, wenn komplexere Spiele kommen.
 
Ist nur nötig um AMD-Käufer abzuwerben, da die Leistung ja in jedem Fall stimmt. Die muss nicht extra beschriehen werden ;). Ist vor allem bei Nutzern, welche sich gerne auf die Energieeffizienz und wie toll diese bei AMD sei "wichtig".
 
Ist nur nötig um AMD-Käufer abzuwerben, da die Leistung ja in jedem Fall stimmt. Die muss nicht extra beschriehen werden ;). Ist vor allem bei Nutzern, welche sich gerne auf die Energieeffizienz und wie toll diese bei AMD sei "wichtig".
Daran werden sich die 7900er messen lassen müssen - Sicher auch ein Grund, weshalb die Taktraten in den Referenzmodellen so gering sind.
 
Ja, wenn einem das Gefühl beschleicht, der Launch läuft vielleicht nicht so wie erwartet, bei den Preisen der RTX 4080, dann muss man auf andere Kriterien verweisen um die Grafikkarte irgendwie interessant zu halten. Und so verweist man auf die Effizienz der RTX 4080 und wenn man dann diese Grafikkarte bis zum Ende des Jahrzehnts betreibt im Rechner, amortisiert das ja vielleicht die hohen Anschaffungskosten. Toller Idee Nvidia! :klatsch:
 
Da fragt ich mich warum die TGP so hoch angesetzt wurde wenn Sie ja eh nie gebraucht wird. Ja man dachte mal sie wird gebraucht...aber das dies nicht so ist, weiß man eben auch schon lange. Die 4080 mit 280W auf den Markt gebracht würde sich besser lesen als dieses "säuft weniger als gedacht".

Das wird jetzt aber keinen 3080ti - 4090ti Käufer überzeugen. Bis die Mehrkosten amortisiert sind ist es 2030...
 
hat doch unter anderem der8auer bereits bei der 4090 gezeigt, dass man mit reduzierter Eingangsleistung eig. kaum Performance verlieren würde und man effizienter fahren könnte. nVidia ist aber wohl bei beiden Karten ein wenig in den OC Bereich gegangen der halt von Haus aus Effizienz mindert. Kommende M Varianten oder die Einsteiger Quadros werden wieder interessant, sofern man nicht endlich doch eine vernünftige 3650 oder tatsächlich sparsame 4050 oder sowas liefert. Die A2000/ praktisch ja eine undervoltet 3050 ist ja derzeit die beste GPU unter 75W, obgleich als Workstationkarte und damit absurd aufgeblähtem Preis ja eig. nicht sinnvoll für Gamer, aber AMDs 6400 ist weit langsamer während 6500 genauso wie die meisten 1650 ja über diesen Grenzwert hinaussschießen. Oben Effizienz zu zeigen bringt im großen Ganzen sicherlich mehr, aber wenn man wirklich unter 75W sein muss weil Sparworkstation ohne jeglicher zusätzlicher Stecker dann zeigte nVidia ja eig. auch schon lange das AMD auch unten nicht besser wäre. So sehr man AMD Erfolg wünschen muss, damit das ein echtes Kräfte messen ist, aber so richtig überzeugt mich das bisher weiterhin nicht. Diejenigen die sich was gönnen wollen und können, kaufen wohl gleich 4090, die breite Maße bräuchte eig. endlich wieder gute 200 bis vielleicht 500€ Modelle. 1200/999/899 ist da alles doch zwischen den Stühlen?!? Verstehe nicht das dieser Bereich anders wie beim von-bis-CPU Angebot scheinbar nicht mehr interessiert.
 
Jaja...erst heißt es BOAH 600W...dann hieß es BOAH 450W.
Doch Ada ist viel effizienter als die TDP es darstellt. Das sieht schon nach werksseitigem OC aus.
Ich lasse die 4090 mit 315W Limit laufen. Die 135W weniger sind nur 6-7%.
Mit zusätzlichem UV und meinem FPS-Limit komme ich nichtmal auf die 315W, solange ist kein Cyberpunkk 2077 spiele.

Aber am Ende kommen trotzdem Leute und sagen AMD iSt ViEl EffIZieNteR guck mal die TDP...
 
Jaja...erst heißt es BOAH 600W...dann hieß es BOAH 450W.
Doch Ada ist viel effizienter als die TDP es darstellt. Das sieht schon nach werksseitigem OC aus.
Ich lasse die 4090 mit 315W Limit laufen. Die 135W weniger sind nur 6-7%.
Mit zusätzlichem UV und meinem FPS-Limit komme ich nichtmal auf die 315W, solange ist kein Cyberpunkk 2077 spiele.

Aber am Ende kommen trotzdem Leute und sagen AMD iSt ViEl EffIZieNteR guck mal die TDP...
Das ist doch immer so. Genauso wie Leute immer meinen Intel säuft so viel, dass das im Gaming dann nicht mehr der Fall sein muss wird dann wieder ignoriert, schadet dem eigenen Weltbild.
Finde es ok das Nvidia den Fokus auf Effizienz legt. Vor allem die 4080 zeigt ja das man auch den Verbrauch nicht absurd steigern muss um die Leistung zu steigern. Wenn man die Steckerproblematik außen vor lässt ist das Teil technisch richtig stark.
 
Mit anderen Worten: Nvidia hat es nicht geschafft, den Boost so auszufahren, dass die veranschlagte Leistung auch genutzt wird. Ob das jetzt gut oder schlecht ist, liegt im Auge des Betrachters.
Kann man so sehen. Die Karte rennt idR nicht ins Power-, sondern ins Voltage Limit. Letzteres wird vermutlich so restriktiv definiert, damit die GPU nicht nach kurzer Zeit an Elektromigration verendet.

MfG
Raff
 
Die Effizienz ist sicherlich kein allzu gewichtiger Punkt, wenn man schon dermaßen hohe Preise verlangt.
Übers Jahr gerechnet hast den Aufpreis sicher nicht amortisiert, wenn die Karte 350 statt 450 Watt in der Spitze verbraucht.
Die Effizienz wird erst bei günstigeren Karten dann richtig interessant.
Meiner Meinung nach könnte man aber auch schon im Referenzdesign ein Performance- und ein Stromspar-Bios anbieten. Ansprechend wäre es und kosten würde es sicher auch nicht viel.
 
Wird jetzt echt schon mit verbesserter Effizienz geworben, um eine Kostenverdoppelung zu rechtfertigen?
Dann sollten die zumindest gleich dabeischreiben, wieviel Jahrzehnte man damit arbeiten muss, um das Geld wieder heraus zu bekommen. ^^ ;-P
Kann man so sehen. Die Karte rennt idR nicht ins Power-, sondern ins Voltage Limit. Letzteres wird vermutlich so restriktiv definiert, damit die GPU nicht nach kurzer Zeit an Elektromigration verendet.

MfG
Raff

... dahinRAFFen ... wäre ein lustiges Wortspiel gewesen ^^
 
Also aus meiner Sicht kann NV sicht die Karten zu diesen Preisen gerne wo hinstecken, wo kein Licht hinfällt. Und die Scalper können das gerne auch! Gestern habe ich eine Asus Strix 4090 auf Amazon für 3.799 € gesehen.
Amazon schützt diese A-Löcher im Übrigen jetzt auch vor schlechten Kommentaren, man hat die Kommentar- / Bewertungsfunktion einfach mit dem Hinweis deaktiviert, dass es zu viele negative Kommentare gab.
Na das nenne ich dann mal konsequent! :wall:
 
Letzteres wird vermutlich so restriktiv definiert, damit die GPU nicht nach kurzer Zeit an Elektromigration verendet.

Wäre mal interessant zu wissen, wie es wirklich darum steht. Nvidia wird es in seinen Laboren wohl herausfinden, unsereins kann das erst nach 5-10 Jahren sagen, oder wenn den Übertaktern eine Baureihe massenhaft wegstirbt.

Amazon schützt diese A-Löcher im Übrigen jetzt auch vor schlechten Kommentaren, man hat die Kommentar- / Bewertungsfunktion einfach mit dem Hinweis deaktiviert, dass es zu viele negative Kommentare gab.
Na das nenne ich dann mal konsequent! :wall:

Die werden halt eben Bewertungen wie "viel zu teuer" oder "Karte knapp 2000€ über UVP" abgegeben haben und das hat dann eben leider nichts mit dem Produkt ansich zu tun.
 
Zuletzt bearbeitet:
Naja ich find die Karte ganz ok vom Preis mal abgesehen. Aber wenn ich so in mein Gehäuse Fenster schaue dann hab ich keine Lust diesen Anblick vom hässlichen " 3 Bein " zu sehen.
Neues Netzteil will ich jetzt auch nicht gerade wechseln da es für mein 1000 Watt SFX-L Netzteil von Silverstone ja anscheinend auch folgendes Kabel gibt :

Leider kann man das Kabel nach meiner Recherche nirgends erwerben so bleib ich wohl noch auf meiner 3080 Ti sitzen.
Klingt schlimmer als es ist weil eigentlich leistet die Karte noch hervorragende Dienste.
Warte sowieso mal ab wie die Benchmarks bei AMD aussehen. Dort bräuchte ich auch keine neuen Kabel anschließen. Naja mal abwarten.
 
Das ist doch immer so. Genauso wie Leute immer meinen Intel säuft so viel, dass das im Gaming dann nicht mehr der Fall sein muss wird dann wieder ignoriert, schadet dem eigenen Weltbild.
Finde es ok das Nvidia den Fokus auf Effizienz legt. Vor allem die 4080 zeigt ja das man auch den Verbrauch nicht absurd steigern muss um die Leistung zu steigern. Wenn man die Steckerproblematik außen vor lässt ist das Teil technisch richtig stark.
Intel oder AMD sind beide gleich. Beim Gaming werden nur ein paar Kerne genutzt und der Verbrauch liegt bei 80-140W.
Erst wenn man alle Kerne gleichzeitig prügelt geht der Verbrauch in die Höhe.
Auch das kann man mit einem Power-Limit runterstellen, nur die CPUs sind da empfindlicher. Reicht der Strom nicht aus, geht die All-Core Performance in den Keller.

Wichtig ist nur zu wissen, das die CPU bzw die GPU Stock viel ziehen kann und man dementsprechend ein starkes Netzteil braucht. Ich würde keine 300W CPU kaufen, wenn mein Netzteil keine 300W händeln kann, auch wenn ich die CPU auf <150W limitiere oder wenn die <150W im Gaming zieht. Es gibt immer Situationen wo die CPU, wenn auch nur kurz, die volle Leistung zieht.

Ich denke nicht das Nvidia den Fokus auf Effizienz gesetzt hat. Dagegen sprechen das Design und die fetten Kühler.
Es heißt ja, Nvidia hat die Leistung anhand von Samsing 8nm extrapoliert und dadurch mit 600W gerechnet. Die Entwicklung in das Board und Kühler Design waren also mit 600W im Kopf geschehen.
Der Effizienz Sprung von Samsung auf TSMC war seitens Nvidia unerwartet.

Ich würde Nvidia raten, die 4080 mit einem 2-Slot Kühler wie die 3080FE rauszubringen und dafür 200$ weniger zu verlangen. Das könnte deutlich besser gegen die 7900XT/XTX laufen.
Man rechnete aber mit 450W bei der 4080 und hat demensprechend denselben Kühler und die Platine der 4090 genommen, damit man nur einen Kühler braucht. Am Ende sind es Entscheidungen die warscheinlich schon Anfang des Jahres oder so gemacht worden sind. Und deshalb hält Nvidia an dem Preis fest.
Ich kann nur hoffen, das es zumindest AIB Modelle mit 2-Slot Kühler geben wird, für weniger Geld...wird aber nur dann passieren, wenn die teureren 4080er sich nicht verkaufen.
Für 799,- eine gute Karte. Der stündliche Wertverlust schmerzt dann nur noch halb so schlimm.
Masochist müsste man sein...
Hoffentlich geht der Euro in den nächsten 2 Jahren wieder auf 1,20$ pro €uro, nur dann können wir wieder von billigen Karten träumen. Derzeit liegt er bei 1,04$ pro €uro...also 5% höher als zum Release der 4090...wird Zeit für eine Preisanpassung...
 
Zurück