News RTX 4080: Nvidia lenkt die Aufmerksamkeit auf die Energieeffizienz

Da fragt ich mich warum die TGP so hoch angesetzt wurde wenn Sie ja eh nie gebraucht wird. J

Doch, schon,

die Leistung und auch der damit einhergehende Stromverbrauch wird irgendwann (annähernd) abgerufen werden.
Es wird vor allem die 4090 derzeit teilweise stark unterfordert, weil alle Prozessoren sogar noch in UHD der Flaschenhals sind.
Und auch einige Spiele können wohl nicht die ganzen Einheiten der Karten immer vollständig mit Aufgaben belegen.
Das kennen wir ja auch von einigen AMD Karten, die auf dem Datenblatt mit fetten Durchsatzwerten geprotzt haben, und dann war am Ende eine NVidia Karte mit "weniger" dann doch wieder je nach Auflösung flotter.

Außerdem spricht die Benchmarkübersicht klar dafür.
Overall ist die 4090 "nur" 20 Prozentpunkte vor der 4080 gesetzt. Bei PCGH.
Eigentlich müssten das ja eher so ca. 40% sein, den Taschenrechner dürft ihr zücken.
Bei UHD kommt es auch zu einem deutlicheren Ergebnis.
Und das einige Spiele viel geringere Abstände anzeigen, bei anderen wiederum alles 1:1 voll durchschlägt, spricht auch dafür, dass da nicht imemr alles gut ausgelastet wird oder werden kann.
Dazu gesellt sich dann der von Raff angesprochene natürliche Limit bei den Taktraten.
Der Chip kann ja nur bedingt hoch schnellen, ehe der Chip instabil wird.
Die Karten werden also super gekühlt (auch wegen der viel feineren Fertigung, da man sich teuer eingekauft hat (1 Milliarde??) und das natürlich doppelt und dreifach auf den Kunden abwälzt, wie man sieht!).
Wo man vorher immer ins Temp Limit gerannt ist (meine 1080 auch), macht jetzt hier die Karte an anderer Stelle dicht.
Aber man sieht ja, wenn man die Karten wirklich bruzzeln lässt (synth. Bench), dann kommen die auch mit dem Verbrauch wieder viel höher.

Vorteil ist also, dass nicht mehr wie bei vorherigen Generationen immer das Hitzeproblem Sorgen bereitet.
Auch die TDP ist nun kein Bremsklotz mehr.
Das hat der AMD Ryzen 7700X ja vorgemacht, selbst mit 88W wäre der noch nicht ausgelastet, im Prinzip ist das also immer noch ein 65W/88W Prozessor, auch wenn da jetzt 105 TDP drangeklebt worden ist.

Wo ich dir absolut zustimme, ist, warum einige Herstelelr dann anfangen, da noch unsinnige Wattdraufgaben anzupreisen.
Anscheinend ist das für Extremübertakter interessant, für normale Anwender jedenfalls ist das nur blödes Marketing, da man das ja wohl eher nie nutzen können wird.
Wenn also die 4080 derzeit im Schnitt 265 Watt statt 320 Watt zieht - wo man ja eigentlich von besserer Auslastung als bei der 4090 ausgehen muss - , dann brauch tja kein hersteller OC Customs mit bis zu 450 Watt auf den Markt bringen.
Da gaukelt man dem Kunden also vor, man könne mit entsprechend guter Kühlung mit einem Sprung von 320 auf 450w noch ein kräftiges Leistungsplus herauskitzen, und evtl. einer 4080 Ti nahe rücken.
Einfach nur den Regler in der Software ziehen, fertig. Alles Mumpitz. Aber dafür ordentlich abkassieren. Dann lieber gleich in die nächstbessere FE investieren.
 
Die 450 bzw. 320 Watt maximal machen ja schon Sinn. Gerade bei diversen Anwendungen nutzt du das aus und die Leistung skaliert sehr gut. Entsprechend verbrauchst du mehr und bist dafür schneller fertig mit der Aufgabe. Insgesamt hast du also nicht mehr Strom verbraucht.

Für reine Gamer sieht das natürlich anders aus. Aber die Grafikkarten verwenden ja einfach weniger Watt in vielen Szenarien und skalieren auch nach unten deutlich besser als die 3000er Serie. Was mir eigentlich fehlt, ist eine einfach Einstellung an der Karte wo ich zwischen "Effizienz" und "OC" auswählen kann.

Dann könnte die 4090 z.B. standardmäßig mit 350 Watt max laufen und für Leute die entsprechende Anwendungen verwenden können auf 450 Watt max umstellen. Wir haben aber normal 450 Watt und Custom Designs mit noch mehr Watt.
 
Na aber aber...klingt so als fändest du nicht dass die Karte/n effizient wäre/n. In der Tat wirst du niemanden finden der nicht auf Team rot steht der das bestätigt. Meine reale Stromaufnahme (gesamtes System) hat sich 0,0 verändert. Vorher habe ich eine 3080Ti im System gehabt und hier war die reale Leistungsaufnahme zwischen 500 und 600 Watt. Fast haargenau selbige Leistungsaufnahme des gesamten Systems habe ich mit der 4090 bei doppelter teils dreifacher Leistung. Nun ohne tausend Tests haargenau durchzuführen müsste doch klar machen wie es um die Effizienz bestellt ist.

Aber gut, deinem Kommentar entnehme ich, dass du das gar nicht anerkennen willst was auch in ordnung ist, dein Kommentar ansich ist allerdings darauf ausgelegt die Karte/n schlecht zu machen oder die Käufer als "willenlose Zombies" ab zu stempeln die auf Marketing hereinfallen. Das ist falsch.

Bleib gesund.
Na klar ist das marketing. Von etwas schlechten z.B dem preis ablenken und etwas anderes hervorheben...

Wie hast du es bitte geschafft 500-600watt nur mit der 3080ti zu verbrauchen?

Vielen Dank Bleib selber auch gesund.
 
Ich befürworte diese Entwicklung definitiv.
Knapp 250W für High-End ist perfekt.

Trotzdem stößt der Preis sehr sauer auf.
Es scheint als ob nVidia auf Biegen und Brechen die 1200$ rechtfertigen muss.
Ein gutes und preiswertes Produkt würde sich selber tragen.
Soll sie es machen aber ich kaufe niemals eine GPU über 999€.

Hatte damals kurz eine 3080 Ti und habe selber gemerkt wie unsinnig eine 1200€ GPU für normales Zocken ist.
Habe diese dann direkt wieder verkauft und bin in die 699€ Klasse rein und nicht bereut.

Ja, wenn einem das Gefühl beschleicht, der Launch läuft vielleicht nicht so wie erwartet, bei den Preisen der RTX 4080, dann muss man auf andere Kriterien verweisen um die Grafikkarte irgendwie interessant zu halten. Und so verweist man auf die Effizienz der RTX 4080 und wenn man dann diese Grafikkarte bis zum Ende des Jahrzehnts betreibt im Rechner, amortisiert das ja vielleicht die hohen Anschaffungskosten. Toller Idee Nvidia! :klatsch:
Eigentlich ist es unverständlich, da 80-90% der potentiellen Käufer den Preis viel zu hoch empfanden.
Habe ich zumindest aus Umfragen in Erinnerung.
Umso unverständlicher das nVidia so stur daran festhält.
Naja AMD wird den Preis hoffentlich ein wenig zurechtweisen.

...
Hoffentlich geht der Euro in den nächsten 2 Jahren wieder auf 1,20$ pro €uro, nur dann können wir wieder von billigen Karten träumen. Derzeit liegt er bei 1,04$ pro €uro...also 5% höher als zum Release der 4090...wird Zeit für eine Preisanpassung...
Kein Witz. Die 4090 müsste schon ca. 100€ runtergehen. Da kriegt man schon 1/3 eines AM5 Boards.
 
Zuletzt bearbeitet:
Wäre mal interessant zu wissen, wie es wirklich darum steht. Nvidia wird es in seinen Laboren wohl herausfinden, unsereins kann das erst nach 5-10 Jahren sagen, oder wenn den Übertaktern eine Baureihe massenhaft wegstirbt.



Die werden halt eben Bewertungen wie "viel zu teuer" oder "Karte knapp 2000€ über UVP" abgegeben haben und das hat dann eben leider nichts mit dem Produkt ansich zu tun.

Ja aber natürlich haben solche Bewertungen auch mit dem Produkt an sich zu tun. Der Kunde bewertet ja nicht nur die technische Rohleistung sondern natürlich auch die P/L aus seiner Sicht.
 
Ja aber natürlich haben solche Bewertungen auch mit dem Produkt an sich zu tun. Der Kunde bewertet ja nicht nur die technische Rohleistung sondern natürlich auch die P/L aus seiner Sicht.

Das Problem ist aber, dass das in dem Fall nicht dem Produkt gilt, sondern dem Händler, dem müßte man die Bewertung reindrücken. Geht aber nicht, solange man das Produkt nicht dort gekauft hat. Von daher kann ich es eben schon verstehen, dass diese Bewertungen gelöscht wurden.
 
Zurück