News Geforce RTX 5080 wird Geforce RTX 4090 nicht erreichen

Ist das der gewollte Beitrag zur Energiewende? In den Wasserkreislauf im Mehrfamilienhaus integriert die Wärmepumpen unterstützen mit Fernwärme?

600 Watt!! 11!1 das ist Geisteskrank!
Schon mal etwas von einem Framelimiter gehört? Meine 4080 verbraucht weniger als meine 1080, trotz 320w tdp. Die ich übrigens nie erreiche ausser ich übertakte.
Natürlich wenn man Cyberpunk anschmeist sieht das anders aus. Aber mit Framlimiter UV und angepassten Einstellungen Dümpelt sie immer noch unter 200w rum.
 
nvidia könnte auch gleich einfach die alten Karten umlabeln, kommt auf das gleiche hinaus, welche karte war das nochmal, die mit pci-e 3.0 extakt identisch gleich schnell war? die 4060 oder? einfach ne 4050 in 4060 umbennen und doppelt abzocken, frechtheit!
Wenn das halt reicht um unterm Strich über alle Eigenschaften ein vergleichbares PLV anzubieten, wie AMD es kann. Dann geht die Beschwerde weniger an Nvidia, sondern vielleicht an die allgemeine Marktsituation, oder Weltwirtschaft in Kombi.
 
Ist das der gewollte Beitrag zur Energiewende? In den Wasserkreislauf im Mehrfamilienhaus integriert die Wärmepumpen unterstützen mit Fernwärme?

600 Watt!! 11!1 das ist Geisteskrank!
Ich sehe zwar auch den Weg hin zu 450 W, oder gar mehr Energieaufnahme auch als schlecht an, bzw. da bin ich raus. Aber die 4090 ist die Effizienteste Highend Karte, bzw. ist Effizienter als die 4080, als die 7900XTX.

Auch hat man einen sehr guten Sprung zur vorgänger Generation hingelegt und wer in der Lage ist, das Powerlimit mit Verstand zu setzen, der hat eine super effiziente Karte.

Die Leistungsaufnahme sagt darüber erstmal noch gar nichts.

Außerdem wenn mein Strom zu 75% (des Jahresverbrauches, ohne durchs städtische Netz gepuffert zu werden) von meinem Dach kommt, wen soll es stören... Die Umwelt sicher nicht.

PS: Das hat aber auch ohne eigene PV Anlage erstmal niemanden zu stören. Ich bin ja kein Extremist der anderen etwas vorschreiben will. Wofür und wie viel Strom ein jeder verbrauchen darf.
Ich habe so das dumpfe Geüfhl das sich der durchschnittliche Käufer einer 5090 nicht so wirklich um die zusätzlichen Stromkosten einen Kopf machen wird.
Wobei bis zu 600W auch gekühlt werden müssen. ich gehe aber weiter von rund 450W aus.

Kühlung braucht Platz und macht ggfs. Lärm.
 
Schon mal etwas von einem Framelimiter gehört? Meine 4080 verbraucht weniger als meine 1080, trotz 320w tdp. Die ich übrigens nie erreiche ausser ich übertakte.
Natürlich wenn man Cyberpunk anschmeist sieht das anders aus. Aber mit Framlimiter UV und angepassten Einstellungen Dümpelt sie immer noch unter 200w rum.
Ja habe ich tatsächlich, dieses Szenario tritt bei aktuellen Spielen und im Falle dessen das man sein ganzes Geld nicht nur für eine teure Grafikkarte verplempert hat aber relativ selten sein. Also vorausgesetzt man spielt nicht nur indigames oder dümpelt im Pause Menü usw. bei dem man dann mal einen Blick auf die Metrik des Verbrauchs werfen kann. Wer nen 100-140+ Hz Monitor hat und diesen auch mit Gsync oä. betreibt und halbwegs aktuelle Spiele spielt der wird eher ans Powerlimit als ans Framelimit kommen.

Das sich diese Karte irgendjemand kauft um Strom zu sparen in indigames auf 60 Hz limitiert könnt ihr eurer Freundin/Frau erzählen wenn die nächste Stromrechnung kommt oder versuchen als kaufargument wegen der letzten Rechnung durchzusetzen.

Wenn ihr Glück habt und die oder der Partner in Mathematik oder Physikunterricht nur Kreide holen war für den Lehrer klappt das vielleicht. Es gibt recht viele Menschen die sich ihre Welt selbst schön rechnen oder reden können. Aber auch wenn man es oft und laut genug erzählt wird es nicht glaubhafter oder zur Realität. Leider sehen viele nur das was sie sehen möchten.

Grafikkarten: Stromkosten selbst berechnen​

Konkrete Zahlen schön und gut, ohne den Faktor Zeit bleiben die laufenden Kosten jedoch unbekannt. Die folgende Formel mit P für den Wattverbrauch (Power) und T für die Betriebsstunden (Time) ergibt die Jahreskosten:

(P × K × T) ÷ 1.000

Das K steht für den Preis einer Kilowattstunde in Euro. Am besten, Sie ziehen den exakten Arbeitspreis Ihres aktuellen Stromtarifs zurate. Wir rechnen beispielhaft einmal mit 30 und einmal mit 40 Cent pro Kilowattstunde. Der Einfachheit halber unterstellen wir dabei konstante Volllast. Nehmen wir an, Sie haben sich zum Start der Geforce RTX 4090 im Oktober 2022 eine Founders Edition gekauft und spielen damit jeden Abend drei Stunden lang. Anfang Juli sind das rund 630 Tage. Multipliziert mit 3 Stunden ergibt das 1.890 Stunden reine Spielzeit, bei der die Grafikkarte 442 Watt verbraucht. Die Formel sähe in diesem Fall so aus:

(442 × 0,3 × 1.890) ÷ 1.000 (30 ct/kWh)
(442 × 0,4 × 1.890) ÷ 1.000 (40 ct/kWh)


Die Stromkosten der Grafikkarte allein belaufen sich in diesem Beispiel auf mindestens 250 Euro, im Falle eines suboptimalen Stromtarifs sogar 334 Euro. Das ist kein Pappenstiel, sodass Undervolting wahre Wunder bewirkt. Alternativ lohnt sich der Blick über den Tellerrand, was mit einer sehr sparsamen Grafikkarte anfiele. Wer sich im Herbst 2021 für eine Radeon RX 6600 entschieden hat und damit die gleichen Spielgewohnheiten verfolgt, muss trotz rund 1.000 Tagen Spaß weniger als 120 Euro (30 ct/kWh) respektive 156 Euro (40 ct/kWh) für den Strom zahlen.

Quelle
 
Ja habe ich tatsächlich, dieses Szenario tritt bei aktuellen Spielen und im Falle dessen das man sein ganzes Geld nicht nur für eine teure Grafikkarte verplempert hat aber relativ selten sein. Also vorausgesetzt man spielt nicht nur indigames oder dümpelt im Pause Menü usw. bei dem man dann mal einen Blick auf die Metrik des Verbrauchs werfen kann. Wer nen 100-140+ Hz Monitor hat und diesen auch mit Gsync oä. betreibt und halbwegs aktuelle Spiele spielt der wird eher ans Powerlimit als ans Framelimit kommen.

Das sich diese Karte irgendjemand kauft um Strom zu sparen in indigames auf 60 Hz limitiert könnt ihr eurer Freundin/Frau erzählen wenn die nächste Stromrechnung kommt oder versuchen als kaufargument wegen der letzten Rechnung durchzusetzen.

Wenn ihr Glück habt und die oder der Partner in Mathematik oder Physikunterricht nur Kreide holen war für den Lehrer klappt das vielleicht. Es gibt recht viele Menschen die sich ihre Welt selbst schön rechnen oder reden können. Aber auch wenn man es oft und laut genug erzählt wird es nicht glaubhafter oder zur Realität. Leider sehen viele nur das was sie sehen möchten.



Quelle
Wenn man das Thema so angeht und dann noch mit Energiewende kommt sollte man Elektronische und sonstige die nicht von nöten sind im Alltag einfach auslassen und nicht kaufen.

Damit ist das Gespräch beendet.
 
Ja habe ich tatsächlich, dieses Szenario tritt bei aktuellen Spielen und im Falle dessen das man sein ganzes Geld nicht nur für eine teure Grafikkarte verplempert hat aber relativ selten sein. Also vorausgesetzt man spielt nicht nur indigames oder dümpelt im Pause Menü usw. bei dem man dann mal einen Blick auf die Metrik des Verbrauchs werfen kann. Wer nen 100-140+ Hz Monitor hat und diesen auch mit Gsync oä. betreibt und halbwegs aktuelle Spiele spielt der wird eher ans Powerlimit als ans Framelimit kommen.
Hm, alleine schon wenn man Regler bedient, oder einfach die normalen Fps Schwankungen ausbügelt.

Ich persönlich wähle alle meine Settings für gewöhnlich so, das ich die Lows auf ein bestimmten Wert halten kann. Alles was darüber geht wird begrenzt.

Wenn eine Karte also 80Fps minimal schafft in Game XY, dann schafft die meistens im Durchschnitt 90-100Fps und da das der Durchschnitt ist, kann man schon recht gut rechnen, wie hoch mein realer Verbrauch dann noch ist.
Das sich diese Karte irgendjemand kauft um Strom zu sparen in indigames auf 60 Hz limitiert könnt ihr eurer Freundin/Frau erzählen wenn die nächste Stromrechnung kommt oder versuchen als kaufargument wegen der letzten Rechnung durchzusetzen.
Weiß nicht warum du so schreibst. Nur weil XY sich eine 4090 kauft, bedeutet das nicht das der sein Hirn abschaltet.

Ein gut gesetztes Framelimit ist Gold wert.
Wenn ihr Glück habt und die oder der Partner in Mathematik oder Physikunterricht nur Kreide holen war für den Lehrer klappt das vielleicht.
Ehrlich, weiß nicht was du in der Zeit gemacht hast.
Es gibt recht viele Menschen die sich ihre Welt selbst schön rechnen oder reden können. Aber auch wenn man es oft und laut genug erzählt wird es nicht glaubhafter oder zur Realität. Leider sehen viele nur das was sie sehen möchten.



Quelle
Vielleicht entspannst du dich mal etwas.
 
Wenn man das Thema so angeht und dann noch mit Energiewende kommt sollte man Elektronische und sonstige die nicht von nöten sind im Alltag einfach auslassen und nicht kaufen.

Damit ist das Gespräch beendet.
Energiewende, jetzt die Überraschung. Der Energiebedarf Weltweit wird die nächsten 20 Jahre noch massiv steigen. Aber gut, wer davon wie viel profitiert (GELD) braucht man ja nicht drüber nachdenken.

Ein jeder kann ja seine eigenen Vorteilen daraus generieren.

Niemand kann vorschreiben, wer was wofür verbraucht! ;)
 
Energiewende, jetzt die Überraschung. Der Energiebedarf Weltweit wird die nächsten 20 Jahre noch massiv steigen. Aber gut, wer davon wie viel profitiert (GELD) braucht man ja nicht drüber nachdenken.
Deswegen ist es völlig absurd sich über die maximale Leistungsaufnahme eine High End Grafikkarte solche Gedanken zu machen, die bei der Gesamtmenge einfach keine Rolle spielt.
 
Zuletzt bearbeitet:
Der typische Käufer einer 5090 wird wohl weder mit der Preisgestaltung seitens NV haben noch mit dem Verbrauch ein Problem haben. Im Regelfall sind das Menschen die das entsprechende Einkommen haben. Die werden wohl den erhöhten Abschlag zur Kenntnis nehmen, mit der Schulter zucken, weiter zocken und sich dran erfreuen was ihnen die Karte auf den Bildschirm bringt.

Die 5090 wird aller Wahrscheinlichkeit wieder die Messlatte für alle anderen sein. Das ist dann erst mal das Ende der Fahnenstange. Wenn das Ding dann halt teuer ist, dann soll es so sein. Das ist explizit keine Karte für Jedermann, und will es auch nicht sein. Genauso wie die 3090 oder 4090.

Beim Porsche 911 GT3 RS regt sich auch keiner auf das der 250.000€ kostet und dann auch nicht 5 oder 6 mal so schnell wie ein Golf 8 ist und mehr verbraucht. Nur so als Analogie.

Der Preis für eine 5080 könnte diskussionswürdig sein. Die Preise für alles andere darunter, was dann auch die überwältigende Menge an GPUs sein dürfte die NV verkaufen wird, die sind auf jeden Fall diskussionswürdig. Denn da dürfte die Ausbeute in der Produktion deutlich besser sein als bei einer 5080 oder 5090. Da aber keiner von uns die Margen kennt die NV bei den verschiedenen GPUs einfährt ist das dann leider auch nur rein spekulativ.
 
Das ist tatsächlich ein sehr schöner Vorteil für AMD!
Warum nVidia da so lange braucht auch mal zu liefern ist wirklich seltsam. Entweder AMDs Technik ist wirklich so gut, dass da massenhaft Patente im Weg stehen, oder die eigene Hardware verträgt sich nicht so gut mit dem Ansatz.
Naja, wie auch immer: Die einen haben DLSS(Versionsnummer korreliert mit Kaufbereitschaft) die anderen AFMF.
 
Die Zehn Gebote Nvidias:
...
Gebot...: Du sollst als 4080 Besitzer keine 5080 kaufen, sondern eine 5090.
Denn nur so erhälst du auch mehr Leistung!
...
Ein Schelm, der dabei... :lol:

(Die Ziffern werden bei jeder Generation ausgetauscht ;) )
Der typische Käufer einer 5090 wird wohl weder mit der Preisgestaltung seitens NV haben noch mit dem Verbrauch ein Problem haben. Im Regelfall sind das Menschen die das entsprechende Einkommen haben. Die werden wohl den erhöhten Abschlag zur Kenntnis nehmen, mit der Schulter zucken, weiter zocken und sich dran erfreuen was ihnen die Karte auf den Bildschirm bringt.

Die 5090 wird aller Wahrscheinlichkeit wieder die Messlatte für alle anderen sein. Das ist dann erst mal das Ende der Fahnenstange. Wenn das Ding dann halt teuer ist, dann soll es so sein. Das ist explizit keine Karte für Jedermann, und will es auch nicht sein. Genauso wie die 3090 oder 4090.

Beim Porsche 911 GT3 RS regt sich auch keiner auf das der 250.000€ kostet und dann auch nicht 5 oder 6 mal so schnell wie ein Golf 8 ist und mehr verbraucht. Nur so als Analogie.

Der Preis für eine 5080 könnte diskussionswürdig sein. Die Preise für alles andere darunter, was dann auch die überwältigende Menge an GPUs sein dürfte die NV verkaufen wird, die sind auf jeden Fall diskussionswürdig. Denn da dürfte die Ausbeute in der Produktion deutlich besser sein als bei einer 5080 oder 5090. Da aber keiner von uns die Margen kennt die NV bei den verschiedenen GPUs einfährt ist das dann leider auch nur rein spekulativ.

5-6 mal so schnell wie ein Golf 8...
Das musst du mir zeigen, vor allem auf deutschen Straßen. ;)
Das trifft noch nicht einmal auf die Beschleunigung zu.

Und immer bedenken, die 4090, 5090,..., ist ein "Abfallprodukt" der wirklich "großen" KI-GPUs.
 
Und aufgrund der kreativ-generativen Natur wird ganz nebenbei der Wiederspielwert um Dimensionen erhöht. #GenForceAITX
:ugly: Mit solchen Sätzen werden Sie im Januar auf die Bühne treten. Wenn sich schon bei der Hardware kaum Etwas tut brauchen Sie ja andere Verkaufsargumente.
AITX 5000? Und dann heißen die wirklich so... 😮
 
5-6 mal so schnell wie ein Golf 8...
Das musst du mir zeigen, vor allem auf deutschen Straßen. ;)
Das trifft noch nicht einmal auf die Beschleunigung zu.
Hier hast du sicher etwas verpasst. Keiner schrieb das der Porsche 5-6 x schneller sei, sondern das Gegenteil
:ugly: Mit solchen Sätzen werden Sie im Januar auf die Bühne treten. Wenn sich schon bei der Hardware kaum Etwas tut brauchen Sie ja andere Verkaufsargumente.
AITX 5000? Und dann heißen die wirklich so... 😮
Wenn dann etwas gutes raus kommt, wie DLSS, oder genauer Ray Reconstruction zum Beispiel gerne.
Wenn sich bei der Hardware aber dennoch zu wenig tut, ist das natürlich nur der Tropfen.
Warum nVidia da so lange braucht auch mal zu liefern ist wirklich seltsam. Entweder AMDs Technik ist wirklich so gut, dass da massenhaft Patente im Weg stehen, oder die eigene Hardware verträgt sich nicht so gut mit dem Ansatz.
Naja, wie auch immer: Die einen haben DLSS(Versionsnummer korreliert mit Kaufbereitschaft) die anderen AFMF.
Ich denke Nvidia sieht sich bei dem Thema absolut nicht gezwungen.
AFMF funktioniert auch nicht so gut, wie spielintegriertes FMF, oder FG.

Kann man als AMD Karten Nutzer eigentlich AFMF mit XeSS kombinieren, oder nur mit FSR.
Wäre schön wenn Nvidia auch etwas in der Richtung bringt, oder auch Intel.
 
Zuletzt bearbeitet:
Immer dieses Stromverbrauchsgeschwurbel:nene:
- Entweder es ist einem egal
oder
- man geht konsequent den Weg der Energieeinsparung
ABER:
sich mit der Effizienzkeule eine GPU schönzureden ist schon ziemlich ...(bitte bevorzugtes Wort einsetzen)
Egal wieviel Frames eine 4090 liefert und optimiert wird, sind und bleiben 250-400W eben 250-400W!
Ich gehöre zu Fraktion 1, ergo egal. Klar wird optimiert, alleine wegen dem Lärm. Aber ich bin noch nie auf die Idee gekommen über die Effizienz mir meine GPU, im wahrsten Sinn des Wortes, schön zu saufen. Denn mein Stromlieferant hätte gerne das Geld für den Verbrauch, denn leider gibts für Effizienz keinen Rabatt oder Bonus.
Gruß T.
 
Immer dieses Stromverbrauchsgeschwurbel:nene:
- Entweder es ist einem egal
oder
- man geht konsequent den Weg der Energieeinsparung
ABER:
sich mit der Effizienzkeule eine GPU schönzureden ist schon ziemlich ...(bitte bevorzugtes Wort einsetzen)
Egal wieviel Frames eine 4090 liefert und optimiert wird, sind und bleiben 250-400W eben 250-400W!
Ich gehöre zu Fraktion 1, ergo egal. Klar wird optimiert, alleine wegen dem Lärm. Aber ich bin noch nie auf die Idee gekommen über die Effizienz mir meine GPU, im wahrsten Sinn des Wortes, schön zu saufen. Denn mein Stromlieferant hätte gerne das Geld für den Verbrauch, denn leider gibts für Effizienz keinen Rabatt oder Bonus.
Gruß T.
Gut ist dein Ansatz, ABER!:
Ich wähle bei jedem GPU Kauf auch nach Effizienz. Nicht um Strom zu sparen, aber warum mehr verbrauchen für das selbe. Es ist eine Eigenschaft einer Karte, das absolut auch berechtigt berücksichtigt werden darf.

Bei den Unterschieden die so aktuell sind, kann man auch gerne je nach Spielzeit mal die Kaufpreisdifferenz über die Zeit ausgleichen. Beispiel 4080 super und XTX.

Dabei hat man bei der 4080 super zusätzlich noch die deutlich höhere RT Leistung.
Also die Effizienz nicht zu berücksichtigen ist schlicht kurzsichtig.

Aber jedem das Seine, wollte es nur erwähnt haben.


Bezogen auf die 4090, kann man natürlich zu Recht sehen, das der Verbrauch bei 360-440W typisch liegt.
Jetzt im Vergleich eine XTX die typisch bei 330-360W liegt.

Das bei 35% mehr Raster und 80% mehr RT Leistung im Parcours. Bei Path Tracing ist die auch dreimal so schnell.


Dazu kommt noch das einige mit der 4090 tatsächlich das Powerlimit leicht reduzieren und so die Effizienz noch weiter steigern, bei dann auch gut gleichen bis niedrigerem Realbverbrauch.
 
Ja sehe ich auch so.
egal wie effizient die rtx 4090 auch sein mag, mir geht es um alleine des stromverbrauch an sich. Und bei 75 Watt wird auch eine rtx 4090 sehr stark einbrechen.
Ich kenne nur keinen der so viel geld für eine gpu ausgeben hat und es dann so stark runter drosselt das der stromverbrauch passt.
jede starke Hardware die so stark gedrosselt worden ist, verliert halt sehr stark an Leistung das ist nun mal Fakt.
und auf man könnte ja mal irgendwann die Leistung brauchen, also auf gut deutsch nie weil anderst kann ich mir das ja nicht mehr vorstellen.
 
Gut ist dein Ansatz, ABER!:
Ich wähle bei jedem GPU Kauf auch nach Effizienz. Nicht um Strom zu sparen, aber warum mehr verbrauchen für das selbe. Es ist eine Eigenschaft einer Karte, das absolut auch berechtigt berücksichtigt werden darf.

Bei den Unterschieden die so aktuell sind, kann man auch gerne je nach Spielzeit mal die Kaufpreisdifferenz über die Zeit ausgleichen. Beispiel 4080 super und XTX.

Dabei hat man bei der 4080 super zusätzlich noch die deutlich höhere RT Leistung.
Also die Effizienz nicht zu berücksichtigen ist schlicht kurzsichtig.

Aber jedem das Seine, wollte es nur erwähnt haben.


Bezogen auf die 4090, kann man natürlich zu Recht sehen, das der Verbrauch bei 360-440W typisch liegt.
Jetzt im Vergleich eine XTX die typisch bei 330-360W liegt.

Das bei 35% mehr Raster und 80% mehr RT Leistung im Parcours. Bei Path Tracing ist die auch dreimal so schnell.


Dazu kommt noch das einige mit der 4090 tatsächlich das Powerlimit leicht reduzieren und so die Effizienz noch weiter steigern, bei dann auch gut gleichen bis niedrigerem Realbverbrauch.
Was Du sagst ist ja alles unbestritten.
Aber die Watt bleiben eben trotzdem und egal, ob man das bessere und, gemessen an den FPS, sogar effizientere Modell hat.
Nicht für jeden ist RT (noch nocht) wichtig oder gar kaufentscheidend und hier sieht dann eine XTX (die man übrigens ebenfalls optimieren kann) gar nicht mehr sooo schlecht aus.
Gruß T.
 
Was Du sagst ist ja alles unbestritten.
Aber die Watt bleiben eben trotzdem und egal, ob man das bessere und, gemessen an den FPS, sogar effizientere Modell hat.
Nein (Die Watt), der Energiekonsum bleibt nicht.

Wenn ich eine sowieso schon effizientere Karte, im Powerlimit weiter kastriere senke ich den Verbrauch.

Eine 4090 mit 300W Powerlimit leistet ohne zusätzliches UV noch das was die 4080 leistet, eher sogar noch mehr und verbraucht trotz des größeren Speichers noch weniger.

Bei 320W leistet die noch relativ deutlich mehr und verbraucht das selbe.
Egal ob ab Werk 450W drauf steht, dann sind es nurnoch maximal 320W.
Nicht für jeden ist RT (noch nocht) wichtig oder gar kaufentscheidend und hier sieht dann eine XTX (die man übrigens ebenfalls optimieren kann) gar nicht mehr sooo schlecht aus.
Gruß T.

Hä...
DLSS sieht weiterhin besser aus. RT für dich nicht wichtig, aber für andere und selbst ohne RT ist die 4090 mal eben 1/3 schneller.

Ok, ganz ohne RT wäre die XTX auch für mich eine Option gewesen, die 24GB sprechen dann klar für die. Aber FSR hat ein paar Eigenschaften, die für mich es leider in jetziger Form ausschließen.

Man kann sich eine XTX sicher schön saufen (nur eine Anspielung), aber die 4090 bleibt immer die bessere Karte und in Summe über alle Eigenschaften sogar Meilenweit.
 
Zurück