Geforce RTX 4090: Deutlich höhere TDP und möglicher Ankündigungstermin

Meine MSI RTX 3090 Suprim X zieht bis zu 469W.
Wo soll das den jetzt noch hin gehen :(
Bist halt selber schuld, wenn du die Karte nicht untervoltest oder mit Custom Curve nutzt. Meine 3090 Suprim X läuft mit 330 Watt Powerlimit und Custom Curve. Gibt nur wenig Situationen in denen der Takt auf ca. 1700 MHz fällt.

Der VRAM ist obendrein noch um 700 MHz übertaktet.
 
100W wären mir auch egal - wenn wir die News / das Gerücht aber mal als Grundlage nehmen, reden wir eher von insgesamt 700W und mehr, da kommt man mit +100W nich mal ansatzweise hin.
Halte ich aber für Unsinn. Die 4080 soll bei 450W und die 4090 bei 800W liegen. Zwischen 3080 und 3090 liegen 30W und ich denke mal bei Lovelace wird es ähnlich sein.
Wenn sie für < 10% Leistungsunterschied die TDP fast verdoppeln müssen, wäre das absoluter Wahnsinn. Das traue ich nicht mal Nvidia zu.
 
Zuletzt bearbeitet:
Dann kommt mein evga T2 Titanium 1600W so langsam in seinen sweetspot…

Mal sehen was AMD zu bieten hat, dann wird entschieden.
 
100W wären mir auch egal - wenn wir die News / das Gerücht aber mal als Grundlage nehmen, reden wir eher von insgesamt 700W und mehr, da kommt man mit +100W nich mal ansatzweise hin.
1. bei dem 1500w netzteil geht es eher um die lastspitzen wenn überhaupt halte ich das gerücht für sehr stark übertrieben.....
2. wenn der neue pcie 5.0 stecker zum einsatz kommt dann kann hier bis zu 600w gezogen werden heißt man ist auf eine tdp von 600w begrenzt
ergo erweißt sich das gerücht schon als sehr falsch
3. die specs zum neuen stecker sind noch nicht final beschlossen das zieht sich noch deswegen halten sich viele noch sehr bedeckt was den stecker angeht....
hier hat igor schon viel berichtet darüber
4. wenn man die stark übertakteten modelle nimmt sind das in der tat nur 100w mehr von 3090 zu 4090....
Noch mehr Stromverbrauch?
Ich habe jetzt schon eine Stromrechnung von 120€, sorry aber bis hier hin und nicht weiter.
dann machst du iwas falsch.....
ich komm zb mit monatlich 60 euro sehr gut hin

aufs jahr sind das so 720 bis 750 euro
Bist halt selber schuld, wenn du die Karte nicht untervoltest oder mit Custom Curve nutzt. Meine 3090 Suprim X läuft mit 330 Watt Powerlimit und Custom Curve. Gibt nur wenig Situationen in denen der Takt auf ca. 1700 MHz fällt.

Der VRAM ist obendrein noch um 700 MHz übertaktet.
der vram geht noch viel höher ;)

1700mhz wäre mir jetzt zu wenig ;)
 
Da es heuer aller Voraussicht nach einen neuen PC bei mir geben wird, werd ich den wohl mit nem 1200W Netzteil ausrüsten. Wehe es kommt mir einer bei der Kaufberatung mit nem poppeligen 850W Netzteil. :slap: Die neue Nvidia-Generation will wohl gut versorgt sein! :D
 
Nervig dieser Sh**t mit der steigenden Stromaufnahme.
Ja klar hab ich die 3080 TI Strix OC mit dem Werks-Bios von 400 Watt und der Option auf 450 Watt..
Aber 350 @Stock sind schon genug gewesen...
Zumal es echt nervt wenn die Karte bei Dying Light 2 / Cyberpunk 2077 Volllast fährt, heizt und heult...

Und dann muss ich schauen welche Karte mein 850 Netzteil noch problemlos mitmacht... nee nee

Ich schau welche Karte bei den 4xxx min 12 GB und bessere Shader/RTX Leistung wie meine 3080 TI hat und weniger verbraucht.
Wenn das dann ne 4070 ist, auch egal aber 450 Watt+ mach ich nicht mit.
 
eine Höhere Leistungsaufnahme finde ich so langsam nicht mehr lustig :(
meine MSI RTX 3090 Suprim X zieht bis zu 469W.
Wo soll das den jetzt noch hin gehen :(

Die treiben das Spielchen so weit, bis die Bluthunde von der EU drauf aufmerksam werden und die Leistugsaufnahme von PC Hardware reglementieren. Ist ja bei fast allen Elektrogeräten eh schon der Fall, Staubsauger sind deshalb schon seit Jahren auf maximal 900 Watt begrenzt.
 
Leistung x2.5 bei einer verdoppelten Leistungsaufnahme ist für mich jetzt nicht so der große Reißer aber vermutlich wird sich die Konkurrenz ähnlich orientieren. Da bekommt dann Highend-Gaming langsam eine neue Definitionsrichtung und einen leicht faden Beigeschmack, wenn man sich den Rest der Welt bezüglich Energieverbrauch ansieht. Da scheinen irgendwie gegensätzliche Tendenzen zu herrschen.
 
2,5fache Leistung bei doppelter Stromaufnahme bedeutet quasi Null IPC-Zuwachs?
Das bekommt man ja schon alleine durch den Wechsel auf die bessere Fertigung bei TSMC.
Das würde bedeuten, man verdoppelt einfach alle Ausführungseinheiten, udn das passt dann eben noch so auf den Die dank kleinerer Fertigungsstruktur.
Fertig ist die eierlegende Wollmilchsau und mit noch höheren Gewinnspannenn durch höhere Priese und sehr niedrigen Entwicklungskosten (ohne Anstrengung ein neues Produkt, super) freuen sich auch die Investoren.
Also ich kann das irgendwie nicht glauben.

Übrigens:
Gas wird teurer, und jetzt im Krieg erst recht.
Gas wird aber nicht nur zum heizen, sondern auch zur Stromerzeugung benötigt.
Und mit der Abschaltung der Atomkraftwerke, Kohlekraftwerke hat Deutschland nicht mehr genug Strom, man will von der Regierung (ja, die Grünen gehören dazu) deshalb einfach noch mehr Gaskraftwerke bauen.
Irgendwie müssen die jetzt noch hinzukommenden Millionen tonnenschweren "E"-Autos mit ihren dicken Motoren ja auch noch versorgt werden, was nochmal mehr Kraftwerke und Zukauf an "Ökostrom" aus französichen Atomkarftwerken bedeutet.
Wir sehen also, auch der Strom wird ein Luxusgut und immer stärker im Preis steigen.
Wir reden jetzt um eine Vervielfachung, wenn man auf die neuen Angebote bei Check24 schaut.
Daher kann ich absolut nicht nachvollziehen, warum es hier so viele Leute überhaupt nicht juckt, dass die Karten derzeit dermaßen stark im Stromdurst steigen und es willentlich und mit Beifall gekauft wird.
Hat man nicht damals geschimpft und geflucht, als es Karten gab, die unter Vollast über 200, ja fast 300 Watt geschluckt haben?
Uuuu, die böse AMD R390, ich glaube eine MSI Custom hat damit die 300 Watt geknackt bekommen, oder?
Natürlich wurde das zurecht bemängelt und es gab zurecht negative Reviews dazu.
Aber wäre es jetzt nicht mal langsam an der Zeit, auch Taten folgen zu lassen?
Man kann ja gerne darüber streiten, ob man sich noch die teuren 300-350 Watt Heizstrahler der aktuellen Generationen kaufen soll und darf, aber wenn die ganzen Gerüchte für die Nachfolger auch nur zur Hälfte stimmen, wäre ich jedem Käufer solcher Sachen wirklich böse, das auch noch absichtlich zu unterstützen, so etwas ist einfach nicht mehr mit einem gesunden Menschenverstand zu rechtfertigen.
Das ist genauso abstoßend wie Leute, die es nicht einsehen wollen, dass man im Winter einfach nicht mehr als 5-10 Minuten einmal richtig lüften sollte, aber keine halbe oder ganze Stunde am Stück.
Und diese regen sich dann anschließend auch noch darüber auf, dass die Heizung wieder volle Kanne anspringt und nach wenigen Minuten der Raum so heiß wird, dass die schon wieder das/die Fenster aufachen wollen, weil es ihnen zu warm im Haus/Büro ist.
So etwas geht einfach nicht.
Bitte denkt mal mit (vor allem aber auch die Hersteller!)
Meine Meinung.
Ich werde mir jedenfalls nächstes Jahr eine kleine Mittelklassekarte holen, die unter den besagten 300 Watt rangiert, lieber wären mir maximal 200 Watt, so wie jetzt in meinem jetzigen Rechner vorhanden.
Das reicht völlig für einige Jahre.
Ich habe genug Geld angespart, um mir auch was ganz Fettes leisten zu können, aber nur oder gerade weil es ein Hobby ist, muss man sich immer fragen, ob das denn unbedingt alles sein muss.
 
Zuletzt bearbeitet:
Spätestens das labile 115V-Stromnetz in den USA wird diesem Gebaren ein Ende setzen und auch bei uns wird in vielen Haushalten bei spätestens 2,5kw Schluss sein. Eine Verdopplung wäre also noch drin. Mal gucken wie die das gekühlt bekommen. Hab' gehört die Autoindustrie hat noch Wasserkühler und Radiatoren übrig, weil Chips für den Autobau fehlen.
 
Schuss nicht gehört?
1500 watt Netzteil, echt jetzt ???
Erst diese unverschämten "UVP" Preise dann solche Angaben beim Stromverbrauch...
die können mich, da hört es definitiv auf bei mir !
 
NVIDIA, wir wollen das nicht. 300 Watt für das Top-Modell müssen reichen. Gerne auch 250 Watt. Das hat jahrelang gut funktioniert. Wir brauchen nicht alle zwei Jahre 50% Mehrleistung, wenn diese zu 90% aus höherem Powerbudget besteht.
Wer ist wir? Meinst du mit wir die Forumgemeinschaft? Wenn ja wie kommst du darauf das du für uns alle sprechen darfst?
 
Mit der 1000er und der 2000er Generation hat Nvidia gezeigt das Mehrleistung auch Stromsparend geht, warum jetzt bitte der Rückfall in Zeiten wo Grafikkarten Heizkraftwerken glichen? Und warum jetzt schon wieder eine neue Generation auf den Markt prügeln während die 3000er Generation nicht einmal halbwegs Flächendeckend bei den Spielern angekommen ist?
 
Zurück