News Geforce RTX 5000 ("Blackwell"): Nvidia soll Kühllösungen mit bis zu 600 Watt testen [Bericht]

Als ich vor kurzem geschrieben hatte ich sehe für die 5090 ne TDP von möglichen 500-600W schrieb man noch warum und woher kommen die Zahlen usw


...jetzt gibts ein neues Gerücht dazu und schon ists gesetzt.
Ich sollte professioneller Leaker werden. Dafür muss ich mir nur angewöhnen die ganzen Begründungen wegzulassen warum ich 500W erwarte... :ugly:

Wie viels am Ende wird ist ja fast frei wählbar von NV. Da keine Konkurrenz sichtbar ist würden auch 400W und 2 - 2,5 GHz reichen um das Topmodell zu stellen. Wenn AMD um die Ecke kommt gibt's dann nen Refresh mit 500 oder 600W je nachdem welche Performance nötig ist. Vielleicht bleibt NV erstmal bei den etablierten 450W.
 
Als ich vor kurzem geschrieben hatte ich erwarte für die 5090 ne TDP von 500-600W schrieb man noch warum und woher kommen die Zahlen usw


...jetzt gibts ein neues Gerücht dazu und schon ists gesetzt.
Ich sollte professioneller Leaker werden. Dafür muss ich mir nur angewöhnen die ganzen Begründungen wegzulassen warum ich 500W erwarte... :ugly:
Du solltest Hellseher werden. Dann kannst du mir noch ein paar Lotto-Tipps geben. :D

Ne mal im Ernst: das überrascht doch keinen. Will man leistungsmäßig gegenüber der Vorgängergeneration noch ordentlich ne Schüppe drauflegen muß man die TDP erhöhen.

Richtigen Enthusiasten ist das wahrscheinlich eh egal.:devil:

*ich gehöre nicht dazu*:P
 
leaker zu sein braucht man nicht nur wissen mit welchen node die chips hergestellt werden dann ergibt sich der rest von Selbst abseits vom Design das leider vermutlich auf Software Verbesserungen stützt.
Abseits der sku die diesmal wirklich besser sein könnten als bei ada insbesondere beim vram dürfte der sprung diesmal kleiner ausfallen.
Am ende ist das ne frage von P/L ada verkauft sich sehr schlecht und der altbestand verkauft sich gerade gar nicht
 
Hab' die Hoffnung, dass für einen Silent-Anspruch die Kühllösungen entsprechend ausgebildet werden...
Nunja ist eine Hoffnung, die sich wahrscheinlich nicht bewahrheitet
 
Hab' die Hoffnung, dass für einen Silent-Anspruch die Kühllösungen entsprechend ausgebildet werden...
Nunja ist eine Hoffnung, die sich wahrscheinlich nicht bewahrheitet

Das ist eher davon abhängig ob du bereit bist auf die letzten 10% Performance zu verzichten... falls ja kann man so ne Karte sicher auch mit 300-350W betreiben und das ist mit aktuellen Riesenkühlern ziemlich leise machbar.
Ja mit UV. Dann ist die Karte vielleicht immer noch 20-30% schneller als eine RTX 4090.
 
Frag mich wozu... ich war diesmal echt so doof und hab dem 4090 Rechner nen fettes 1000W Netzteil spendiert, aber das brauchen die Karten ja nicht mal. Selbst mein i7-10700KF mit der 3090 rennt mit Horizon in 4K problemlos mit dem 550er Netzteil, und wenn ich mir die Daten vom Smarthome ansehe zieht der keine 450W aus der Steckdose.. und wenn die 4090 effizienter ist als die alten 3090 dann würde da wohl locker ein 600er schon reichen...
Wo verbraten die Karten denn diese Leistung die sie theoretisch verbraten könnten? Is das reines Benchmark-Umfeld oder wie bekommt man das in der Praxis hin?
 
War das nicht auch schon Thema bei rtx40 launch so als Gerücht
Nvidia wechselt den node nicht und erhöht sogar die packdichte das wird heiß b...

Ich dachte wenn die 5090 doch auf den Markt kommt mit der Fertigung wird die Handbremse angezogen, damit sie noch über die 4090 kommt aber kein Wattmonster wird. Wird wohl doch Eines.

Solange die Karte nicht laut ist, kann die auch von mir aus 800 Watt ziehen.

Ich freue mich schon auf die Memes... Fermi 2.0 etc.

Dieser Pfad gefällt mir nicht, anstatt krampfhaft jedes kleine bisschen an Leistung herauszuholen, nach dem Motto, koste es was es wolle, sollte es lieber so gehen das es zwar mehr Leistung gibt, aber dabei auch weniger verbraucht wird. Der Konkurrenzkampf verhindert jedoch eine Verbesserung mit Vernunft, der sweetspot wird immer ignoriert, nur die undervolter realisieren es manuell. Amd hat selbst gesagt das sie die nächsten Jahre keine Oberklasse Herstellern werden, nVidia wird nicht genötigt zu übertreiben.

Bei RTX4000 gingen die Gerüchte doch bis zu 900W hoch... Also mal locker bleiben und nicht vergessen das die 4090 mit zu den effizientesten Karten gehört...
Ach was .. von mir aus kann die auch 1.800 Watt ziehen .. ist ja nicht meine Stromrechnung. Ich bleib weiterhin im +/-250W-Dunstkreis.
Mal drüber nachgedacht, das es auch anders sein kann ;)

Wenn meine PV Anlage mit 10 von 12 Monate Autark sein lässt, warum soll es mich dann stören ob meine GPU 600, 800, oder 1800W verbraucht...

Dazu kommt, selbst ohne PV Anlage. Wer will entscheiden welches Laster ok ist und welches nicht.
 
Ah, das könnte die versprochene Wärmepumpen - Serie von Nvidia sein .
//s
( Für alle Klugsch*isser: Mir ist klar, das dieses NICHTS mit dem Prinzip von WP zu tun hat 😁)

Irgendwie freue ich mich auf die 5xxxx Generation.😋😎
 
Ja mit UV. Dann ist die Karte vielleicht immer noch 20-30% schneller als eine RTX 4090.
Woher kommen die 20-30%

Gab auch bei RTX4090 einige Berichte zum Powerlimit und UV... Die meisten haben bei 350W kaum Einbußen, noch ohne UV.

Dazu noch UV und VRam OC...

Man kann auch bei der 4090, ohne das man es im Blindtest merken würde sicher auf 320W kommen. Und mit den verbauten Kühlern, geht das dann wirklich in Silent. Sofern man die richtigen Karten gekauft hat.
 
Wo verbraten die Karten denn diese Leistung die sie theoretisch verbraten könnten?
In Szenarien wo die GPU voll gefordert wird bzw viele Features abgerufen werden, insbesondere RT in hohen Auflösungen.

Du brauchst nur Quake mit Pathtracing in 4K anzuwerfen schon klebt jede RTX4000er hart im TDP Limit. ;-)

Wenn du so "wenig" Verbrauch mit deiner 4090 hast liegt das einfach daran, dass die GPU von deinem Spiel/Einstellungen nicht besonders stark gefordert ist (was aber bei den allermeisten Spielen die Regel ist, deswegen reizt eine 4090 ihre 450W nur selten aus)
 
Frag mich wozu... ich war diesmal echt so doof und hab dem 4090 Rechner nen fettes 1000W Netzteil spendiert, aber das brauchen die Karten ja nicht mal. Selbst mein i7-10700KF mit der 3090 rennt mit Horizon in 4K problemlos mit dem 550er Netzteil, und wenn ich mir die Daten vom Smarthome ansehe zieht der keine 450W aus der Steckdose.. und wenn die 4090 effizienter ist als die alten 3090 dann würde da wohl locker ein 600er schon reichen...
Wo verbraten die Karten denn diese Leistung die sie theoretisch verbraten könnten? Is das reines Benchmark-Umfeld oder wie bekommt man das in der Praxis hin?
1. Mit einem 10700kf wirst du die 4090 schon nicht ganz ausfahren.
2. Das hängt halt stark am Spiel, ich würde mal vermuten das eine 4090 in Alan Wake 2 mit PT und in Cyberpunk mit PT so ziemlich am meisten frisst, sofern die CPU schnell genug ist. Natürlich in hohen Auflösungen ;).
3. was nützt ein Netzteil das auf ein meistens anzutreffendes Szenario ausgelegt ist, wenn es dann im Worstcase ausgeht.

Dein 600W Beispiel würde nämlich genau das machen, wenn man zum Beispiel eine 14900ks mit einer 4090 kombiniert...

Man sieht meistens eher um 450W aus der Dose, wenn das Spiel anspruchsvoll ist. Aber das können halt in manchen Szenen auch knapp 650W, oder noch mehr sein, je nach restlichem System.

Die Peaks können dann auch schon mal Richtung 850W gehen.
 
Ach was .. von mir aus kann die auch 1.800 Watt ziehen .. ist ja nicht meine Stromrechnung. Ich bleib weiterhin im +/-250W-Dunstkreis.
Balkonkraftwerk Regelt schon.
1. Mit einem 10700kf wirst du die 4090 schon nicht ganz ausfahren.
2. Das hängt halt stark am Spiel, ich würde mal vermuten das eine 4090 in Alan Wake 2 mit PT und in Cyberpunk mit PT so ziemlich am meisten frisst, sofern die CPU schnell genug ist. Natürlich in hohen Auflösungen ;).
3. was nützt ein Netzteil das auf ein meistens anzutreffendes Szenario ausgelegt ist, wenn es dann im Worstcase ausgeht.
Ein Aktueller i5 14600K hast schon seine Probleme mit der 4090.^^
 
Was die Kosten angeht garantiert. Bei den Zahlen ists halt nur immer aufwendiger das leise zu kühlen. Wenn deine Grafikkarte 600W rausschiebt musste halt noch nen Eimer Geld rechnen für ne WaKü mit MoRa und ne Klimaanlage im Sommer fürs Zockerzimmer... :-D
Ich frage mich da immer, bei den heutigen Karten und Kühlern.
Die meisten Nutzer setzen auf ATX Boards und wollen auch eher nicht mATX und sicher eher nicht ITX.
Aber wozu, wenn die GPU sowieso jede weitere Erweiterungskarte unmöglich macht.


Einige 4090 waren selbst 3,5 bis 4 Slot breit und dazu noch 1-2 Slot zum Atmen, da hat sich auch ATX erledigt...

Die einzige Möglichkeit ist nur mit Wakü, dann hat man die Möglichkeit noch weitere Karten zu setzen.
Balkonkraftwerk Regelt schon.

Ein Aktueller i5 14600K hast schon seine Probleme mit der 4090.^^
Und das obwohl der nur gute 10% hinter dem 14900k(S) liegt. Oder dem 7800X3d. und mit schnellem Ram auch diese mit Stock Stettings einholt.
 
Zurück