Nvidia Ada Lovelace: Maximale Powerlimits der GPUs geleakt

Dann musste ne 2080 gegen ne 4060 tauschen.... :ka:

Die GPU ist nicht das einzige, was auf einer Grafikkarte Strom verbraucht. Alleine ob GDDR6 oder GDDR6X verwendet wird macht einen großen Unterschied.
Macht immer noch keinen Sinn wenn man die vermeintlichen Speicherausstattungen ansieht?

AD102 24GB GDDR6X
AD103 16GB GDDR6C
AD104 12GB GDDR6X
AD106 8(?)GB GDDR6

Ich gehe davon aus wir sehen hier max-Peakwerte auf die, die Stromversorgung ausgelegt werden muss.
 
Spielzeit und Kosten sind nicht das Problem - die Abwärme ist es. Ich kann 450W Abwärme nicht sinnvoll abführen. Das wird laut, mein RAM wird instabil da das Gehäuseinnere >50°C steigt und ich schwitz mich kaputt weil ich unterm Dach wohne wos dann nach 2 Stunden spielen 35°C inner Bude hat. Ein 500W-PC beim zocken ist praktisch ein Heizlüfter auf mittlerer Stufe.
Die paar Euro Stromkosten sind mir egal, die Wärmemenge an sich ist mein Problem.

Sowas ginge nur mit WaKü und externem Radi in anderem Raum oder bestenfalls draußen. Und den Aufwand mache ich mir für den Zweck nicht (mehr).
Genauso sieht es auch bei mir aus! Ich habe jetzt ohne meinen Zockrechner schon 28° im Zimmer. Heizung ? Nein danke! :D
 
Für den Verbrauch ist nicht die Speichermenge entscheidend sondern die Anzahl an Speicherchips (und deren Anbindung). 16 GB GDDR6 aus 8x2er Steinen verbraucht etwa dasselbe wie 8 GB GDDR6 aus 8x1er Steinen.
Macht immer noch keinen Sinn.

AD102 24GB = 12 x 2GB
AD103 16 GB = 8 x 2GB
AD104 12GB = 6 x 2GB
AD106 8 GB = 4 x 2GB

Abgesehen von Typ und Taktung ergibt sich da kein Unterschied und die größeren Karten haben mehr Speicherchips.

Wenn man von DT-Wert ausgeht ergibt sich W/SM

AD102 5,5 W/SM
AD103 5,3 W/SM
AD104 6,6 W/SM
AD106 7,2 W/SM

Für die TDP kämme man auf:

AD102 3,1 W/SM
AD103 5,0 W/SM + 61%
AD104 5,8 W/SM + 16%
AD106 6,4 W/SM + 10%

Realistisch wäre AD102 dann bei 4,4W/SM -> was ~650W wären

Ich gehe davon aus, dass AD102 in der HGX Anwendung eine Version mit knapp 800W TDP wird.

Am Ende sähe es dann im Desktop so aus, wenn man die TDP der kleinen Karten als richtig annimmt:

AD102 650W
AD103 420W
AD104 350W
AD106 230W

alternativ, wenn man die TDP der großen Karte als richtig annimmnt:

AD102 450W
AD103 320W
AD104 270W
AD106 180W
 
Am Ende sähe es dann im Desktop so aus, wenn man die TDP der kleinen Karten als richtig annimmt:

AD102 650W
AD103 420W
AD104 350W
AD106 230W

alternativ, wenn man die TDP der großen Karte als richtig annimmnt:

AD102 450W
AD103 320W
AD104 270W
AD106 180W
Wenn man unterstellt, dass die W/SM ähnlich sind und die Karten am gleichen Betriebspunkt betrieben werden ja - aber das wird eher nicht so kommen.
Dass kleinere Chips mehr Watt pro SM bekommen (und in aller Regel auch höher takten) ist üblich und nichts neues. Ich würde auch die 4090er nicht als Ankerpunkt wählen um die anderen karten darauf auszurichten - die 4090er wird ein Prestigeprojekt sein wo die TDP keine wirkliche Rolle spielt sondern nur, dass man die schnellste Karte stellt.

Die "niedrigeren" Karten würde ich eher an der 4080er festmachen - und da ists noch davon abhängig ob die den AD103 bekommt oder doch einen AD102salvage, was auch davon abhängt wie RDNA3 eingeschätzt wird.
 
All das habe ich grob berücksichtigt. Bei den Gerüchtem muss man einfach sagen dass die Differenz zwischen DT und TDP bei AD102 einfach überhaupt nicht zu den anderen Karten passt.

50% mehr Speicher + 71% mehr SMs bei nur bei 62% Leistungsaufnahme pro SM müsste in der Leistung nur sehr knapp vorne liegen. Geht man von den DT-Werten aus, dann sähe ganz anders aus.
 
Absurde Verbrauch käme das so (und wird sicherlich so ähnlich auch kommen)!
Ich sitz die kommende Gen aus, dass wird mir zu wild, hab ne 3090 und nen Ryzen 9 5950x drin, (wohne Dachschräge) und es macht mit diesen Wattschleuder(n) schon fast keinen Bock mehr die Kiste anzuschmeißen. Leistung ist geil, aber die Abwärme bescheuert. Derweil hab ich die 3090 gut undervolted auf 850mV/1800mHz und die ist schon nicht mehr so süffig um 320 Watt.
Aber 30 Grad Raumtemp, PC an und halbe Std später 33... ?? Und der Hochsommer kommt noch.
Die sollen mal Effizienz lernen, siehe Apple, es geht nämlich anders.
 
Absurde Verbrauch käme das so (und wird sicherlich so ähnlich auch kommen)!
Ich sitz die kommende Gen aus, dass wird mir zu wild, hab ne 3090 und nen Ryzen 9 5950x drin, (wohne Dachschräge) und es macht mit diesen Wattschleuder(n) schon fast keinen Bock mehr die Kiste anzuschmeißen. Leistung ist geil, aber die Abwärme bescheuert. Derweil hab ich die 3090 gut undervolted auf 850mV/1800mHz und die ist schon nicht mehr so süffig um 320 Watt.
Aber 30 Grad Raumtemp, PC an und halbe Std später 33... ?? Und der Hochsommer kommt noch.
Die sollen mal Effizienz lernen, siehe Apple, es geht nämlich anders.
Im sommer merkst auch 200Watt?
 
Für mich käme da aus Sicht der TBP also höchstens AD106 in Frage. Nicht wirklich spannend bislang.
Mein PV-Kraftwerk kann ich derzeit nicht vergrössern und ich will keine Klimaanlage anschaffen müssen.
 
Nvidia muss ja mächtig Schiss vor AMDs Antwort haben wenn sie die Karten so an der Kotzgrenze betreiben.

Leider fürchte ich, dass RDNA3 keinen Deut besser wird. Naja, spart Geld. Meine 1080 Ti ist ja noch gut...hätte nicht gedacht, dass die am Ende mal (mindestens) drei CPU Generationen sehen wird, angefangen beim 3770K, dann ein 1700X, und nun im Herbst vermutlich Zen 4 oder Raptor Lake.
 
Also bitte, wo soll das denn Bashing sein?
nVidia hat ja mit der 3000er Reihe am besten gezeigt das deren Mehrleistung durch einen Großteil nur durch das erhöhte Powertarget kommt... Ne Grundlage hat das ganz schon.
Das stimmt +/- für die Rasterisierung, nicht aber für RT.

Mit dem Schritt auf einen deutlich kleineren Prozess sollte die Leistung/Watt massiv zulegen.

Die 4090(Ti)/Titan wird in jedem Fall der Nachfolger meiner 3090 außer von AMD kommt ein Knaller der AD in VR restlos abhängt.
 
Also bitte, wo soll das denn Bashing sein?
nVidia hat ja mit der 3000er Reihe am besten gezeigt das deren Mehrleistung durch einen Großteil nur durch das erhöhte Powertarget kommt... Ne Grundlage hat das ganz schon.

Wo das Bashing ist? Es ist grober Unfug und nur als Provokation gedacht. Sieht man auch an seinem nächsten Kommentar.

Ampere und RDNA2 verbrauchen ähnlich viel Strom bei annähernd gleichen Leistungswerten. RDNA2 ist in 1080p vorne, WQHD circa Gleichstand, 4K Ampere vorne. Dazu hat Ampere deutlich mehr RT Leistung.

Nimmt man jetzt den Prozess-Node raus (Samsung 8nm vs TSMC 7nm) dann sind beide Hersteller was Perf/Watt angeht gleichauf. AMD hat halt etwas mehr Kohle hingelegt für den besseren Prozess, natürlich ist da die Perf/Watt etwas besser bei reiner Rasterleistung. Außerdem verbraucht GDDR6X Speicher etwas mehr Strom als GDDR6.

Nvidia muss ja mächtig Schiss vor AMDs Antwort haben wenn sie die Karten so an der Kotzgrenze betreiben.

Leider fürchte ich, dass RDNA3 keinen Deut besser wird. Naja, spart Geld. Meine 1080 Ti ist ja noch gut...hätte nicht gedacht, dass die am Ende mal (mindestens) drei CPU Generationen sehen wird, angefangen beim 3770K, dann ein 1700X, und nun im Herbst vermutlich Zen 4 oder Raptor Lake.
Du widersprichst Dir im selben Post: NV hat Schiss vor AMD und legt deswegen bei den TDPs drauf, womit sie dann ähnliche TDPs haben wie die AMD Karten. Häh? :schief:
 
Eine 4090 müsste dann bei Cyberpunk2077 mit max Details und Pyscho-RT (3440x1440 oder höher noch) wenigstens 90 - 100fps liefern und nicht nur irgendwo knapp über der Hälfte dieser fps herumeiern.
 
Verbrauch ist das eine, das Abführen der Wärme das andere. AIO Geschosse wird es nicht mit 120er Radiator geben.

Doch, mit einer Wassertemperatur von 60 °C.

Dual Slot wie die leiseste 1070 von EVGA mit dem ACX Kühler ? Ist Geschichte.

Willst du leise und 450 Watt? Dann 4 Slot Kühldesign zu exorbitanten Preisen.

Viel hilft wohl viel.

Danke.
 
Eine 4090 müsste dann bei Cyberpunk2077 mit max Details und Pyscho-RT (3440x1440 oder höher noch) wenigstens 90 - 100fps liefern und nicht nur irgendwo knapp über der Hälfte dieser fps herumeiern.
Kann ich mir bei bestem Willen nicht vorstellen, dass das die nächste Generation schon packt. Nicht mit "nur" 144 SMs. Selbst wenn das Flagship von AD doppelt so schnell wird wie die RTX 3090 Ti wird es dafür niemals reichen
(außer du meinst mit DLSS).

Ich werde Cyberpunk 2077 frühestens mit der übernächsten GPU-Generation anrühren (ich will aber auch UHD@120FPS nativ). Dann sollte es auch durchgepatcht und alle DLCs draußen sein. ^^
 
Spielzeit und Kosten sind nicht das Problem - die Abwärme ist es. Ich kann 450W Abwärme nicht sinnvoll abführen.
Sowas ginge nur mit WaKü und externem Radi in anderem Raum oder bestenfalls draußen. Und den Aufwand mache ich mir für den Zweck nicht (mehr).
Naja, es gibt keine bezahlbare externe Wakü für diesen Zweck. Ich hab ein Aquaduct 720XT. Das schafft mit Mühe und Not meine CPU und die 3090er. Ein 4090 wird nicht funktionieren. Es gibt eine externe Wakü, die aber nix kann, ausser kühlen für schlappe 1900 Euro. Völlig indiskutabel. Dann gibt es noch einen Chiller von Alphacool. Kühlt wie die Hölle für einen Tausender, hört sich aber an wie ein Sturzkampfbomber.

Also reden wir über das was geht.

Ich habe mir in Vorbereitung für die 4090 einen weiteres Define 7xl gekauft + 2 Radiatoren 4x120 + 2 x140 sowie 9 Handverlesene Lüfter + Ausgleichsbehälter und Pumpe sowie diverse Sensoren. Kostet in Summe 1.1 K. Sollte aber lange halten. Mein Aquadukt läuft nun 6 Jahre am Stück und zeigt trotz mittelmäßiger Hardware keine ermüdungs - erscheinungen.

Das Gehäuse läst sich im Zweifelsfall um einen weiteren Radiator ( 4 x 120 mm oder 3 x 140 mm ) erweitern.

Ich hoffe nur das mein 1000 Watt Netzteil reicht.

Wir kommen auf Dauer an einer Wakü kaum vorbei und dann lieber einmal richtig machen.

Und gegen die aktuellen Temperaturen hilft eh nur ein Klimagerät.
 
Zuletzt bearbeitet von einem Moderator:
Nvidia muss ja mächtig Schiss vor AMDs Antwort haben wenn sie die Karten so an der Kotzgrenze betreiben.

Leider fürchte ich, dass RDNA3 keinen Deut besser wird. Naja, spart Geld. Meine 1080 Ti ist ja noch gut...hätte nicht gedacht, dass die am Ende mal (mindestens) drei CPU Generationen sehen wird, angefangen beim 3770K, dann ein 1700X, und nun im Herbst vermutlich Zen 4 oder Raptor Lake.
Ich bin auch noch mit der Generation unterwegs, allerdings ne ganze Ecke schwächer: 1070 ;-).

Aber unter 1080@60fps kriegt die selbst aufwändigere Spiele wie FC6, CP2077 u.ä. noch einwandfrei hin. Im Februar 2019 für 269€ im Abverkauf erworben, müßten jetzt unter 7€ im Monat sein, tippi toppi.

Weswegen ich aber eigentlich schreibe: Ich habe eben mal den Strommesser zwischengeklemmt aufgrund des Artikels hier und habe Werte zwischen 108w - 143w angezeigt bekommen (Anno 1800, DoomE, FH5). Für den gesamten Rechner nicht schlecht oder? Erst recht, wenn man bedenkt, daß da auch ein 10700 drinsteckt, welcher allerdings gedrosselt auf 65w läuft.

Ich vermute aber, auch mit einer 4070 sollte man unter 200w für alles bleiben können, wenn man mit meiner Micro™-Auflösung und fps-Zahl unterwegs ist. Weswegen die für mich totaler overkill wäre. Ich werde mich irgendwann eher nach einer 3070 umschauen für unter 300€ und wenn ich ehrlich bin, würde es sogar eine 2080 tun und ich hätte wieder mindestens 3 Jahre Ruhe. Diese Rechnung geht nur aus einem einzigen Grund eventuell nicht auf, wenn ich anfange, RT nicht mehr als Blödsinn zu empfinden, welcher mir für einen recht geringen Gegenwert die Bildrate pulverisiert. Hier kommt allerdings Hirnwindung B ins Spiel, welche abgespeichert hat: NVidia hat dafür zu sorgen, daß diese Technik zufriedenstellend im Massenmarkt bis 300 Mücken ankommt. ICH! KAUFE! KEINE! BRETTER! FÜR! 700! BIS! 2000! EURO! Gut, gell? :-P
 
Mein Wasserkocher braucht 800W, vielleicht versuchen Nvidia und AMD jetzt im Heizungssegment Fuß zu fassen.
Ich betreibe meine 3080 schon jetzt nur noch mit Powerlimitierung und wenn verfügbar mit DLSS so brauch mein Ganzes System mit Sound und Monitor beim Spielen ca.350W.
 
Zurück