News Geforce RTX 5000: Blackwell mit höherer Leistungsaufnahme?

@Nathenhale eine RX 6800 XT ist auch in SC nicht schneller als eine 4090. Der Typ verbreitet den Mist in mittlerweile mehreren Foren und postet immer nur Fotos mit einem Ausschnitt von seinem Monitor. Man sieht ihn nie wirklich spielen.
Selbst die 4070 würde seine 6800 XT deklassieren, aber lassen wir das.
Warum verdrehst du die Wahrheit ? Ich hab dir per PN sogar Videos geschickt. Meine PN hast du aber bis heute Ignoriert.
Also bist du nur Neidisch und willst behaupten dass ich Lüge, bist aber am Manipulieren weil ich dir schon etliche male die Videos angeboten habe.

@derneuemann Kann dir gern auch das Video verlinken per pn. Interesse ?

@ Nathalie, gut zu wissen dass mit Gigabyte, danke. Dann wirds nächstes mal Asrock für mich :D

Eine RTX 4090 ist rund 6500 mal so schnell wie ein 8800GTX, die Leistungsaufnahme hat sich, zum Glück, aber bei weitem nicht so stark entwickelt.
Der Vergleich ist also ziemlicher Humbug.
Ja und meine 120W RX6800 verbraucht 400% weniger, kostet 500% weniger und leistet in Star Citizen 400% mehr als eine neuere RTX 4090, aber das sollte keine Rolle spielen.
Du kannst auch eine 600W GPU mit einer Geforce 256 aus dem Jahre 1999 vergleichen und mir zeigen wie viel Tausendfach schneller sie ist.
Ändert nichts an dem Unsinn von einem 600W Staubsauger in der Wohnung fürs Zocken.
 
Zuletzt bearbeitet:
Da ist n Denkfehler drin, Kühlschrank auf, Radiator rein, Kühlschrank zu. :ugly:
So kannst du das Geld der Klima sparen und ein 240ger Rad reicht.
Wie viel kW Kühlleistung hat denn ein Kühlschrank?
Denke nicht das der permanent um 500w kühlen kann.
@Nathenhale eine RX 6800 XT ist auch in SC nicht schneller als eine 4090. Der Typ verbreitet den Mist in mittlerweile mehreren Foren und postet immer nur Fotos mit einem Ausschnitt von seinem Monitor. Man sieht ihn nie wirklich spielen.
Selbst die 4070 würde seine 6800 XT deklassieren, aber lassen wir das.
Einfach ignorieren, wenn der selber wirklich daran glauben sollte, dann glücklich sterben lassen.
 
Danke Leute :-)

Ich denk auch das die 5090 um die 3000 eur kosten wird. Diesmal möchte ich versuchen eine Founders-Edition zu ergattern. Da diese hoffentlich darunter liegt. Aber klar wir wissen noch nix. Sind die einfach nur besser geworden ihre Geheimnisse zu bewahren oder kommt die wirklich nicht zeitnahe raus. Bald sind wir vlt schlauer. :)

//Edit: jetzt kommen sie langsam die Infos *jubel*
 
Zuletzt bearbeitet:
So wie erreiche ich mit 102sm etwa 10% mehr perf als die rtx4090
Nun zum design von blackwell es muss 18sm per gpc sein alles andere macht kein Sinn
Das aber wird physisch zum problem für den big chip
das bedeutet das nvidia die knapp 6% von n4 node mitnehmen muss das aber birgt die Gefahr von wärmestau darum der erhöhte verbrauch.
gehen wir mal durch
ad102 aktuell 609mm² 144sm voller chip 450w bei 128sm aktiv 2,8ghz im Normalfall Fe 2,6ghz
609/10*4,5 mehr haben alu und sram nicht tsmc gibt an 6% dense mit n4 =216sm voller chip 192 aktiv =386mm²*1,05=405mm² (sfu Erweiterung 8 per sm)
SI skaliert nicht 609/10*5,5 /4*3/384*512+84=418mm²
418+386=823mm² chip
Den wird es am desktop nicht geben und wenn nur als Abfall titan b mit 144sm =77tf oder +23% ein chip 380$

Der gb203 halber gb202 der chip wird geteilt ist vom design so gewollt. 96-102sm aktiv 108sm physisch
102*104*2*3,1=65769tf oder +12% vs rtx4090 bei 2,6ghz FE Modell

verbrauch rtx4090 450/1,1-30=379w
379/128*102=302w (302*+20)*1,1=354w tbp
Wenn die 400w angepeilt sind dürfte es sich um maxed oc handeln bzw höhere v nötig sein was dies auf gleichem Takt 400w braucht
ich komme zwar auf 410w tbp
Weswegen ich von geringeren vram verbrauch ausgehen muss etwa 16gb mit 17w das bedingt das die vram chips bei nur 1,1v laufen und somit diese min auf sf4e node sein müssen maxed 3,5ghz das erklärt die 28gbps
406w tbp
aktuell laufen gddr6x bei 1,3v (ein chip 1,5w) gddr6 1,2v (1 chip 1,3w)
Wenn nvidia das auf 400w tbp deckelt dürfte der chip bei 1,075v laufen idle vermutlich 0,65v norm 1,07v
sweetspot 1,06v bei (252w+17,6)*1,1=280w tbp 3,0ghz

also wird nur die tbp entscheiden ob die sku gut designt sind.
Mit nur 3,0ghz erreicht man knapp die rtx4090 (aib Modell)
Der node schafft grob 3,1ghz bei gerechneten verbrauch von 405w wo dagegen 3,0ghz 280w sind

ist das nötig? Definitiv nicht wird das nvidia tun, definitiv ja

Gut möglich das man 96sm hat und versucht die 3,2ghz zu erreichen nur das wird nicht gehen da der node das nicht schafft.
Dafür braucht es n3 (maxed 3,4ghz) nur steht sicher das es tsmc n4x wird

Allgemein stellt sich die frage Warum?
Amd wird bis rdna5 nicht konkurrieren man muss also nenn refresh 2025 bringen für die rtx5080 spätestens 2026 als rtx6080
Da macht das kein Sinn ich würde eher die rtx5080 auf maximal 90sm bringen bei entspannten 2,8ghz das spart massiv Energie ein tbp bei 250w
Darunter die rtx5070ti mit 80sm und 220w
Die rtx5070 leider mit samsung sf4 node wird dasselbe brauchen bei 50sm grob 205w tbp 2,4ghz
Alle chips auf tsmc n4 zu bringen fehlt nvidia die Kapazität weswegen ja samsung sf4 für die gb205/gb206 genutzt wird die laptop gb207 laufen auf sf4 node mit 2 gpc (36sm 20sm aktiv)

Es ist schon mutig den gb206 halber gb205 im vollen Ausbau zu bringen mit 36sm als rtx5060 grob 175w tbp
sagt aber das die Teil defekten als rtx5070 rausgehen und die ganzen geteilt werden.
Der volle chip hat 72sm vermutlich nutzbar 64sm
Daher erwarte ich als rtx6070 60sm und rtx6060 auf sf3 node +18% Takt bei 32sm
auch möglich das rtx6060 der volle gb307 wird 32sm bei 3,1ghz und der gb306 gar nicht gebaut wird sprich keine Teilung der gb305 chips.

generell keine dedizierte Masken für gb206 gb203 ist extrem mutig sagt aber das nvidia auf die vollen geht um später mit rubin auf cowos mcm umzusetzen.
Das si wandert auf den unterem chip und darauf kommen die alu dafür ist a18 node zwingend notwendig.
Aber man hat die doppelten alu per chip
gr202 wird 432alu haben 384 aktiv 512bit Si
Und einen zweiten I/O DIE 256bit mit chip 216/192 alu
Die Taktraten liegen bei 3,3ghz und es wird keine kleineren Ausbaustufen geben als gr203
4 sku möglich aus gr203 ab 2028

rtx7080 128sm +-87tf 220w 1000€
rtx7080ti 144sm +-98tf 250w 1600€
rtx7090 160sm +- 109tf 285w 2000€
rtx titan r 192sm +-131tf 320w 3500€

Darunter wird sich nvidia ausklammern was an amd apu liegt die bis 65tf gehen. auf am6 ryzen x1 gen zen8
nvidia Antwort ist ne Kooperation mit intel oder Aufkauf von intel das ist noch unklar.
Sicher ist nur das es keine rtx70 gen unter der 80 class geben wird. Da schlicht keine cpu gibt dafür abseits den legacy am5 Plattform und intel so 1851 beide eol und intel hat nix neues bis 2029
Zumal diese gpu massiv cpu limitierend wird
Da der Takt Weg von amd und intel versperrt wurde.
Intel aus design gründen e-core Fokus und amd aus den falschen node Zyklus n4e und n3e beide optimum 4,6-5,5ghz
Erst zen7 (2026) wird auf am6 auf 6,3ghz kommen in n3x node (nur apu ab 3 renderengines je 20cu 60cu maximum erste gen. +- 33tf)
Intel verharrt bei 5,5ghz und 4,5ghz bis intel 16a sofern der node noch kommt.

Es kann anders laufen dafür müsste intel ein gutes Produkt und einen Plan für ne neue arch haben was derzeit nicht so ist Dank gelsinger.
amd ist auf den klaren Weg zur apu only am desktop die entry und mid class gpu ablösen wird bis 2028
Sofern nvidia und amd die mid class nicht auf min 100tf hievt wovon nicht auszugehen ist. Die Konsolen haben aktuell 10tf und kommend 20tf und das maximum für die ps6 sind 67tf 2027
Die xbox next 2026 33tf
mid class also maximal 60tf 2027 2028 dürfte es kaum machbar sein in a18 node unter 800€ ne dgpu zu bauen
Der a18 kostet per wafer 35000$ und dazu noch imc wafer von 8000$ chip kosten min bei 160$ sku ab 1000€
Kleinere chips lohnen nicht da man bei nur 64sm maximal bei 43tf wäre. und man keine cpu für die dgpu auf dem markt wäre.
Da wird man eher die rtx60 gen weiterlaufen lassen bis am5 eol wird was so 2028 passiert
Das neue entry wird die ps6 ab 2028 sein und man hat nur die Wahl apu oder ps6
Danach folgen doppelte cu per apu mit 120cu ab ryzen x2 2029

ich male immer neue Wege wie es laufen könnte aber je mehr bekannt wird desto wahrscheinlicher wird es.
Der Pc Spielemarkt wird von den Konsolen bestimmt und Microsoft wird ein quasi pc als xbox bringen vermutlich sogar mit nativer Maustasta Unterstützung.

Das Hauptproblem aktueller gpu ist das cpu limit das kann man aktuell nur mit pathtracing bekämpfen in raster ist schlicht nicht mehr möglich das cpu limit aufzuheben.
Und da ziemlich sicher die ps6 bei 67tf erreichen wird muss da die ipc min um 30% steigen
Dazu aktuell möglich durch n3 node +15% der Rest muss durch die arch erreicht werden zumal auf den Konsolen eher nicht von 6,3ghz ausgegangen werden kann denkbar ist es.
Sollte die ps6 auf a18 node kommen -50% Energie wird es interessant da ne 60cu a128 alu =67tf igp mit einen 512bit si 24gb vram bei 190w tbp
 
Ich möchte hier nohmal klar sagen, dass es exakt dasselbe Gerücht schon über die 4090 gab, diese auch im Labor so getestet wurde. Es kam dann anders, auch weil AMD nicht schnell genug war.
Dieses Gerücht hat also einen wahren Kern: Nvidia Tester sicher wieder bis 600W, kommen muss das aber nicht so
 
Zuletzt bearbeitet:
Warum verdrehst du die Wahrheit ? Ich hab dir per PN sogar Videos geschickt. Meine PN hast du aber bis heute Ignoriert.
Also bist du nur Neidisch und willst behaupten dass ich Lüge, bist aber am Manipulieren weil ich dir schon etliche male die Videos angeboten habe.

@derneuemann Kann dir gern auch das Video verlinken per pn. Interesse ?

@ Nathalie, gut zu wissen dass mit Gigabyte, danke. Dann wirds nächstes mal Asrock für mich :D


Ja und meine 120W RX6800 verbraucht 400% weniger, kostet 500% weniger und leistet in Star Citizen 400% mehr als eine neuere RTX 4090, aber das sollte keine Rolle spielen.
Du kannst auch eine 600W GPU mit einer Geforce 256 aus dem Jahre 1999 vergleichen und mir zeigen wie viel Tausendfach schneller sie ist.
Ändert nichts an dem Unsinn von einem 600W Staubsauger in der Wohnung fürs Zocken.
Schön das es bei SC so sein sollte :ugly:
Bei anderen Games sieht’s bestimmt genau so aus oder ?:lol:

Ich für meinen Teil freue mich auf die RTX 5000 Serie, und bin bereit meine 4090 in Rente zu schicken.
 
Wat? Wie? Wieviel Watt? Bei meinem 25 Zoll komm ich mit GPU und CPU maximal oder fast nie auf 200 Watt. 0 Lags und selbst im Sommer wenns um die 25 Grad sind beim Ballern auf 35-40 Grad Maximum. Dat 1000 WattwieNetzteil ist meist im Kuschelbetrieb. :-D
 
50 Watt mehr bei der 5090 macht den Braten auch nicht fett. Wer hat, der hat nunmal. Da ist es auch egal, das wir die höchsten Strompreise weltweit haben. :haha:

Aber bei den Karten für Normalsterbliche finde das schon eine ziemliche Schweinerei. GPUs müssen effizienter werden, nicht mehr Leistung durch höheren Stromverbrauch erschleichen.
 
Da bleib ich lieber bei meiner Aktuellen RX6800 von 2020 die dank underclocking nur 1/4 davon schluckt und in Star Citizen dank Frame Gen dennoch 400% schneller läuft als jede RTX 4090. Nvidia kann halt nix.

kurz um wenn CIG - DLSS 3.0 implementiert hat mit FRAMEGEN dann hat jeder mit einer RTX 4000 genau so viel oder mehr FPS.



deine Karte ist übrigens 64% schneller mit Frame.Gen zur RTX 4090 ohne das Extra.


1725483015086.png


oh und die Aufnahme ist in 2160p ( Photo-Mode ) entstanden, in niedriger Auflösung würde der Abstand noch mals verringert mit Frame-Gen für die Zukunft wäre der hinfällig .




Ich muss schon sagen Frame-Gen ist ein gutes Werkzeug .

hab gerade die FF:XVI DEMO gezockt.

2160p / Ultra / DLSS 3.0 & Frame.Gen

30FPS Lock + FG = 60FPS

100 Watt Verbrauch

ffxvi_demo_2024_09_04_23_16_04_513.jpg
 
Zuletzt bearbeitet:
wow.... Ich sehe es genau vor mir....
Die Netzteil 1500W-Klasse als Empfehlung von Herstellern Händlern und Testern für den Einstieg ins High End....
50 Watt mehr bei der 5090 macht den Braten auch nicht fett. Wer hat, der hat nunmal. Da ist es auch egal, das wir die höchsten Strompreise weltweit haben. :haha:

Aber bei den Karten für Normalsterbliche finde das schon eine ziemliche Schweinerei. GPUs müssen effizienter werden, nicht mehr Leistung durch höheren Stromverbrauch erschleichen.

Ich kanns auch nicht recht verstehen... meine 7900XTX (Taichi) verbraucht @ Stock etwa 420W im Peak, und einem Hotspot von +-100°C. Mit 5 Sekunden Arbeit lieg ich bei voller Auslastung bei gut und gerne 200W weniger bei volllast und max. 82°C Hotspot. Und habe dadurch nur 5-10 fps weniger....!!
Fortschritt würde auch Ich das nicht nennen: Etwas mehr Leistung durch massiv antiproportional mehr Verbrauch. Was für ne krasse Errungenschaft
 
Zuletzt bearbeitet:
50 Watt mehr bei der 5090 macht den Braten auch nicht fett. Wer hat, der hat nunmal. Da ist es auch egal, das wir die höchsten Strompreise weltweit haben. :haha:

Aber bei den Karten für Normalsterbliche finde das schon eine ziemliche Schweinerei. GPUs müssen effizienter werden, nicht mehr Leistung durch höheren Stromverbrauch erschleichen.
Und in 2-3 Generationen sind wir dann wo, bei 700 Watt?
 
Zurück