News RTX 5090 & Co.: Leaker prognostiziert drastische Preiserhöhung - aber nicht überall

Habe noch schnell ein Upgrade von einer RTX 3070 8GB auf eine RTX 4070 Super 12 GB vorgenommen,
anstatt darauf zu warten was die RTX 5070 preisleistungsmässig bringen wird.

Für die Sachen die ich spiele hätte im Prinzip sogar die RTX 3070 gereicht, aber mit der 4070 Super steht man halt mit+50% mehr Leistung doch nochmal etwas besser da.

Billiger wird es bei Nvidia ganz sicher nicht mehr ...dafür sorgen schon die Aktionäre ;-)
 
Was ist das für eine Analyse. Der Chip hat viel mehr cuda cores und ist in einem besseren Verfahren und nur 30 Dollar Mehrkosten in der Produktion?

GB202 wird nicht viel größer werden als AD102, vorallem da er ja angeblich deutlich weniger L2$ haben wird. 4NFinFET ist gesetzt - ob es dieses mal wieder 5 nm wird oder nicht werden wir noch sehen. Pro 300 mm Wafer werden also mehr funktionsfähige Chips rauskommen. Wenn NV pro Chip 30 $ mehr zahlen soll dann wird der Wafer insgesammt teurer.
 
Also 2000 Dollar entsprechend umgerechnet in € glaube ich nicht zum Release. Das wird mehr. Meine Prognose nach wie vor 2449€ für die RTX 5090FE.
 
Bei der 5090 geh ich mit dir aber die 5080 wird es niemals für ~1000$ geben. In dem Preisbereich wird die 5070TI wildern (vermutlich umd die 900$ denke ich.
5060 299-349$
5060Ti 499$-549$
5070 649$-699$
5070Ti 799$-849$
5080 999$
5090 1999$
Also immer 150-200$ zwischen den Modellen.

Achja 5080Ti 24GB mit einem gecutteten großen GB202 für 1499$.

Edit:
22 Prozent ist schon eine Menge.
Von 609mm² auf angeblich 744mm².
DIe 609mm² kommen von Techpowerup, ich weiß nicht wie der Typ auf Twitter auf 619mm² kommt.
 
Zuletzt bearbeitet:
GB202 wird nicht viel größer werden als AD102, vorallem da er ja angeblich deutlich weniger L2$ haben wird. 4NFinFET ist gesetzt - ob es dieses mal wieder 5 nm wird oder nicht werden wir noch sehen. Pro 300 mm Wafer werden also mehr funktionsfähige Chips rauskommen. Wenn NV pro Chip 30 $ mehr zahlen soll dann wird der Wafer insgesammt teurer.
Das passt aber nicht zu dieser News:

22 Prozent ist schon eine Menge.
 
TSMC hat wohl gemäß dem folgenden Link erst kürzlich die Preise für einen 300-mm-Wafer von 18.000 auf 20.000 US-Dollar erhöht.
Davon hat MLID wohl die 30$ abgeleitet.
TSMC will mitverdienen: Höhere Chippreise für AMD, Apple, Nvidia & Co.

Aber viel wichtiger ist meiner Meinung nach, die doch sehr deutliche Erhöhung
des Die size:
Von 608 mm² (23.1 x ~26.2) für AD102 (RTX4090) vs. den voraussichtlichen 744 mm² (24x31mm) für den GB202 (RTX5090)

Selbst für Nvidias Verhältnisse ist dies schon hart an der Grenze des Sinnvollen.
Eine Ausbeute von 34 vs. 49 voll funktionsfähigen AD102 bzw. GB202 Chips sprechen schon eine deutliche Sprache.
20000$ / 34 = 588$ (GB202 / RTX5090)
20000$ / 49 = 408$ (AD102 / RTX4090)
Das wären alleine schon 180$ Unterschied anhand des erhöhten Die size.
Die 32GB an GDDR7 werden im Vergleich zu den 24GB GDDR6 wohl auch so richtig an der Preisschraube drehen.
Bei einer realistischen 60%igen Marge würde dies in etwa folgendermaßen aussehen.
(588$/0.4=1470$) alleine für den Chip des GB202 (RTX5090) !
(408$/0.4=1020$) zum Vergleich AD102 (RTX4090)
Alleine der Chip dürfte eine Differenz von 450$ (inkl. 60% Marge) ausmachen.
Dann noch die 32GB GDDR7 und das Board (max. 600W) dürfte wohl auch nicht ganz günstig werden.

Lange Rede, kurzer Sinn. Diese Karte wird voraussichtlich schweineteuer werden.

1734805357902.png
1734805509913.png
 
Zuletzt bearbeitet:
Eine Ausbeute von 34 vs. 49 voll funktionsfähigen GB202 Chips sprechen schon eine deutliche Sprache.
20000$ / 34 = 588$
20000$ / 49 = 408$
Man sollte eine Sache nicht vergessen. Ein "Defekt" ist nicht immer komplett kaputt.
Deswegen "cuttet" man den Chip und verbaut diese mit weniger als 100% aller Kerne.
GB202 soll ja ~24k Kerne haben, die 5090 wird aber 10% davon deaktiviert haben.
Ein "perfekter" Chip geht dann sicherlich in eine (Quadro) 8000-10000€ RTX6000 Blackwell.
Und als erste Resteverwertung gibt es dann die 5090.
Und jene Chips die nicht mal zur 5090 taugen werden gesammelt und später zu einer 5080Ti mit 24GB VRAM in einem Jahr verwurstet.

Um mal ein Beispiel zu geben:
Die 3080 war auch Resteverwertung mit einem 628 mm² großen Chip und 20% gecuttet und hat nur 699$ gekostet...
Da hat dann die fast ungecuttete 3090 die Kosten getragen.
 
Zuletzt bearbeitet:
zur Größe diese wurde bekannt es sind 743mm² das kommt alleine durch das Si das stolze 60% einnimmt
Der n4 node verkleinert nur die alu inklusive sram +- 6%
Daher ist der perf. Zuwachs auch der größte von allen sku aber der chip ist überraschend monolithisch womit dieser teuer wird.
Physisch sind 216 sm drin aktiv von 170-192 wobei die 170sm die schlechtesten sind.
Das Si ist das was am meisten Fläche frisst mit n3 muss nvidia die alu verdoppeln da ansonsten bei gleicher Si Größen je chip es zu 65-35 kommt und das wäre unsinnig
Der analog Anteil kann erst sinken beim a18 node halbierte Größe erst dann werden wieder günstige chips möglich
Was bis dahin zu einen stillstand führen wird.
Ob rubin (rtx60 2027) überhaupt in n3 kommt hängt stark davon ab was amd mit udna tut
Blackwell ist quasi ein Zwischenschritt der kaum Mehrleistung je chip hat abseits dem gb202 bei den preisen gehe ich mit nur die perf. ist weit davon weg was der mlid sagt
gb202 170sm +25% 1999$
gb203 84sm +20% 1099$
gb203 70sm +20% 799$
gb205 50sm +15% 599$
preislich bedeutet das quasi Stillstand ähnlich wie zu rtx20 Start 2018
Und das ist ohne cpu limit wenn ich das dazurechne ist da maximal 5-10% drin
 
Die "Leaker" sind sich ziemlich uneins:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Man sollte eine Sache nicht vergessen. Ein "Defekt" ist nicht immer komplett kaputt.
Deswegen "cuttet" man den Chip und verbaut diese mit weniger als 100% aller Kerne.
Das ist sicher richtig wie du sagst.
Aber hier geht es um den relativen Vergleich zum AD102 bzw. RTX4090.
Auch die RTX4090 war nicht der Vollausbau.
Alle Argumente die du vorgebracht hast, kannst du daher auch 1:1 auf die RTX4000 Serie übertragen.
Am Ende liegen in etwa 180$ an Produktionskosten zwischen den beiden Chips.
Was eben bei einer Marge von 60% am Ende eine Differenz von 450$ ergibt.
Daher gehe ich davon aus, dass es sich bei den von MLID angegebenen 2000$ um das absolute zu erwartende Minimum handelt.
 
Sicher ist all das derzeit aber natürlich nicht, und am Ende hat auch die UVP nur eine ebenso begrenzte Aussagekraft wie Herstellerbenchmarks.

lol ja.
Alles über 600€ interessiert mich eh nicht.
Wird aber sicher ein interessanter Kampf bis Februar.
Mal schauen ob einer der beiden ein MonHun Wilds Bundle o.ä. macht.

AMD soll halt mal den Arsch hochbekommen. Du hast halt keine anderen Wahl, wenn du Enthusiast bist. Da bringt mir eine Karte von AMD halt rein gar nix.

Och du armer, wirst gezwungen zu kaufen! ;_;
 
Zuletzt bearbeitet:
Naja... Das ist eher eine Prognose von MLID als ein Leak. Und gefühlt lag er in den letzten paar Jahren öfter daneben als er Treffer gelandet hat.

Die ganze Diskussion um den eventuell Preis der 5090 finde ich genauso übertrieben wie nutzlos, wie vor zwei Jahren mit der 4090.

Sind wir doch mal ehrlich, die jeweilige 90er-Variante ist doch letztlich das Äquivalent zu den Titan-Karten und somit ein reines Luxusgut für eine sehr kleine Anzahl an Gamern. Die Karten sind doch schlicht für eine sehr zahlenkräftige Kundschaft gemacht für die der Preis eher eine untergeordnete Rolle spielt. Bei einem Porsche GT3 RS regt sich auch keiner großartig auf das er außerhalb des eigenen Budgets liegt.

Auch wenn die 5090 eine Menge kosten wird, das Gross der Gewinne wird Nvidia mit den anderen Karten machen, letztlich wird die Anzahl der verkauften 5090 marginal sein im Vergleich zum Rest des Portfolios von NVidia.

Viel wichtiger wäre eine akzeptablere Preisgestalltung der 5060, 5070 und 5080. Die 5090 bekommt halt im Verhältnis zu den Verkaufszahlen überproportional viel Beachtung ab weil es eben die Spitze der Leistungspyramide ist. Für die breite Masse der Gamer wären Preissteigerungen bei den kleineren Karten weitaus relevanter und schmerzhafter.
Und nicht wenige die sich eine 5090 gönnen werden haben auch schon eine 4090. Wenn diese dann zu einem guten Preis verkauft werden kann und dann "nur" 500€ bis 800€ für eine 5090 zusätzlich ausgegeben werden müßte, dann wäre ein Preis von +2500€ schon relativ.

Ich habe auch kein Verständniss dafür das hier Leute quasi als dumm bezeichnet werden wenn sie es sich problemlos leisten können eine 5090 zu kaufen die sich andere nicht leisten können. Warum sollten diese Leute auf etwas verzichten? Der Wert der 5090 bemisst sich daran was eine sehr kleine Klientel bereit ist zu zahlen und nicht daran was die breite Masse bereit ist zu zahlen. Davon mal abgesehen, selbst wenn Nvidia den gleichen Preis aufrufen würde wie bei der 4090, dann läge dieser Preis trotzdem noch außerhalb des Budget von 95% der Gamern.

Außerdem bezweifle ich das sich die 4090 gerechnet hätte zu den Preisen die auch hier scheinbar von der Mehrheit gefordert wurde. Das keine 4090 Ti kam lag für mich nicht nur daran das AMD nichts hatte was die 4090 kontern konnte. Ich vermute das der Yield für eine eventuelle 4090 Ti so mies war, dass der Preis selbst für Nvidia exorbitant gewesen wäre.
Wenn ich mir dann ansehe das der Chip der 5090 nochmal größer ist als der der 4090 dann heißt das, das auf einen Waver weniger Chips passen und dass jeder fehlerhafte Chip auf einem Waver die Kosten deutlich mehr steigert als bei der 4090. Ganz zu schweigen von den kleineren Chips.

Wenn ihr euch sinnvoll aufregen wollt, dann regt euch über die vermutlichen Preise der 5060 bis 5080 auf. Und nein, ich rede mir nix schön auch wenn mir das der ein oder andere unterstellen wird. Mir ist bewußt das ich im Grunde zu viel Geld im neuen Jahr für eine neue GPU ausgeben werde. Aber MIR persönlich ist es das wert, für den Spaß den ICH damit habe. Zudem bin ich in der glücklichen Situation das ich trotzdem auf nichts verzichten muss.
 
Für die Sachen die ich spiele hätte im Prinzip sogar die RTX 3070 gereicht, aber mit der 4070 Super steht man halt mit+50% mehr Leistung doch nochmal etwas besser da.
Freue mich für dich und sage Glückwunsch. Wirst den unterschied schon merken, weil die 30er Serie Samsung 8nm war und die 40er Serie ist 5nm. Du wirst einen extremen Sprung haben im Takt usw. und geringere Temperaturen.

Der unterschied zwischen den 4000er und 5000er wird nichts o üppig ausfallen, weil es die selbe Fertigung ist. Neu ist der Speicher, aber auch der wird keine extremen Sprünge bringen.
Ich vermute hier kommt eher was Featuremäßiges, um den Leuten die Münder noch wässriger zu machen.
Mach wird ja Anfang Januar 2025 sehen...
 
Zuletzt bearbeitet:
Bisher ist Nvidia in jeder Generation mit so einer Preiserhöhung durchgekommen und AMD wird nach wie vor nicht gekauft.

Eine UVP für 2000$ ist realistisch, das macht dann einen realen Marktpreis von 2500$.
Was dann 1:1 hier in Euro ankommt, daher 2500€

Es ist nicht ganz abwegig ehr sogar realistisch, bin gespannt ob Nvidia das weiterhin durchzieht was sie seit Pascal machen.
 
Zurück