News Geforce RTX 5090 eine doppelte Geforce RTX 5080 [Gerücht]

Der Sinn eines gb202 der in der Mitte trennbar ist nur um die yield zu verbessern damit dann aus defekten chips 2 kleinere noch genutzt werden können wieviel von den 256bit Si noch intakt sind ist offen ich ahne das man da 224bit oder sogar 192bit herauskommen können.
Der alu Anteil ist bei defekten eher unwahrscheinlich da min 55% Si ist
monolithisch also als eigenes chip ist die yield bei 65% 78 zu 42 Dies
als dual gb203 auf dem wafer nur 48% 28 zu 32
Da nur die defekten für den gb203 infrage kommen sind das weniger maximal 64 für zwei sku
Dagegen kommt ein dedizierter gb203 wafer deutlich besser heraus außer nvidia verspricht sich durch den trick die yield von gb203 Ergebnis also 65% yield das bezweifle ich mal stark .
Nicht das es sich hier um gb202 profi und die halbe chip die gb205 sind und gb203 ein eigenes monolith mit 8gpc
dann wäre der chip bei 526mm² mit 58 good und 39 defekt das macht Sinn
 
Ist doch eine sinnfreie Debatte. "Some kind of 2xGB203" - natürlich ist GB202 mit exakt der doppelten Menge an SPs und dem doppelten SI "some kind of 2xGB203" - trotzdem wird es ein monolithischer Chip sein und keine zusammengeklebten GB203.

Ist ja jetzt auch keine Magie.

GB202 zu AD202: + 33% SP + 33% SI
GB203 zu AD203: +20% SP + 0% SI
GB205 zu AD204: +6% SP + 0% SI
GB206 zu AD206 +33% + 0% SI
GB207 zu AD207: +33% + 0%SI

Zeigt also, dass man GB203 und GB205 in Relation weniger stark wachsen lässt, was sich ja auch am Fehlen vom 04er Chip ablesen lässt. Was imho Sinn macht. Wenn man an die Konkurrenz denkt, dann wird GB202 keine haben. Ergo kann man da mit teil deaktvierten Chips arbeiten und auch diese immer noch zu guten Margen verkaufen. In Bereichen mit Konkurrenz optimiert man die Abstufung.
 
Zuletzt bearbeitet:
Tolle Technologiedaten.
Eine 5080 ist 1/2, 5070 ist nur noch 1/3, eine 5060 gar 1/6 das Machbaren?
Wer hat da dann noch Lust drauf, wenn man dann trotzdem hohe Preisschilder vorgesetzt bekommt?
Vermutlich wirds auch wieder teurer?
Und die 5090 hat dann mit Sicherheit ein verlockendes FPS/Euro Gewand, damit die theoretischen Dazwischenkäufer sich auf die Zunge beißen werden?
Die 5090 stampft also alles in den Boden und ist dann passend für CP 2077 mit Pathtracing und 60FPS udn ein Must-Have für wahre Raytracing-Freunde, während die 5080 vermutlich mit der 4090 kämpfen muss?
Ist sicherlich für alle jetzt schon deprimierend, gell?
Na ja, meine kleine Luftpumpe RX 6700XT machts wohl noch die 2-3 Jahre, in der Zeit schaffe ich eh nicht mal ansatzweise die Spiele, die ich schon für jetzt mit der alten Karte "zurückgelegt" hatte.
Schön, wenn NVidia imemr wieder in neue Leistungsregionen verstößt.
Aber wenn man es imemr weniger bezahlen kann, sollte man auch mal Nein sagen können.
Mal eben 600-800 Euro für ne Karte, wo man vor ein paar Jahren mit angeben konnte, jetzt schaut man bei PCGH in den Leistungsinex und macht schon nach dem Kauf dicke Backen, weil man die Bergspitze schon jetzt nicht mal mehr sehen kann.
 
Zuletzt bearbeitet:
Tolle Technologiedaten.
Eine 5080 ist 1/2, 5070 ist nur noch 1/3, eine 5060 gar 1/6 das Machbaren?
Wer hat da dann noch Lust drauf, wenn man dann trotzdem hohe Preisschilder vorgesetzt bekommt?
Ob 1/2, 1/3, 1/6 des möglichen Chips bestimmt für sich eben noch nicht, was an Leistung raus kommt. Das wird letztendlich die TDP richten und wir gut sich der Chip füttern lässt.

Wenn man mal 4070ti S, 4080(s) und 4090 alle mit 250W betreibt, dann bleibt die 4090 zwar klar schneller, aber der Abstand ist auch nicht mehr so groß.

Es ist eher so, das sofern die GPU auch ausgelastet wird, es von der TI S aus um 15% zur 4080 s hoch geht, um dann noch einmal rund 15% zur 4090 hoch zu gehen.
Vermutlich wirds auch wieder teurer?
Gab es dazu schon Gerüchte, die glaubwürdig waren?

ich finde momentan eher das die Gerüchteküche zur 5090 echt sehr wild hin und her springt.
Und die 5090 hat dann mit Sicherheit ein verlockendes FPS/Euro Gewand, damit die theoretischen Dazwischenkäufer sich auf die Zunge beißen werden?
Die 5090 stampft also alles in den Boden und ist dann passend für CP 2077 mit Pathtracing und 60FPS udn ein Must-Have für wahre Raytracing-Freunde, während die 5080 vermutlich mit der 4090 kämpfen muss?
Ehrlich, so langsam geht es mir an dieser Stelle ähnlich...

Eine 5080 auf 4090 Niveau, ich vermute aber mit weniger Speicher. Eine 5070ti auf 4080 s Niveau, eine 5070 auf 4070ti s Niveau.

Das ist alles wirklich mau.
Wenn dann auch noch die Preise wirklich leicht steigen, dann kann man sich zurecht am Kopf kratzen.
Ist sicherlich für alle jetzt schon deprimierend, gell?
Na ja, meine kleine Luftpumpe RX 6700XT machts wohl noch die 2-3 Jahre, in der Zeit schaffe ich eh nicht mal ansatzweise die Spiele, die ich schon für jetzt mit der alten Karte "zurückgelegt" hatte.
Schön, wenn NVidia imemr wieder in neue Leistungsregionen verstößt.
Aber wenn man es imemr weniger bezahlen kann, sollte man auch mal Nein sagen können.
Mal eben 600-800 Euro für ne Karte, wo man vor ein paar Jahren mit angeben konnte, jetzt schaut man bei PCGH in den Leistungsinex und macht schon nach dem Kauf dicke Backen, weil man die Bergspitze schon jetzt nicht mal mehr sehen kann.
 
Was denkt denn ihr was Nvidia diesmal in Sachen Features angeht?

Also Spiegel in Games (auch RTX) scheinen immer noch ein Problem zu sein. Vlt bekommen wir ordentliche Spiegel? :-)
 
Ehrlich, so langsam geht es mir an dieser Stelle ähnlich...

Eine 5080 auf 4090 Niveau, ich vermute aber mit weniger Speicher. Eine 5070ti auf 4080 s Niveau, eine 5070 auf 4070ti s Niveau.

Wenn dem so wäre, dann würde es eigentlich ziemlich genau dem üblichen Generationssprung entsprechen. Vergleichbare Performance aber auf der jeweils kleineren Stufe.

Aber über was beschwert ihr Euch denn? Dass es offensichtlich nicht so einfach und kosteneffizient möglich ist, die Performance immer weiter nach oben zu schrauben, ist alleine dadurch zu erkennen, dass AMD die Waffen streckt.

Wieso wird immer erwartet, dass es immer so weiter geht, die Preise stabil bleiben, aber die Technologie immer noch ausgefuchster wird und alle zwei Jahre ein erheblicher Leistungssprung hingelegt wird? Die Zeiten sind schon lange vorbei. Wer mehr Leistung will, wird in Zukunft immer tiefer in die Tasche greifen müssen.

Wer nicht mehr Geld investieren will, wird sich mittelfristig mit "nur" neuen Features und einem recht sparsamen Leistungswachstum zufrieden geben müssen. Das ist nun mal die Realität.
 
Zuletzt bearbeitet:
Aktuell stehen wir vor einen Wechsel von euv finfet zu euv gaa bis mbfet
Das hat das potenzial die perf zu verdreifachen. mbfet insbesondere da durch nanosheets mehrere layer an silizium gestapelt werden.
Faktisch ist mit gaa die 8,0ghz cpu möglich und gpu sofern nicht am design was geändert wird zugunsten mcm bis 5,0ghz.
mcm steht ziemlich sicher bis man die chips stapelt ab mbfet was mit tsmc a12 node kommen soll (2030)
 
Schau dir die aktuellen Preise bei Nvidia an. Der Höhenflug geht, dank KI, ungebremst weiter. Die Leute haben Nvidia die 40'er Serie, trotzt der überzogenen Preise, ja letztendlich aus den Händen gerissen. Also war der Preis noch nicht hoch genug. Das wird Nvidia jetzt ändern.
Und wenn NV für die 5090 "nur" 2499 USD (+MwSt.) verlangt, sind alle häppie, da jene mit 50% Mehrleistung auch 50% mehr kosten dürfte (3000 statt 2000) ... :klatsch:
 
Raumheizung für den Winter ist diesmal 100% mit drin bei der 5090.
Die wird doch niemals 400 Watt benötigen! Genau wie die 4090 bzw noch weniger!
Man muss ja nicht jede Generation mitmachen. Mein Sprung von 1080 zu 4070ti war auf jeden Fall massiv.
DEFINITIV nicht!👍🏻

Außerdem will Nvidia den Release Takt von 2 Jahren auf 1 Jahr beschleunigen! Zwar waren laut Leaks eher die Server GPUs mit gemeint aber GPU Codename Rubin sollte ja ein Jahr nach Blackwell folgen!
Was wenn Ende 2025 schon von einer 6090 die Rede ist? Wer braucht dann noch eine 5090 für über 2000€? 😂
 
Die rtx4090 braucht deswegen weniger Strom weil diese nicht ausgelastet wird ich bleibe dabei rtx5090 gb205 2,8ghz 96sm 250w grob gleiche perf wie die rtx4090 mit mehr gpu Auslastung da nur 3 render engines statt 6
Was am ende die gpu vor die rtx 4090 ziehen lässt grob +10%-30% trotz weniger Bandbreite 896gb/s und gleiche Rasterleistung.
Die cpu Test zu zen5 werden sehr interessant mit der rtx4090.
DXR könnte etwas schneller sein da die dual issue Fähigkeit da einiges herausholt.
amd bringt nix bis q4 2025 erst danach wird es nenn gb203 mit 112sm geben (4tpc a32sm 28 aktiv)
Namen sind aber Schall und Rauch
Wichtiger ist was nvidia beim 450€ Umfeld bringt den der wird wegen der neuen Konsole stark Umkämpft sein.
 
Ich würde von der 4090 sogar auf eine RX 8800 XT umsteigen: WENN sie vergleichbare Leistung im Rastern und eine ähnliche oder gar bessere Effizienz hätte wie eine 4090!
Raytracing benötige ich tatsächlich absolut GAR NICHT, was ich erst mit der 4090 bemerkt habe.
Ich hatte vorher schon eine RX 6900 XT und war mit der Leistung damals zufrieden.
Eine 7900 XTX hat mir aber selbst im Rastern plus FSR nicht genug Leistung und eine miese Effizienz. Eine mögliche RX 8900 XTX wäre dann wahrscheinlich optimal bei 4k@120Hz.
Mal sehen, wann eine 9900 XTX kommt. Ein Ryzen 9800X3D und eine RX 9900 XTX wären dann bestimmt eine 🔝 Kombi für effizientes Gaming bei guter Preis-Leistung, wenn man Raytracing nicht benötigt.
 
Und wenn NV für die 5090 "nur" 2499 USD (+MwSt.) verlangt, sind alle häppie, da jene mit 50% Mehrleistung auch 50% mehr kosten dürfte (3000 statt 2000) ... :klatsch:

20-35% Mehrleistung und damit ein üblicher Generationssprung sollte schon mal ganz sicher nicht teurer werden, innerhalb einer Klasse ( meine 4080 zur 5080). Klar wenn die Inflation um 10% liegt, dann steigen die Preise auch in etwa um 10%, mehr aber ganz sicher nicht.

Da rtx4000 meiner Meinung nach schon relativ viel Preissteigerungen mit sich brachte, erwarte ich keine deutlichen Steigerungen mehr für rtx5000.
Wir werden sehen.
 
Zurück