News Überraschendes GPU-Gerücht: Auf Blackwell folgt Rubin - und das erstaunlich schnell

PCGH-Redaktion

Kommentar-System
Teammitglied
Bei Nvidia steht als Nächstes die Blackwell-GPU-Generation an, sowohl im HPC/KI- als auch Consumer-Bereich. Schon jetzt gehen Gerüchte zum Nachfolger um, und der soll recht schnell folgen.

Was sagt die PCGH-X-Community zu Überraschendes GPU-Gerücht: Auf Blackwell folgt Rubin - und das erstaunlich schnell

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Ich glaube das weniger AMD der Grund ist. Klar, komplett ohne Konkurrenz könnte man auch einen 5 Jahres Rhythmus fahren...

Im Moment ist so viel Geld rund um Nvidia im Umkreis und die Nachfrage absehbar die nächsten Jahre noch so hoch, dass man auch easy einen 1 Jahres Rhythmus finanzieren kann. Der Aufwand und die Forschung wird dadurch höher, aber der Gewinn und Vorsprung wahrscheinlich ebenso. Vor dem AI Hype hätte sich ein 1 Jahres Rhythmus wohl einfach nicht ausgezahlt.

Im Moment passiert einfach sehr viel und langfristig werden davon auch Gamer-Karten profitieren. Die Entwicklung durch AI-Karten kommt ja auch bei Gamer-Karten an.
 
Jo, jedes Jahr ne xx90 für 2000 Euro+. Kein Problem für den Enthusiasten :bier:
Es geht hier um DataCenter, nicht um Consumerkarten.
Trotzdem, auch wenn es etwas OffTopic ist, kann ich mal was bzgl. meiner Vermutungen bzgl. häufiger Nvidia-Releases im Consumersegment hierlassen: Ich halte bei Blackwell einen Refresh für wahrscheinlich.
GB202 soll ja aus 2xGB203 bestehen. Das würde mMn folgenden Ablauf realistisch machen:
Die 5080 kriegt den GB203 (256bit Interface) relativ im Vollausbau und erreicht damit etwas über 4090er-Niveau bei der Performance, höhere Effizienz sowie einen niedrigen Preis. Doch der Preis wird, da Nvidia bei Ada gesehen hat wie gut es funktioniert, so hoch liegen, dass die 5080 gegenüber der 5090 künstlich unattraktiv sein wird. Die 5090 wird hingegen zwei stark beschnittene DIEs (etwa drei viertel) haben. Das Speicherinterface wird somit auch bloß wieder bei 384bit bleiben. Für Nvidia lohnt es sich also total, wenn User zur 5090 greifen, denn sie bekommen dort die niedriger gebinnten DIEs.
Nach einiger Zeit kommt dann die Refresh-Gen und alles rückt eine Kategorie höher: Die 6080 wird den Aufbau der 5090 erben, nur mit besserer DIE-Qualität und schon neuerem Speicher, sprich etwas höherer Effizienz. (abermals wird also der Griff zur 6080 statt zur 5090 zum NoBrainer) Und die 6090 wird eben tatsächlich das 512bit-Monster, das sich ankündigt.

Durch solch eine eingeplante Refresh-Gen sorgt Nvidia sorgen sie dafür, trotz recht geringer Herstellungskosten ordentlich zu schröpfen...
 
GB202 soll ja aus 2xGB203 bestehen
Das ist nur ein Gerücht von vielen ohne große Aussagekraft. Beim B100 macht es noch Sinn, da 800mm² eine Grenze in der Herstellung ist.
Aber beim GB202, welcher sicherlich wieder nur 600mm² ist, wird ja keine Grenze erreicht.
Einzig bei der Herstellung lässt sich minimal was sparen. es passen ja mehr (2x)300mm Chips auf einen Wafer als 600mm².
Aber wenn ich daran denke, das man z.b. nur GB203 herstellt und die dann variiert zu 5080 und 5090, würde man 2 Artikel zu einem machen, das wäre in der Logistik einfacher...nur würde man Chipfläche für den Interconnect verschwenden wens auf eine 5080 kommt. Und Chipfläche kostet wieder Geld...
Die 5090 wird hingegen zwei stark beschnittene DIEs (etwa drei viertel) haben. Das Speicherinterface wird somit auch bloß wieder bei 384bit bleiben
Die Karte so stark zu beschneiden, aber gleichzeitig 2 Chips zusammenkleben macht gar keinen Sinn.
Die Verbindung zwischen den beiden Chips muss schließlich perfekt sein, damit das auch richtig läuft.

ICH gehe davon aus, das wenn überhaupt mal 2xGB203 zum Einsatz kommt, dass es bei den Quadros sein wird aber nicht bei der 5090.
 
Zuletzt bearbeitet:
Das ist nur ein Gerücht von vielen ohne große Aussagekraft.
Es ist zumindest ein Gerücht, das aus vielen verschiedenen Richtungen Unterstützung erhielt.
Beim B100 macht es noch Sinn, da 800mm² eine Grenze in der Herstellung ist.
Definitiv. Das war die Motivation für die Entwicklung des 2-Die-Interconnects.
Aber beim GB202, welcher sicherlich wieder nur 600mm² ist, wird ja keine Grenze erreicht.
Korrekt. Aber nun ist das 2-Die-Interconnect eben bereits entwickelt.
Einzig bei der Herstellung lässt sich minimal was sparen. es passen ja mehr (2x)300mm Chips auf einen Wafer als 600mm².
Und das sind keine geringen Gewinne. Dazu kommt der bessere Yield. (die gleiche Anzahl kleiner Fehler pro DIE betreffen dann weniger)
Aber wenn ich daran denke, das man z.b. nur GB203 herstellt und die dann variiert zu 5080 und 5090, würde man 2 Artikel zu einem machen, das wäre in der Logistik einfacher...nur würde man Chipfläche für den Interconnect verschwenden wens auf eine 5080 kommt. Und Chipfläche kostet wieder Geld...
Die Logistik wäre einfacher, aber Nvidia arbeitet in letzter Zeit lieber mit vielen Chipvarianten, um dann möglichst viele teilintakten/teildefekten Chips weiterverwenden zu können. Manchmal gibt es eine Karte sowohl mit großem als auch kleinen Chip, nur dass dann einmal der große Chip so stark gecutted wurde, bis er logisch dem kleinen entspricht.
Die Karte so stark zu beschneiden, aber gleichzeitig 2 Chips zusammenkleben macht gar keinen Sinn.
Die Verbindung zwischen den beiden Chips muss schließlich perfekt sein, damit das auch richtig läuft.
Die beschnittenen Chips sind sehr günstig, sie sind ja fast schon Ausschussware. Gleichzeitig steht, wie gesagt, das 2-DIE-Interconnect grundsätzlich bereits. (und es würde dann ja später auch für die 6090 weiterverwendet werden)
ICH gehe davon aus, das wenn überhaupt mal 2xGB203 zum Einsatz kommt, dass es bei den Quadros sein wird aber nicht bei der 5090.
Und natürlich auch für die Quadros und Teslas. Und ja, ich gehe davon aus, dass die Quadros und Teslas schon früh mit einer gut ausgebauten Variante versorgt werden. Aber das war bei Ada ja auch schon der Fall. Der AD102 auf der 4090 ist ja im Vergleich zum Vollausbau eine Lachnummer, was auf L40 und RTX 6000 Ada Generation zu sehen war spielt in einer ganz anderen Klasse.
 
Stimmt du wirst ja dazu gezwungen so eine zu kaufen. Genauso wie den Ferrari den du kaufen MUSST.

Lol also manche Kommentare immer...
Gezwungen ist niemand, dennoch kaufen mehr leute eine RTX4090 für 2000€ als eine Preis Leistungs gute Radeon RX7900GRE für 500€ die mehr FPS pro EURO in 99% der fälle bei zb 1080p oder 1440p bietet, und nur bei 4k mit Raytracing evtl gleichauf ist was fps pro Euro betrifft.
Nvidia nutzt gezielt die Psyche der Menschen. Immer das beste haben zu wollen.
 
Zurück