News RTX 5000: Nvidia plante "MCM-Mega-GPU" mit HBM-Speicher [Gerücht]

Der Geforcemarkt interessiert nicht. Wenn sie so einen Chip in der Pipeline hätten, würden sie den auch für die Bereiche KI und Compute bringen, völlig egal was AMD tut oder lässt. Das würde einzig den Preis beeinflussen.
 
Der möglicherweise wichtigere Punkt ist, wie oft die 4090 im CPU-Limit hängt, auch mit den schnellsten CPUs auf dem Markt, da macht eine deutlich grössere GPU für's Gaming schlichtweg nicht viel Sinn. Erschwerend dazu kommt, dass NVidia literweise Blut geleckt hat im KI-Segment und sich augenscheinlich sehr stark darauf fokussiert.
Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.

Ja, da KI-Segemtent ist für uns Gamer schon etwas unschön.
 
Ich hoffe ja ehrlich gesagt, dass AMD am Ende DOCH eine High-End GPU auf den Markt bringen wird und Nvidia damit etwas düpiert.

Letzten Endes ist ja vor allem dort eine gute Marge zu holen.

Nvidia könnte im schlimmsten Fall "oben" die Marge mitnehmen und dann "unten" strategisch einen Preiskampf führen.
Das passiert nicht. Der Großteil von den NV und AMD Aktien wird von den gleichen institutionellen Investoren gehalten bzw. für ihre Kunden verwaltet. Die Aktionäre von AMD sind damit oft auch Aktionäre von NV. Das ist beiden Unternehmen bekannt. Damit gehen sie mittlerweile sehr sparsam mit Preiskämpfen um. Ich werte mir keine „Hilfe“ von AMD aus Konsumentensicht.
 
Spektakuläre Spekulationen zu Spezifikationen?
Ist heute ne Seite aus dem Wörterbuch gefallen xD?

@topic
Wen juckt was die 1000 Euro+ Klasse macht? Da können sie von mir aus alle zusammen keine Karte rausbringen oder jeder 5, trotzdem uninteressant.
 
Interessant wie nvidia so etwas von AMD abhängig macht. Die sind doch keine ernsthafte Konkurrenz. Selbst wenn sie 2 Generation das deutlich bessere Angebot hätten, hat Nvidia immer noch das bessere Software Packet. Die Leute würden eh Nvidia kaufen, weil 'das ist das beste.'
???

1.) Na klar machen sie es abhängig von AMD, vor allem da AMD meist günstiger anbietet und wenn AMD nun plötzlich mit einem MCM Monster kommen würde, die 5090 (die vieleicht eigentlich gar nicht das Topmodell hätte werden sollen) im Raster um 30-40% schlägt, steht man schön blöd da. Da würde dann auch DLSS nicht zünden und selbst in RT wäre der Abstand ja deutlich geringer (denn AMD liefert da ja auch Upgrades und mit 30-40% mehr Raster als Nvidia, wäre man in RT wahrscheinlich auf Augenhöhe zum dann NV Topmodell). Ein MCM Design mal eben flux nachschieben wird auch kaum drin sein, vor allem da es dann eben NVs erstes MCM wäre.

2.) Das bessere Softwarepaket zündet nur, wenn die Karten preislich und leistungstechnisch nah beieinander sind, je größer der Vorteil von AMD ist, je weniger interessiert das Softwarepaket.

Quatsch, als ob NVidia es gross interessieren würde, was für Chips AMD bringt.
siehe oben, natürlich interessiert es NV.
Gibt zahlreiche Chip-Projekte, die früh abgebrochen werden, aus verschiedensten Gründen, oft technischer oder rein ökonomischer Natur.
stimmt, aber hat jetzt genau was für einen Bezug hier?
Sonst hätte es so GPUs wie die Titans, heute zu xx90 (Ti) umbenannt, nie gegeben, die immer eine eigene Leistungsklasse darstellten.
Waren die Titans nicht in allererster Linie downgegradete ProfiChips? Oder auch mal im späteren Verlauf einer Gen ein vollausgebauter 80er; also wenn die Fertigung soweit war, dass es genug vollfunktionsfähige Chips gab?

aber performancetechnisch trotzdem nur in Teilen ebenbürtig
Das ist aber nur die halbe Wahrheit, die 6900XT war performancetechnisch immer auf Augenhöhe, Nvidia hat nicht umsonst eine Menge Strom reingeballert, damit man in den Balkendiagrammen die Spitze behält. Aber wenn man sieht, ein Blick in den aktuellen Index sagt zum Beispiel schon aus, dass eine 6800XT (also nichtmal das Flagschiff) eine 3080 10GB (Releasekarte) schlägt, die 3090Ti distanziert eine 6950XT (die 3090 non Ti und 6900XT sind nicht mehr vertreten) knapp um 7%, bei einem Preisaufschlag von 50% und deutlich besserer Effizienz! Nur RT war NV Gebiet, ansonsten war das ein sehr ausgeglichenes Duell in sachen Performance.

Erschwerend dazu kommt, dass NVidia literweise Blut geleckt hat im KI-Segment und sich augenscheinlich sehr stark darauf fokussiert.
Das halte ich für das "größte" Dilemma für uns Spieler. Im KI Segment lässt sich aktuell wohl richtig Kohle verdienen und Nvidia ist da führend und wird dementsprechend nur das nötigste tun um knapp vor AMD zu bleiben, damit man maximale Effizienz für die KI Fertigung bereitstellen kann.

Witzig fände ich, wenn AMD es schafft doch ein MCM Monster zu bauen und dann beim Release Nvidia völlig überascht, einzig der Glaube fehlt.

MCM haben nur 2 Vorteile.
"nur"?
Die Vorteile sind schon deutlich überwiegender als "nur 2", viele Vorteile resultieren daraus und klar ist auch, dass ein monolithischer Chip viele Vorteile bringt. Dennoch scheint ja so ziemlich der gesamte Markt in diese Richtung zu gehen. AMD macht es mit Ryzen und letztendlich auch RDNA 3 ja vor, dass dies auch gut funkionieren kann. Nvidia wird da nachziehen, auch wenn aktuell vieleicht noch die Nachteile noch überwiegen, so gab es doch schon die klare Kante von NV, dass auch sie an MCM rumwerkeln. Intel ist ja mittlerweile auch dabei, nennen das Spiel halt nur anders.

Aber das ist alles. Bei z.b. 100% Ausbeute sind kleine MCM Chips und ein monolithischer Chip der gleichen Größe gleich teuer. In dem Beispiel ist MCM sogar vom Nachteil.
Nö! größere Chips haben in der Regel weniger nutzbare Fläche auf dem Wafer, da die Aufteilung dann nicht passt und quasi mehr Verschnitt dabei ist.

Nvidia hat dann die aus Marketing Sicht in 90 umbenannt und die fürs Gaming beworben um halt mehr Leute direkt anzusprechen.
ich glaube ja, dass man die umbenannt hat, weil AMD die 6900XT hatte und der eigentlichen Speerspitze im Gaming um die Ohren gesaust wäre, daher hat man die Titan kurzerhand in 3090 umbenannt und ordentlich Strom drauf gegeben um im Balkendiagramm doch noch vorne zu liegen.
 
MCM haben nur 2 Vorteile. Monolithisch hat eine maximale Größe von ca 600-800mm², je nach Herstellungsverfahren.
Mit MCM kann man viele kleine Chips aneinander kleben und kann so eine größere Gesamtfläche bekommen.
Desweiteren haben kleine Chips den Vorteil, das bei einem Defekt nur ein kleinerer Teil des Wafers "Schrott" ist. Also bessere Ausbeute, was den Preis senkt.
Aber das ist alles. Bei z.b. 100% Ausbeute sind kleine MCM Chips und ein monolithischer Chip der gleichen Größe gleich teuer. In dem Beispiel ist MCM sogar vom Nachteil.
Denn bei MCM muss man entweder einen Interposer nutzen oder einen Teil der Fläche für die Konnektivität zwischen den MCM DIEs opfern, wie Apple. Ein Interposer kostet auch Geld und kann eine Leistungseinbuße bringen.

Du hast den wesentlichen Punkt vergessen, Skalierbarkeit.
Mit einem MCM Design kann man eine breitere Produktpalette - zu günstigeren Herstellkosten - als mit Monolithen anbieten. Der Epyc ist da das Beste Beispiel.
Auch die MI300X würde ich hier anführen, da man auch 4 Chiplets miteinander verschaltet, was durchaus auch beachtenswert ist.

Es stellt sich nur die Frage inwieweit es bei Gamer GPUs dann wirklich Sinn macht (im Bezug auf wie viel Chiplets man denn vernetzen möchte)?
Ich bin da sehr gespannt was AMD mit RDNA 4 vorhat und was Nvidia für Ideen dazu hat.
 
Nach Angabe müsste die GPU mit 16 Bausteinen beim VRAM ausgestattet werden. Das ist schon üppig und einfacher wäre eine identische 5090 mit 256Bit-Interface und 8x4GB Bausteinen. Leistung müsste trotzdem deutlich oberhalb der 4090 sein und Karte würde effizienter sein. Auf 384bit aufgeblasen hätte man 48GB, was auch sehr gut wäre. Absolut unnötig für Gamer, aber trotzdem imposant.

Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.

Das liegt aber eher an der kleinen Ausstattung der RT-Einheiten. Wenn man in der nächsten Generation den Chip dahingehend ausbaut wäre die Leistung plötzlich doppelt so hoch oder noch höher.
 
Ach so ne 4090 bekommt man relativ Schnell klein sobald Raytracing oder gar Pathtracing Leistung abgefragt wird.

Ja, da KI-Segemtent ist für uns Gamer schon etwas unschön.

Ja, aber das bedeutet primär, dass der RT-Part aufgebohrt werden kann, der noch lange einen Flaschenhals sein wird. Die Anzahl SM an sich sind bsw. momentan nicht so wichtig, da genug compute power für alles andere vorhanden ist. Ich meine damit bsw. dass ein MCM mit 2x128 SM ziemlich stark overpoweret wäre in Relation zur verfügbaren CPU-Performance. Der kolportierte GB202 passt da schon eher ins Gefilde und wäre wohl auch auf 170SM beschnitten über lange Zeit kaum durch die CPUs auslastbar.

Um den vermuteten GB202 erreichen zu können, müsste AMD bei RDNA4 einen 77 - 100% umfangreicheren Chip bauen als sie bei RDNA3 mit dem N31 taten. Und das werden sie so oder so mit an Sicherheit grenzender Wahrscheinlichkeit nicht tun. N31 ist schliesslich auch nur 20% umfangreicher als N21 (Von 80 auf 96CU). Wenn also der Top-Dog bei RDNA4 25% grösser als N31 werden sollte (120CU), wäre das aus AMD-Sicht schon mal eine stärkere Steigerung als von RDNA2 auf RDNA3. Aber man wäre nochmals viel weiter weg von der absoluten Performancespitze im Markt als jetzt.

Die letzte Verdoppelung tätigte AMD von RDNA1 auf RDNA 2, aber das war auch vergleichsweise einfach. Von einem kleinen Mittelklasse-Chip her kommend.

[...]
Das ist aber nur die halbe Wahrheit, die 6900XT war performancetechnisch immer auf Augenhöhe, Nvidia hat nicht umsonst eine Menge Strom reingeballert, damit man in den Balkendiagrammen die Spitze behält. Aber wenn man sieht, ein Blick in den aktuellen Index sagt zum Beispiel schon aus, dass eine 6800XT (also nichtmal das Flagschiff) eine 3080 10GB (Releasekarte) schlägt, die 3090Ti distanziert eine 6950XT (die 3090 non Ti und 6900XT sind nicht mehr vertreten) knapp um 7%, bei einem Preisaufschlag von 50% und deutlich besserer Effizienz! Nur RT war NV Gebiet, ansonsten war das ein sehr ausgeglichenes Duell in sachen Performance.
[...]
Witzig fände ich, wenn AMD es schafft doch ein MCM Monster zu bauen und dann beim Release Nvidia völlig überascht, einzig der Glaube fehlt.
[...]

Ich werte GPUs im Bereich von +/- 10% als mehr oder weniger ebenbürtig. Klar für einige sind das aus für mich komischen Gründen derart "krasse" Unterschiede, dass sie dafür gerne viel, viel mehr Geld ausgeben oder den minimal unterlegenen Konkurrenten als "völlig unbrauchbar" diskreditieren oder als "fail" abstempeln. Aber ich werte RX6900XT & Co. nur als teilweise ebenbürtig, weil sie in Sachen RT gegenüber ihrer direkten Konkurrenten klar unterlegen sind und es da dann entsprechend auch nicht mehr so der Hit mit der relativen Effizienz ist. Ganz davon abgesehen natürlich, dass Ray-/Pathtracing auch heute noch eine hoch experimentelle, problembehaftete Kinderschuh-Technik ist im Gamingbereich.

Ja, NVidia reagiert im Rahmen ihrer geplanten Chips auf die Produkte von AMD, indem es wenn nötig auch mal die Brechstange rausnimmt. Aber man wird kaum zig Millionen in ein Projekt reinstecken und einstampfen, nur weil es Spekulationen darüber gibt, dass AMD Chipprojekte gecancelt hat.

In dem Sinne ja, wäre es durchaus witzig, wenn AMD RDNA4 so konzipieren würde, dass sie relativ einfach ein grösseres MCM-Konstrukt zusammenstöpseln könnten. Ich zweifle jedoch daran, dass sie schon jetzt den grossen risikoreichen Schritt für multiple Compute-Chips im Gaming-Bereich gehen werden, wo sie zudem auch unverhältnismässig stark von der Kundschaft verschmäht werden, und auch obwohl sie bei den Instinct mit CDNA bereits Erfahrungen damit sammeln konnten. Ich erwarte eher das RDNA3-Konzept ohne Kinderkrankheiten, mit einem etwas umfangreicheren Compute-Chip in kleinerer Fertigung und den zusätzlichen, evtl. grösseren MCM-Chips dran, oder wer weiss, vielleicht auch drunter.
 
Zuletzt bearbeitet:
schon, ja. Aber umgekehrt hat man damals die Ressourcen zusammengezogen und die sehr gute Navi1/2 Gen gebracht, das war auch nicht schlecht. Leider reden wir dann halt von einer Zeit von in 3 Jahren oder so...
Außer das AMD kein Hiegh End bedient hat, war da gar nichts. Weiß nicht wie man das schön reden will.
Navi war am Anfang sicher nicht schlecht. Aber dennoch nicht besser, als das Nvidia Gegenstück dazu.

Von daher sehe ich nur den Verlust im Highend Sektor damals.
War es nicht so, das AMD die Ressourcen eher für ZEN XY genutzt hat?


Ich kann mir aber in diesem Fall aber sehr gut vorstellen, das selbst wenn an den Gerüchten ein wahrer Kern ist, das es sich um ein Missverständnis handelt. Da mit dem Multi Chip Design es genug Möglichkeiten gibt zu Verwechselungen.

Vielleicht war auch nur die Rede davon das AMD nur ein Chip Design bringt, das aber auf den Highend GPUs zum Beispiel 4x Platz findet, oder was auch immer.
warten wir doch einfach auf die nächste News, die wieder alles über den Haufen wirft - das ganze geht jetzt noch 1,5 Jahre so weiter ?
Fängt diesmal aber sehr früh an ;)
 
Außer das AMD kein Hiegh End bedient hat, war da gar nichts. Weiß nicht wie man das schön reden will.
Die Raden 5700 war endlich aml wieder eine effiziente, flotte Gamerkarte
Die Radeon 6xxx vs Geforce 3xxx war zumindest im Rastern ebenbürtig und effizient.
Navi war am Anfang sicher nicht schlecht. Aber dennoch nicht besser, als das Nvidia Gegenstück dazu.
Nein, aber gleichwertig in vielen Belangen (was aber auch damit zusammenhing, dass Nvidia einen besseren 10nm Prozess nutze und AMD schon bei 7nm war)

War es nicht so, das AMD die Ressourcen eher für ZEN XY genutzt hat?
Zu Zeiten von Vega sind die Ressourcen stark weggenommen worden und die übrigen in Navi investiert worden.
Ähnlich wird es jetzt auch laufen, man wird eine neue Architektur für die nächsten Konsolengenerationen bauen

Ich kann mir aber in diesem Fall aber sehr gut vorstellen, das selbst wenn an den Gerüchten ein wahrer Kern ist, das es sich um ein Missverständnis handelt. Da mit dem Multi Chip Design es genug Möglichkeiten gibt zu Verwechselungen.
Sicher nur ein Hirngespinst von einem Aufmerksamkeitswünschenden Twitterer.
Nvidia hat es im Moment nicht not, einen MCM Chip für Spieler zu bringen.
Für HPC ist es geplant
 
Die Raden 5700 war endlich aml wieder eine effiziente, flotte Gamerkarte
Und damit nur auf der Höhe der Zeit.
Die Radeon 6xxx vs Geforce 3xxx war zumindest im Rastern ebenbürtig und effizient.
Das ist ja schon die Gen nach der, "wir beliefern diesmal kein Highend".
Fürs Rastern isoliert betrachtet ist RX6000 nach wie vor ordentlich.
Nein, aber gleichwertig in vielen Belangen (was aber auch damit zusammenhing, dass Nvidia einen besseren 10nm Prozess nutze und AMD schon bei 7nm war)
RT Nein, VR Nein, Raster ja. Aber das ist immer noch die Gen danach.
Zu Zeiten von Vega sind die Ressourcen stark weggenommen worden und die übrigen in Navi investiert worden.
Ähnlich wird es jetzt auch laufen, man wird eine neue Architektur für die nächsten Konsolengenerationen bauen
Das ist mir zu wenig. Ich will doch nicht erst wieder 2027 ordenltiche Hardware von AMD ( Nicht böse nehmen, ich denke eigentlich kann man erkennen worauf ich hinaus will.

Ich wünsche mir von AMD in jeder Gen Konkurrenz zu Nvidia und gerne auch brauchbare VR Treiber zu release, oder kurz danach.
Sicher nur ein Hirngespinst von einem Aufmerksamkeitswünschenden Twitterer.
Gilt für beide Gerüchte (Nvidia jetzt, genau so wie AMD mit kein Highend).
Nvidia hat es im Moment nicht not, einen MCM Chip für Spieler zu bringen.
Wenn AMD RX7000 weiter entwickelt und man sich bei Nvidia schwer tut einen noch größeren monolithen zu erschaffen. RX7000 ist ja nicht schlecht. Aber Die RT Leistung muss derbe nachgebessert werden.
Für HPC ist es geplant
 
Behaupten lässt sich vieles. Dass Nvidia Dinge erwägt, ist eher wahrscheinlich. Aber dass ein solch monumentaler Architekturwechsel über's Knie gebrochen werden soll, klingt doch eher hanebüchen.
 
Multichip ist keine magische Lösung. Man sollte sich bei CPUs sehr genau ansehen unter welchen Umständen AMD mit Multichip erfolgreich war. Das war nicht gegen Intel auf der Höhe ihres Schaffens, sondern Intel beim Versuch alles was geht aus 14nm herauszuquetschen. Es ist bei weitem nicht so, dass man mit Multichip einen automatischen Vorteil hätte was die Leistung angeht.

Die aktuelle Generation von AMD GPUs ist das erste Mal, dass wir sehen was passiert wenn Firma A Multichip Design macht und Firma B nicht. Zumindest das erste Mal, wenn beide beim gleichen Hersteller TSMC fertigen lassen. Aus Kundensicht sind die Ergebnisse mangelhaft und AMD hätte sich Multichip sparen können. Der Kunde sieht das recht einfach. AMD Multichip ist weder schneller, noch billiger.
 
Du hast den wesentlichen Punkt vergessen, Skalierbarkeit.
Mit einem MCM Design kann man eine breitere Produktpalette - zu günstigeren Herstellkosten - als mit Monolithen anbieten. Der Epyc ist da das Beste Beispiel.
Auch die MI300X würde ich hier anführen, da man auch 4 Chiplets miteinander verschaltet, was durchaus auch beachtenswert ist.

Es stellt sich nur die Frage inwieweit es bei Gamer GPUs dann wirklich Sinn macht (im Bezug auf wie viel Chiplets man denn vernetzen möchte)?
Ich bin da sehr gespannt was AMD mit RDNA 4 vorhat und was Nvidia für Ideen dazu hat.
Deswegen sagte ich ja das Monolithisch bei 600-800mm² gekappt ist.
Ein Epyc 9734 mit 8 Chiplets + I/O DIE ist ca 1000mm², also nicht realisierbar ohne MCM.

Dennoch Skalierbarkeit ist etwas, was beim Gaming kaum vorhanden ist. :D
Viele Spiele würden mit 4 Kerne bei 6Ghz deutlich schneller laufen als 16 Kerne mit 5Ghz...
Auch die 4090 scheint davon betroffen zu sein. Theoretisch müsste die 4090 ja ca 60% schneller sein als die 4080, da sie ja 65% mehr Kerne hat. Ist aber nicht der Fall.

Aber bin ja ein Laie und das Problem ist sicherlich ganz woanders.
 
Weil wir da schon von Kopite die 8nm Samsung info hatten.

Also laber Selber keinen Mist :ugly:
Die Dinge können sich über die Zeit ändern. Nvidia könnte möglicherweise den Gedanken gehabt haben auf 7 nm TSMC zu wechseln und später dann auf 5 nm. Weder du noch ich waren bei internen Gesprächen dabei, also können wir dazu auch nichts genaues sagen.
Der Unterschied zwischen uns beiden ist aber, dass ich mir dessen bewusst bin und du nur Unfug von dir gibst.
 
Die Dinge können sich über die Zeit ändern. Nvidia könnte möglicherweise den Gedanken gehabt haben auf 7 nm TSMC zu wechseln und später dann auf 5 nm. Weder du noch ich waren bei internen Gesprächen dabei, also können wir dazu auch nichts genaues sagen.
Der Unterschied zwischen uns beiden ist aber, dass ich mir dessen bewusst bin und du nur Unfug von dir gibst.
Sowas ändert man aber nich mal eben in ein Paar Monaten!

Und wärend die Chips schon bei Samsung in der Produktion sind zu behaupten, dass die Chips von TSMC kommen ist einfach Schwachsinn.

Aber glaub ruhig was du willst.
 
Ein Super-Chip wird kommen, denke ich jetzt ist nur die Frage im raum, ob monolithisch oder doch im Multi-Chip-Design.
Ich denke, der Speicher ist auch schon fix, diesmal kein HBM3 und keins von Micron, es wird einer von Samsung sein, da bin ich mir sicher, da Micron sich nicht an die Lieferzeit halten kann, es gab mal eine News dazu.
Im Gespräch ist ein nicht genauer bekannter Speicher-Standard, den Samsung extra für Nvidia herstellen möchte kenne leider nicht mehr die genaue Bezeichnung dafür.
Ist ja auch egal, die nächste Gen wird eh kaum bezahlbar sein, dann gibt es halt einen Downgrade auf die 5060TI oder man weicht komplet aus und nimmt dann in dem Fall die neue Radeon aber die soll ja auch erst mal auf Eis gelegt sein laut dem Leak.
Mal gucken, wie es am Ende kommt, wird aber definitiv spannend.
 
Ich wünsche mir von AMD in jeder Gen Konkurrenz zu Nvidia und gerne auch brauchbare VR Treiber zu release, oder kurz danach.
Naja, es ist ja nicht so, dass man gar nichts liefert. Die aktuelle XTX ist keine schlechte GPU, sie liefert deutlich mehr als der Vorgänger, ist effizienter als der Vorgänger und und und! Nur liegt sie halt deutlich hinter NVs Flaggschiff, was aber eben für dann doch wenig Mehrleistung 100% Aufpreis kostet! Wieviele Menschen geben 1k und mehr für eine GPU aus? 0,0001% der Gamer?
 
Und damit nur auf der Höhe der Zeit.
das stimmt natürlich, abe das wa di Jahre davor eben nicht so. Seit 2014 (Maxwell,) hatte AMD sehr deutlich das Nachsehen
Wenn AMD RX7000 weiter entwickelt und man sich bei Nvidia schwer tut einen noch größeren monolithen zu erschaffen. RX7000 ist ja nicht schlecht. Aber Die RT Leistung muss derbe nachgebessert werden.
Ja, dazu braucht es eben eine neue Architektur
 
Zurück