Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

Das werden wir so
Wer ist "wir" ? Bisher hattest Du Dich doch noch gar nicht zu Wort gemeldet? Pluralis majestatis? Hat noch niemanden majestätisch werden lassen.

Ansonsten: cooles Design von AMD. Endlich wieder Innovation. Und völlig unverständlich, dass nV das im HPC-Bereich zwar voraussichtlich auch schon hinbekommt, seiner Fangemeinde im Gaming aber glaubt immer noch Monolithisch hinrotzen zu können. Die scheinen es auch nach dem Amperedesaster noch nicht kapiert zu haben, wo sie (nicht mehr) stehen. Wenn man sich aber hier so die ersten Reaktionen ansieht, wird's die Fanbase wohl wieder mit genug Marketingsoße obendrauf schlucken. Irgendwie hat sie es dann doch auch wieder so verdient. :devil:
 
Wer ist "wir" ? Bisher hattest Du Dich doch noch gar nicht zu Wort gemeldet? Pluralis majestatis? Hat noch niemanden majestätisch werden lassen.
"Wir" sind die Leute, mich eingeschlossen, die Chatstar's "Hail AMD" Kommentare nicht so stehen lassen. Da gibt es ja einige, wie er selbst anmerkt:

Warum fahren mir immer dieselben grünen Leute voll in die Karre?

Ansonsten: cooles Design von AMD. Endlich wieder Innovation. Und völlig unverständlich, dass nV das im HPC-Bereich zwar voraussichtlich auch schon hinbekommt, seiner Fangemeinde im Gaming aber glaubt immer noch Monolithisch hinrotzen zu können. Die scheinen es auch nach dem Amperedesaster noch nicht kapiert zu haben, wo sie (nicht mehr) stehen. Wenn man sich aber hier so die ersten Reaktionen ansieht, wird's die Fanbase wohl wieder mit genug Marketingsoße obendrauf schlucken. Irgendwie hat sie es dann doch auch wieder so verdient. :devil:
Welches Design? Das Block-Diagramm hat ein User aufgrund der Gerüchte selbst gebastelt. Ist das für Dich bereits Fakt?

Welches Desaster denn? Die höhere 4K Leistung oder die RT-Leistungskrone? Keine Ahnung was Du meinst... Ich verdiene auf jeden Fall den RT-Regler ganz nach rechts mit meiner 3080 im Gegensatz zu allen RDNA2 Karten. :D
 
15K Shader sind für mich immer noch nicht greifbar ^^

Da mein persönliches Limit im GPU Bereich nach der RTX3090 bei 250 Watt gesetzt ist, bin ich gespannt welche Produkte dort wildern werden.

Freu mich schon auf die nächsten Gerüchte und das wir dann Anfang 2022 die ersten handfesten Infos bekommen werden.
 
Dir ist aber nicht entgangen, dass Nvidia die Tage bereits verkünden musste für die Next Gen. bei einem monolithischen Design bleiben zu müssen!?

Und was das bedeutet ist quasi selbsterklärend.



Unter normalen Umständen, wäre dem ja auch zu zu stimmen, aber eben nicht bei mcm.
MCM hat auch Nachteile und ist nicht automatisch ein Gewinner. Wenn dem so wäre hätten wir schon viel länger solche Designs. Wirst es schon sehen, dass du (mal wieder) zu blauäugig warst
 
In der heutigen Zeit werden die technischen Innovationen rund um Hardware deutlich interessanter als die reine Rechenleistung.

Wo ein DLSS mal eben Farameraten um mehr als 50% steigern kann oder Raytracingeffekte sie mal eben halbieren können sind neue Watt- und FP32-Monster schön und gut.

Das schreibe ich nicht, weil ich nicht wahrhaben möchte dass AMD mit dem selben Ansatz wie bei ihren CPUs auch den GPU-Markt erobern kann sondern weil ich nVidia für die in diesem Bereich besser aufgestellte und innovativere Firma halte (alles andere wäre auch merkwürdig bei dem Budget). AMD hatte mit den Innovationen im CPU-Bereich (MCM inklusive IF) großen Erfolg und versucht nun diese auf GPUs umzumünzen (Infinity Cache).

Wirklich gespannt bin ich bei der nächsten GPU-Generation auf folgende Fragen:
Wird es endlich Spiele komplett in Echtzeit-Raytracing geben in einer Qualität wie die Marbles-Demo?
Wird Machine Learning vermehrt in Spielen genutzt? Für Inhalte wie auch die Grafik (GANs)?

P. S. : Rein faktisch hat die 6900 XT nicht "die Leistungskrone". In 4K ist sie teilweise um einen zweistelligen Prozentsatz langsamer als die 3090. Und wenn ich die Leistungsaufnahme so reduziere, dass die 3090 10% langsamer ist, hat sich auch das Gegenargument des höheren Stromverbrauchs ein wenig relativiert. In 1080p bleibt AMD König (übrigens auch bei den CPUs) – aber wer über 1000€ für eine GPU ausgibt spielt hoffentlich auch in 4K...
 
In der heutigen Zeit werden die technischen Innovationen rund um Hardware deutlich interessanter als die reine Rechenleistung.

Wo ein DLSS mal eben Farameraten um mehr als 50% steigern kann oder Raytracingeffekte sie mal eben halbieren können sind neue Watt- und FP32-Monster schön und gut.

Das schreibe ich nicht, weil ich nicht wahrhaben möchte dass AMD mit dem selben Ansatz wie bei ihren CPUs auch den GPU-Markt erobern kann sondern weil ich nVidia für die in diesem Bereich besser aufgestellte und innovativere Firma halte (alles andere wäre auch merkwürdig bei dem Budget). AMD hatte mit den Innovationen im CPU-Bereich (MCM inklusive IF) großen Erfolg und versucht nun diese auf GPUs umzumünzen (Infinity Cache).

Wirklich gespannt bin ich bei der nächsten GPU-Generation auf folgende Fragen:
Wird es endlich Spiele komplett in Echtzeit-Raytracing geben in einer Qualität wie die Marbles-Demo?
Wird Machine Learning vermehrt in Spielen genutzt? Für Inhalte wie auch die Grafik (GANs)?

P. S. : Rein faktisch hat die 6900 XT nicht "die Leistungskrone". In 4K ist sie teilweise um einen zweistelligen Prozentsatz langsamer als die 3090. Und wenn ich die Leistungsaufnahme so reduziere, dass die 3090 10% langsamer ist, hat sich auch das Gegenargument des höheren Stromverbrauchs ein wenig relativiert. In 1080p bleibt AMD König (übrigens auch bei den CPUs) – aber wer über 1000€ für eine GPU ausgibt spielt hoffentlich auch in 4K...
ich denke mit echtzeit Raytracing wie nvidia in den Demos immer zeigt wird es schon noch eine weile dauern (soweit ich mich erinnere waren es 4x A100 Ampere Karten die die Demo gerendert haben)

Man ist ja jetzt noch mit Schatten und Beleuchtung überfordert in 4k uhd (abgesehen von Hitman 3 und Resident Evil Village) um Echtzeit Raytracing zu Stemmen brauchst schon nochmal ordentlich mehr Power als es die jetzigen Karten haben.
Um es in UHD Ultra @60 in Echtzeit zu stemmen wird denke ich mindestens die 4fache Power benötigt
 
Zuletzt bearbeitet:
"Wir" sind die Leute, mich eingeschlossen, die Chatstar's "Hail AMD" Kommentare nicht so stehen lassen. Da gibt es ja einige, wie er selbst anmerkt:




Welches Design? Das Block-Diagramm hat ein User aufgrund der Gerüchte selbst gebastelt. Ist das für Dich bereits Fakt?

Welches Desaster denn? Die höhere 4K Leistung oder die RT-Leistungskrone? Keine Ahnung was Du meinst... Ich verdiene auf jeden Fall den RT-Regler ganz nach rechts mit meiner 3080 im Gegensatz zu allen RDNA2 Karten. :D
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert. Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.

Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
 
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert. Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.

Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
 
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
 
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
Ich glaube nicht, dass Nvidia noch viel in der Schublade haben wird. Man hat sich von dem riesen Schritt seitens RDNA2 komplett überrumpeln lassen, da gehe ich mit. Wenn man aber die Entwicklungszeiten betrachtet ist eigentlich nicht davon auszugehen, dass man schon reagieren kann. Entweder ist Lovelace sowieso richtig geil, oder man bekommt Probleme wenn RDNA3 wirklich nochmal 50% Effizienz draufpacken kann.
 
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert.
Das ist wie bei den Motoren für Autos, irgendwann nähert man sich dem Maximum an. Führende Hersteller erreichen diese Annäherung früher, die Verfolger erreichen diese aber auch irgendwann. So geschehen bei den GPU's, NV kratzt am technisch machbaren bei den verfügbaren Prozessen und TDPs.

Man darf hier nicht vergessen dass NV trotz schlechterem Prozess 2 Mal (Turing vs RDNA1 + Ampere vs RDNA2) AMD übertrumpft oder zumindest gleichauf geblieben ist.

Außerdem sollte man nicht vergessen dass Teile der Chips für andere Funktionen als Rasterization genutzt werden (Tensor + RT Cores). Wäre diese Chipfläche auch für Shader / Cache genutzt worden dann sähe es auch wieder anders aus.


Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.
DLSS ist das einzige proprietäre Feature auf Turing / Ampere, die Verbreitung ist über einen Großteil der 3D-Engines gesichert.


Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
Nein, daran zweifle ich nicht. Das gezeigte Diagramm ist aber nicht von AMD, deswegen ist Deine Aussage "cooles Design" hier verwirrend. Das "Design" ist nicht von AMD.

Ob MCM bei GPU's gut funktioniert wird sich auch erst noch zeigen müssen, Vorschusslorbeeren sollte man weder NV noch AMD geben.


nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
Leadership in einem Prestige-Segment zu behalten hilft der Marke an sich, siehe Formel 1 zum Beispiel. NV hat so viel mehr Geld zur Verfügung, es würde mich stark wundern wenn sie das Gaming Segment kampflos aufgeben.
 
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert.
Moment: Nvidia hat ja noch sehr wohl einen deutlichen Vorsprung: Würdest du Tensor und RT Cores Rauswerfen, würde man immer noch deutlich weniger Transistoren und Strom für dieselbe oder mehr Leistung brauchen.
Auch darf man nicht vergessen: Nvidia setzt bis auf den Profichip auf Samsungs 8nm Verfahren - eine Variante von Samsungs 10nm Verfahren- während AMD in TSMCs doch besseren 7nm produziert.
Trotz alledem ist man also grade mal gleich schnell. Nvidia ist also durchaus noch deutlich vorne, vor allem was andere Faktoren betrifft: RTRT, Upscaling und diverse Gameworks-Features, Treiber, Gsync, Entwicklerunterstützung...

Wenn man nur den Spielebalken betrachtet und sagt "schau Gleichstand!" stimmt das zwar auch, ist halt aber nicht dasselbe wie technischer Gleichstand, wenn man bedenkt, dass der andere Hersteller dafür schon Features bringt, die der andere erst integrieren muss etc.

Für mich persönlich ist tatsächlich eine Radeon fast gleich gut geeignet, wie eine Geforce. Weil ich Raytracing erst in 4-6 Jahren als etwas ausgereifter betrachte und außerdem kein 4K verwende zum Spielen (DLSS2.2 wär hier wichtig). Also würde ich derzeit wohl wieder zu einer Radeon greifen. Aber objektiv betrachtet hat Nvidia hier noch einiges an Vorsprung. Auch wenn es derzeit nicht die reine Leistung bzw Effizienz ist


Edit: RTRT ist ohne Zweifel die nächste große Evolution im Grafiksektor, und Nvidia hat hier Jahre an Vorsprung. Beim Hochskalieren auch.

Und MCM alleine ist kein Heilsbringer, es bringt auch Nachteile mit sich. Die Technologie gibts bei anderen Sektoren längst, aber man setzt es erst kürzlich wieder ein. CPUs hatten in den 90ern ausgelagerten Cache, der Pentium Pro hatte auch ausgelagerte Teile AFAIR, der Core 2 war sowieso "glued together".
Es hat bei Kosten, Latenz und Co halt auch Nachteile gegeben, gegenüber einem einzelnen mongolischen Chip. Gerade wenn ein Chip in hohen Stückzahlen gensu so gekauft wird, ist er billiger und schneller, als wenn man zusätzliches Beiwerk verbauen muss. Allerdings ist man mit kleinen Chips die man beliebig hochskalieren kann durchaus gut beraten, wenn der Absatz nicht groß genug ist, dass es sich lohnt eigeme Masken, Chips etc aufzulehen und zu validieren. Da Nvidia 80% des Marktes bedient, lohnt dich gür sie der mongolische Chip in manchen Bereichen länger, als für AMD.
 
Zuletzt bearbeitet:
nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
Das hätten se dann schon bei ampere machen können als die Brechstange rauszuholen....
Wie du siehst gehts hier eben auch ums Image, es bring immer ordentlich Prestige wenn man sagen kann wir bieten euch die stärkste Karte am Markt

Natürlich verdient man im HPC AI Markt mehr aber die Gaming Sparte wirft auch ordentlich was ab

Wenn AMD die stärkeren Karten über Jahre bringen kann der Markt sich sehr schnell drehen und würde NVIDIA ordentlich Geld kosten, da würden die Aktionäre sturmlaufen....
Ich glaube nicht, dass Nvidia noch viel in der Schublade haben wird. Man hat sich von dem riesen Schritt seitens RDNA2 komplett überrumpeln lassen, da gehe ich mit. Wenn man aber die Entwicklungszeiten betrachtet ist eigentlich nicht davon auszugehen, dass man schon reagieren kann. Entweder ist Lovelace sowieso richtig geil, oder man bekommt Probleme wenn RDNA3 wirklich nochmal 50% Effizienz draufpacken kann.
Wenn NVIDIA wieder bei TSMC fertigen lässt (nicht nur die Profikarte) halte ich es führ sehr wahrscheinlich das man genug Power hat um AMD in Schach zu halten, man sieht ja wie hoch und gut die AMD Karten takten mit tsmc 7nm, angeblich soll es ja 5nm bei tsmc werden.
Wenn se bei Samsung weiterhin bleiben is es nur noch ne 50:50 Chance weil nicht absehbar ist wie Samsung in 5nm liefern kann...

Dazu muss auch erstmal AMD ihre MCM Power (falls es denn kommt) auf die Straße bringen, wir wissen auch nicht wie dieses Design dann in Spiele skaliert.
 
Zuletzt bearbeitet:
Auch ich bin da definitiv raus, wenn das Richtung 400W+ geht. Mich würde dann höchstens interessieren, wie die Vollausbau-Chips bei niedrigem Powerlimit performen. Wahrscheinlich lohnt sich der Kauf von einer Midrange-Karte mit 250W dann trotzdem mehr.
 
Das hätten se dann schon bei ampere machen können als die Brechstange rauszuholen....
Wie du siehst gehts hier eben auch ums Image, es bring immer ordentlich Prestige wenn man sagen kann wir bieten euch die stärkste Karte am Markt

Natürlich verdient man im HPC AI Markt mehr aber die Gaming Sparte wirft auch ordentlich was ab

Wenn AMD die stärkeren Karten über Jahre bringen kann der Markt sich sehr schnell drehen und würde NVIDIA ordentlich Geld kosten, da würden die Aktionäre sturmlaufen....

Wenn NVIDIA wieder bei TSMC fertigen lässt (nicht nur die Profikarte) halte ich es führ sehr wahrscheinlich das man genug Power hat um AMD in Schach zu halten, man sieht ja wie hoch und gut die AMD Karten takten mit tsmc 7nm, angeblich soll es ja 5nm bei tsmc werden.
Wenn se bei Samsung weiterhin bleiben is es nur noch ne 50:50 Chance weil nicht absehbar ist wie Samsung in 5nm liefern kann...

Dazu muss auch erstmal AMD ihre MCM Power (falls es denn kommt) auf die Straße bringen, wir wissen auch nicht wie dieses Design dann in Spiele skaliert.
Ich glaube nicht, dass der Unterschied TSMC zu Samsung derartig groß ist, klar reden wir hier sicherlich von 10%, aber dann ist auch gut und so wie RDNA2 bereits performt, man vergisst man neben dem absoluten Balken gerne den relativen, wird ein MCM Design zwei grundlegende Vorteile haben. Zum einen wird man auf Grund der schieren Anzahl an Shadern dem Sweet Spot näher kommen, man muss zwangsläufig niedriger takten und steigert die Effizienz. Zum anderen sollte ein MCM Design Vorteile bei der Wärmeableitung haben, weshalb man unter Umständen einen höheren Gesamtverbrauch anstreben kann.

Für mich ist das MCM Design die Technik der Zukunft, spannend wird zu sehen sein, wie sich der erste Versuch schlagen wird. Das schreibe ich ja schon die ganze Zeit, nur weil man auf dem Papier die höhere Leistung hat, bedeutet dies im Praxisbench noch lange nicht den längsten Balken.

Wenn NV bei Samsung bleibt, würde ich die Chancen aber weit jenseits von 50/50 sehen, selbst bei TSMC sehe ich in der aktuellen Gerüchteküche leichte bis mittlere Vorteile bei AMD. Wurde hier sogar 60/40 pro AMD sagen, wenn Nvidia bei Samsung bleiben muss, sogar eher in Richtung 70/30. Warum? Wer hätte denn bei RDNA2 gedacht, dass AMD Wort hält? Sie haben 50% versprochen und sogar etwas mehr geliefert. Nvidia hat mit der aktuellen Generation eigentlich nichts geliefert, wenn man ehrlich ist, alles was NV gewonnen hat ist durch Mehrverbrauch und den Shrink bedingt, in der Architektur haben sie eine maßlose Enttäuschung hingelegt.leider vergessen daß die Leute gerne, sehe auch bisher keinen Grund anzunehmen, dass Lovelace hier eine Wende einleitet. So ruhig war es letztlich selten bei Nvidia.
 
Ich glaube nicht, dass der Unterschied TSMC zu Samsung derartig groß ist, klar reden wir hier sicherlich von 10%, aber dann ist auch gut und so wie RDNA2 bereits performt, man vergisst man neben dem absoluten Balken gerne den relativen, wird ein MCM Design zwei grundlegende Vorteile haben. Zum einen wird man auf Grund der schieren Anzahl an Shadern dem Sweet Spot näher kommen, man muss zwangsläufig niedriger takten und steigert die Effizienz. Zum anderen sollte ein MCM Design Vorteile bei der Wärmeableitung haben, weshalb man unter Umständen einen höheren Gesamtverbrauch anstreben kann.
Der Unterschied ist durchaus signifikant. Die Hersteller vergleichen bzgl. PPA leider nur hausintern, was man jedoch direkt vergleichen kann ist das "A" und da zeigt sich zwischen TSMCs 7nm mit 91,2 MTr/mm2 und Samsung's 8LPE mit 61,2 MTr/mm2 ein deutlicher Unterschied. Letzterer ist eine 10nm-Weiterentwicklung der primär noch zusätzlich eine UHD-Lib spendiert wurde. RDNA2 hat mit der Verwendung des N7 durchaus einen signifikanten Vorteil zu verzeichnen.
Hinzu kommt, dass nVidia bei Ampere vergleichsweise dicht packt um einen kleinen Chip zu implementieren, was vermutlich auch zwangsweise bedingt, dass Ampere niedriger takten muss und nur in der Range der Vorgeneration arbeitet. Dafür hat man hier jedoch die Ausführungseinheiten deutlich verbreitert.

*) Für einen echten herstellerübergreifenden Vergleich bräuchte man eigentlich zwei vergleichbare Designs in den unterschiedlichen Prozessen gefertigt. Beispielsweise nVidia hatte so etwas mal bei Pascal, bei dem sie relativ spät im Lebenszyklus auch eine GPU bei Samsung in einem 14nm-Node in jedoch nur kleiner Stückzahl fertigen ließen (Samsung brauchte hier zu lange; der GP107, wenn ich mich recht erinnere, ein Wechsel von TSMCs 16nm auf den Samsung-Prozess).

Für mich ist das MCM Design die Technik der Zukunft, spannend wird zu sehen sein, wie sich der erste Versuch schlagen wird. Das schreibe ich ja schon die ganze Zeit, nur weil man auf dem Papier die höhere Leistung hat, bedeutet dies im Praxisbench noch lange nicht den längsten Balken.
MCM ist für weiter wachsende, hochkomplexe Designs schlicht eine fertigungstechnische Notwendigkeit, weil diese ansonsten nicht mehr wirtschaftlich realisierbar sind. Wenn Unternehmen jedoch die Möglichkeit haben auf derartige zusätzliche Komplexität zu verzichten, werden die das auch machen. Intel bspw. hatte bisher keinen Grund MCMs zu fertigen, weil die das erst mit einem effizienteren Node richtig hätten ausfahren können (obwohl die Packaging-technisch voraussichtlich gar eher noch mehr Möglichkeiten zur Verfügung haben als die Konkurrenz). In der Zwischenzeit haben sie mit ihren monolithischen 14nm-Designs weiterhin gut verdient. Beispielsweise AMDs Consumer-Chiplet-Designs sind dagegen vergleichsweise teuer in der Fertigung (und man ist dennoch gezwungen den Marktführer preislich zu unterbieten und eine geringere Marge hinzunehmen um Wachstum zu erzielen). Auf der anderen Seite ermöglicht AMD das MCM aber auch Epyc, am Ende also in der Gesamtbetrachtung eine Mischkalkulation.
Einzig im Mobilbereich hilft ihnen das nicht und sie waren gezwungen ein einzelnes, monolithisches Design zu entwickeln, mit dem sie alle Mobile-Chips und auch APUs abbilden, erneut ein Zeugnis der internen Zwänge um diese Märkte effizient und mit weiterem Wachstum bedienen zu können. Erst jetzt können sie es sich leisten mehere Designs anzugehen (so bspw. zusätzlich Van Gogh, jedoch eine etwas schräge Kombination, da nun modernes RDNA2 mit dagegen alten Zen2-Cores).
Bei GPUs wird AMD mit seinem kleinen Volumen weitaus anfälliger bzgl. Yield-Thematiken bei übergroßen Chips sein, d. h. für die rentiert sich eine frühzeitige Verfolgung eines MCM-Ansatzes eher (bzw. für die wird es eher notwendig diesen Weg zu gehen).
nVidia ist offensichtlich der Meinung, dass die in der NextGen (aus wirtschaftlicher Sicht) noch ohne MCM auskommen (wenn man den Gerüchten Glauben schenken darf). Die werden sich sicherlich was dabei gedacht haben, denn die sind nicht umsonst der unangefochtene Marktführer. Ob ihre Planung am Ende auch zum gewünschten Erfolg führen wird, ist dagegen ein anderes Thema. ;-)

Wenn NV bei Samsung bleibt, würde ich die Chancen aber weit jenseits von 50/50 sehen, selbst bei TSMC sehe ich in der aktuellen Gerüchteküche leichte bis mittlere Vorteile bei AMD. Wurde hier sogar 60/40 pro AMD sagen, wenn Nvidia bei Samsung bleiben muss, sogar eher in Richtung 70/30. Warum? Wer hätte denn bei RDNA2 gedacht, dass AMD Wort hält? Sie haben 50% versprochen und sogar etwas mehr geliefert. Nvidia hat mit der aktuellen Generation eigentlich nichts geliefert, wenn man ehrlich ist, alles was NV gewonnen hat ist durch Mehrverbrauch und den Shrink bedingt, in der Architektur haben sie eine maßlose Enttäuschung hingelegt.leider vergessen daß die Leute gerne, sehe auch bisher keinen Grund anzunehmen, dass Lovelace hier eine Wende einleitet. So ruhig war es letztlich selten bei Nvidia.
Wenn die Gerüchte korrekt sind und es bei nVidia ein monolithischer Chip mit rd. 18.000 ALUs werden soll, dann wird das zweifellos ein TSMC-Prozess werden, also bspw. der N5, N5P oder gar N4. Samsung's 5LPE kommt hier aufgrund der deutlich kleineren Logikdichte eher nicht infrage, denn Samsung's 5nm-Prozess ist nicht so ganz mit TSMCs N5 zu vergleichen sondern liegt deutlich näher an deren N6 (einem 7nm-Node).
Was jedoch denkbar wäre ist, dass nVidia weiterhin beide Foundries nutzt um die Kapazitäten optimal zu verteilen. Beispielsweise die Top-Consumer-Chips könnten bei TSMC entstehen, Mittelklassechips und kleiner könnten bspw. Samsungs 5LPE nutzen, der zudem auch bezogen auf die Wafer-Kosten günstiger sein dürfte, was die Mege noch einmal optimieren würde.

Btw, warum sollte Ampere eine "maßlose Enttäuschung" sein. Ampere ist Turing in jedweder Hinsicht überlegen, bspw. egal von welcher Richtung man sich einer RTX 2080 Ti nähert. Die RTX 3080 ist deutlich günstiger, signifikant schneller, verbraucht realtiv gesehen nicht ansatzweise so viel mehr, sodass ihre Effizienz am Ende durchgehend besser als bei Turing ist. Die RTX 3070 ist leistungstechnisch recht gut vergleichbar, kostet aber nicht einmal halb so viel und ist gar deutlich effizienter als das Turing-Pendant.
Und btw, sieht man sich die Absatzzahlen und Verbreitung an, dann scheint offensichtlich nur ein kleiner Teil des Marktes deine Ansicht zu dieser "Enttäuschung" zu teilen, denn anders lassen sich die Zahlen trotz der derzeit exorbitanten Preise nicht erklären.
 
Zuletzt bearbeitet:
Der Unterschied ist durchaus signifikant. Die Hersteller vergleichen bzgl. PPA leider nur hausintern, was man jedoch direkt vergleichen kann ist das "A" und da zeigt sich zwischen TSMCs 7nm mit 91,2 MTr/mm2 und Samsung's 8LPE mit 61,2 MTr/mm2 ein deutlicher Unterschied. Letzterer ist eine 10nm-Weiterentwicklung der primär noch zusätzlich eine UHD-Lib spendiert wurde. RDNA2 hat mit der Verwendung des N7 durchaus einen signifikanten Vorteil zu verzeichnen.
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
 
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
GDDR6X > 24Gbps wir es wohl auch nicht geben - und warum soll es das nicht geben ?
der nachfolger von gddr6 wurde ja auch einfach aus dem hut gezaubert, wenn wieder mit micron zusammen was entworfen wird das dann angepasst auf nvidias gpu sind dann könnte sowas schon realisiert werden...
warten wirs einfach ab

nvidia wird das schon genau abgewogen haben was derzeit sinn macht und was nicht...
ich bin zumindest auf die neuen gpus gespannt
 
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
Aller Wahrscheinlichkeit steht dir hier mal wieder dein eigener Bias im Weg (die weniger schmeichelhaften Alternativen wären eine Lese- oder gar Verständnisschwäche).
Noch mal zur Klarstellung: nVidia implementiert im 8LPP mit einer deutlich höheren relativen Logikdichte i. V. z. dem, was der Prozess bestenfalls ermöglicht. nVidia nutzt hier bereits 74 % der möglichen Logikdichte des Prozesses, AMD dagegen begnügt sich mit gerade mal 56 %, was natürlich was mit dem Design macht und es ihnen bspw. auch eher ermöglichen können wird, die GPUs höher zu takten.
Ein Navi21 auf Samsung's 8LPP oder anders herum, ein GA102 in TSMCs N7 würde etwas andere Eigenschaften aufweisen. Ersterer würde zwangsweise langsamer/ineffizienter werden, letzterer würde sparsamer und/oder schneller werden, je nachdem welche Gewichtung der möglichen Zugewinne hier nVidia für sinnvoll erachten würde (jedoch nur sparsamer und dafür dann deutlich dürfte man bspw. wohl eher ausschließen, weil der Markt im oberen Drittel mehr auf Leistung als auf Effizienz schaut).

Bezüglich der notwendigen Speicherbandbreite machst du dir vollkommen unnötg Gedanken, bzw. schließt gar Möglichkeiten aus, die vollkommen naheliegend wären (und das gar unbegründeterweise).
Zum einen ist zu berücksichtigen, dass bisher alles Gerüchte sind, auch wenn CS' "Quelle" hier schon konkret was von 384 Bit OC-GGDR6 schreibt. Unwahrscheinlich ist zumindest der Speichertyp dennoch nicht, da nicht anzunehmen ist, dass die Kollaboration mit Micron hier nur eine Eintagsfliege war. HBM2 dürfte dagegen kostentechnisch weiterhin recht unwahrscheinlich sein. 512 Bit mit OC-GDDR6 sind auch sehr unwahrscheinlich, weil das zusätzliche PHY und die Speicherbausteine nochmals deutlich mehr vom energetischen/thermischen Budget abknapsen würden, also wird es irgendwas im Bereich von 256 - 384 Bit sein und der Rest wird mit einem Cache aufgefangen, übrigens bei nVidia auch nichts Neues, denn gegenüber herkömmlichen Designs weist bspw. der GA100 mit 40 MiB einen übergroßen L2$ auf, der relativ gesehen extrem viel Fläche in Anspruch nimmt. Will man es günstiger und kompakter haben, macht man es wie AMD und fügt stattdessen einen L3$ ein, den AMD zwar vollmundig als "Infinity Cache" bereichnet, am Ende ist das aber nur ein schlichter L3$, der zusätlzich in die Speicher/Cache-Hierarchie eingefügt wurde (und bei CPUs bspw. schon seit einigen Jahren Standard ist). Also kein Hexenwerk.
Intel macht bei Xe-HPG übrigens genau das gleiche, denn auch hier kommt (mindestens) das Topmodell offensichtlich mit 16 GiB GDDR6 an einem 256 Bit-SI ums Eck, d. h. entweder gibt es einen dedizierten L3$ oder man hat mindestens einen relativ großen L2$.
Letzten Endes kann man zwar technisch interessiert über das SI spekulieren, relevant ist das aber schlussendlich nicht wirklich, den es obliegt hier dem Hersteller ein passendes Speicherinterface beizusteuern, denn der schönste und tollste Chip nützt nichts, wenn der wegen einem verkrüppelten Speichersubsystem nicht ausgelastet werden kann.

*) Ergänzend: Micron's OC-GDDR6 (kann man zwar umgangssprachlich als "GDDR6X" bezeichnen, ist faktisch jedoch falsch, da es keinen GDDR6X-Standard gibt) sind aktuell gar 21 Gbps-Bausteine, die nVidia derzeit nur bis zu 19,5 Gbps ausfährt. Micron kann hier durchaus weiter optimieren (und hatte das auch schon in Aussicht gestellt). Hinzu kommt, dass die Speicherhersteller gerade im Begriff sind ihre Fertigung auf EUV umzustellen, was für derartiges OC-GDDR6 einen größeren Entwicklungssprung bedeuten könnte. Vielleicht wären tatsächlich 24 Gbps möglich, bei einem derart vergrößerten Chip würde ich aber dennoch nicht davon ausgehen, dass der ohne nennenswerte Anpassungen am Cachesubsystem auskommen könnte, schlicht weil das mal eben rund +80 % mehr ALUs sind, die derzeit zumindest kolportiert werden und eine derart erhöhte Pro-Pin-Geschwindigkeit steigert die Gesamtspeicherbandbreite nur in überschaubarem Rahmen. Einen größeren Bestands-oder gar größere Caches wird es also so oder so geben.
Ist letztendlich auch ein no-brainer und das Cachesubsystem wurde bei CPUs in den letzten Jahren ständig angepasst und vergrößert. Bei GPUs kommt man jetzt aufgrund der immer anspruchsvoller werdenden Chips ebenso in eine Bandbreitennot weil man GDDR6 weitestgehend ausgereizt hat und müsste im einfachsten Fall auf die nächstbessere Speichertechnologie upgraden, hier HBM2(E), jedoch scheint das kostentechnisch immer noch grenzwertig zu sein im Consumer-Segment. Und so versucht man stattdessen die Limits der Bestandstechnologie zu erweitern und bedient sich hierzu (naheliegenderweise) größeren und/oder mehr Caches.
 
Zuletzt bearbeitet:
weil man GDDR6 weitestgehend ausgereizt hat
Ist denn GDDR7 irgendwo ein weiter Ferne am Hoizont schon erkennbar?
Wird da dran überhaupt ernsthaft gearbeitet?
Wirklich belastbare Informationen finde ich, jetzt auf die Schnelle zumindest, da nicht zu. :hmm:

Oder läuft es evtl. doch auf HBM, welche Version auch immer, raus in (näherer) Zukunft?
 
Zurück