• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 7000: Block-Diagramme zu Navi 31, 32 und 33 veröffentlicht

Illithide

Freizeitschrauber(in)
Das werden wir so
Wer ist "wir" ? Bisher hattest Du Dich doch noch gar nicht zu Wort gemeldet? Pluralis majestatis? Hat noch niemanden majestätisch werden lassen.

Ansonsten: cooles Design von AMD. Endlich wieder Innovation. Und völlig unverständlich, dass nV das im HPC-Bereich zwar voraussichtlich auch schon hinbekommt, seiner Fangemeinde im Gaming aber glaubt immer noch Monolithisch hinrotzen zu können. Die scheinen es auch nach dem Amperedesaster noch nicht kapiert zu haben, wo sie (nicht mehr) stehen. Wenn man sich aber hier so die ersten Reaktionen ansieht, wird's die Fanbase wohl wieder mit genug Marketingsoße obendrauf schlucken. Irgendwie hat sie es dann doch auch wieder so verdient. :devil:
 

raPid-81

Software-Overclocker(in)
Wer ist "wir" ? Bisher hattest Du Dich doch noch gar nicht zu Wort gemeldet? Pluralis majestatis? Hat noch niemanden majestätisch werden lassen.
"Wir" sind die Leute, mich eingeschlossen, die Chatstar's "Hail AMD" Kommentare nicht so stehen lassen. Da gibt es ja einige, wie er selbst anmerkt:

Warum fahren mir immer dieselben grünen Leute voll in die Karre?

Ansonsten: cooles Design von AMD. Endlich wieder Innovation. Und völlig unverständlich, dass nV das im HPC-Bereich zwar voraussichtlich auch schon hinbekommt, seiner Fangemeinde im Gaming aber glaubt immer noch Monolithisch hinrotzen zu können. Die scheinen es auch nach dem Amperedesaster noch nicht kapiert zu haben, wo sie (nicht mehr) stehen. Wenn man sich aber hier so die ersten Reaktionen ansieht, wird's die Fanbase wohl wieder mit genug Marketingsoße obendrauf schlucken. Irgendwie hat sie es dann doch auch wieder so verdient. :devil:
Welches Design? Das Block-Diagramm hat ein User aufgrund der Gerüchte selbst gebastelt. Ist das für Dich bereits Fakt?

Welches Desaster denn? Die höhere 4K Leistung oder die RT-Leistungskrone? Keine Ahnung was Du meinst... Ich verdiene auf jeden Fall den RT-Regler ganz nach rechts mit meiner 3080 im Gegensatz zu allen RDNA2 Karten. :D
 

Blackout27

Volt-Modder(in)
15K Shader sind für mich immer noch nicht greifbar ^^

Da mein persönliches Limit im GPU Bereich nach der RTX3090 bei 250 Watt gesetzt ist, bin ich gespannt welche Produkte dort wildern werden.

Freu mich schon auf die nächsten Gerüchte und das wir dann Anfang 2022 die ersten handfesten Infos bekommen werden.
 

Rollora

Kokü-Junkie (m/w)
Dir ist aber nicht entgangen, dass Nvidia die Tage bereits verkünden musste für die Next Gen. bei einem monolithischen Design bleiben zu müssen!?

Und was das bedeutet ist quasi selbsterklärend.



Unter normalen Umständen, wäre dem ja auch zu zu stimmen, aber eben nicht bei mcm.
MCM hat auch Nachteile und ist nicht automatisch ein Gewinner. Wenn dem so wäre hätten wir schon viel länger solche Designs. Wirst es schon sehen, dass du (mal wieder) zu blauäugig warst
 

BlubberLord

Komplett-PC-Aufrüster(in)
In der heutigen Zeit werden die technischen Innovationen rund um Hardware deutlich interessanter als die reine Rechenleistung.

Wo ein DLSS mal eben Farameraten um mehr als 50% steigern kann oder Raytracingeffekte sie mal eben halbieren können sind neue Watt- und FP32-Monster schön und gut.

Das schreibe ich nicht, weil ich nicht wahrhaben möchte dass AMD mit dem selben Ansatz wie bei ihren CPUs auch den GPU-Markt erobern kann sondern weil ich nVidia für die in diesem Bereich besser aufgestellte und innovativere Firma halte (alles andere wäre auch merkwürdig bei dem Budget). AMD hatte mit den Innovationen im CPU-Bereich (MCM inklusive IF) großen Erfolg und versucht nun diese auf GPUs umzumünzen (Infinity Cache).

Wirklich gespannt bin ich bei der nächsten GPU-Generation auf folgende Fragen:
Wird es endlich Spiele komplett in Echtzeit-Raytracing geben in einer Qualität wie die Marbles-Demo?
Wird Machine Learning vermehrt in Spielen genutzt? Für Inhalte wie auch die Grafik (GANs)?

P. S. : Rein faktisch hat die 6900 XT nicht "die Leistungskrone". In 4K ist sie teilweise um einen zweistelligen Prozentsatz langsamer als die 3090. Und wenn ich die Leistungsaufnahme so reduziere, dass die 3090 10% langsamer ist, hat sich auch das Gegenargument des höheren Stromverbrauchs ein wenig relativiert. In 1080p bleibt AMD König (übrigens auch bei den CPUs) – aber wer über 1000€ für eine GPU ausgibt spielt hoffentlich auch in 4K...
 

Thepunisher2403

PC-Selbstbauer(in)
In der heutigen Zeit werden die technischen Innovationen rund um Hardware deutlich interessanter als die reine Rechenleistung.

Wo ein DLSS mal eben Farameraten um mehr als 50% steigern kann oder Raytracingeffekte sie mal eben halbieren können sind neue Watt- und FP32-Monster schön und gut.

Das schreibe ich nicht, weil ich nicht wahrhaben möchte dass AMD mit dem selben Ansatz wie bei ihren CPUs auch den GPU-Markt erobern kann sondern weil ich nVidia für die in diesem Bereich besser aufgestellte und innovativere Firma halte (alles andere wäre auch merkwürdig bei dem Budget). AMD hatte mit den Innovationen im CPU-Bereich (MCM inklusive IF) großen Erfolg und versucht nun diese auf GPUs umzumünzen (Infinity Cache).

Wirklich gespannt bin ich bei der nächsten GPU-Generation auf folgende Fragen:
Wird es endlich Spiele komplett in Echtzeit-Raytracing geben in einer Qualität wie die Marbles-Demo?
Wird Machine Learning vermehrt in Spielen genutzt? Für Inhalte wie auch die Grafik (GANs)?

P. S. : Rein faktisch hat die 6900 XT nicht "die Leistungskrone". In 4K ist sie teilweise um einen zweistelligen Prozentsatz langsamer als die 3090. Und wenn ich die Leistungsaufnahme so reduziere, dass die 3090 10% langsamer ist, hat sich auch das Gegenargument des höheren Stromverbrauchs ein wenig relativiert. In 1080p bleibt AMD König (übrigens auch bei den CPUs) – aber wer über 1000€ für eine GPU ausgibt spielt hoffentlich auch in 4K...
ich denke mit echtzeit Raytracing wie nvidia in den Demos immer zeigt wird es schon noch eine weile dauern (soweit ich mich erinnere waren es 4x A100 Ampere Karten die die Demo gerendert haben)

Man ist ja jetzt noch mit Schatten und Beleuchtung überfordert in 4k uhd (abgesehen von Hitman 3 und Resident Evil Village) um Echtzeit Raytracing zu Stemmen brauchst schon nochmal ordentlich mehr Power als es die jetzigen Karten haben.
Um es in UHD Ultra @60 in Echtzeit zu stemmen wird denke ich mindestens die 4fache Power benötigt
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
"Wir" sind die Leute, mich eingeschlossen, die Chatstar's "Hail AMD" Kommentare nicht so stehen lassen. Da gibt es ja einige, wie er selbst anmerkt:




Welches Design? Das Block-Diagramm hat ein User aufgrund der Gerüchte selbst gebastelt. Ist das für Dich bereits Fakt?

Welches Desaster denn? Die höhere 4K Leistung oder die RT-Leistungskrone? Keine Ahnung was Du meinst... Ich verdiene auf jeden Fall den RT-Regler ganz nach rechts mit meiner 3080 im Gegensatz zu allen RDNA2 Karten. :D
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert. Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.

Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
 

Thepunisher2403

PC-Selbstbauer(in)
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert. Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.

Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
 

Illithide

Freizeitschrauber(in)
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
 

BigBoymann

Software-Overclocker(in)
Es ist einfach so das Nvidia RDNA 2 etwas unterschätzt hat, weswegen man dachte man kann locker und lässig auch zu Samsung wechseln und Geld sparen anstatt bei TSMC zu fertigen.
Bis man dann die Infos hatte das RDNA 2 doch ein großer Wurf wird.
Um doch noch vorne zu bleiben entschied man sich die Watt Keule auszupacken.

Ich denke Nvidia wird AMD nicht nochmal unterschätzen und jetzt ernst nehmen als Konkurrenten.
Deswegen glaube ich schon das Lovelace was gutes werden kann um auch das MCM in RDNA 3 in schach zu halten sonst würden sie sich nicht zu dem Schritt entscheiden.

Das MCM System bei GPUs muss auch erstmal die Power auf die Straße bringen und ich denke auch nicht das es 1:1 Skalieren wird.
Ich glaube nicht, dass Nvidia noch viel in der Schublade haben wird. Man hat sich von dem riesen Schritt seitens RDNA2 komplett überrumpeln lassen, da gehe ich mit. Wenn man aber die Entwicklungszeiten betrachtet ist eigentlich nicht davon auszugehen, dass man schon reagieren kann. Entweder ist Lovelace sowieso richtig geil, oder man bekommt Probleme wenn RDNA3 wirklich nochmal 50% Effizienz draufpacken kann.
 

raPid-81

Software-Overclocker(in)
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert.
Das ist wie bei den Motoren für Autos, irgendwann nähert man sich dem Maximum an. Führende Hersteller erreichen diese Annäherung früher, die Verfolger erreichen diese aber auch irgendwann. So geschehen bei den GPU's, NV kratzt am technisch machbaren bei den verfügbaren Prozessen und TDPs.

Man darf hier nicht vergessen dass NV trotz schlechterem Prozess 2 Mal (Turing vs RDNA1 + Ampere vs RDNA2) AMD übertrumpft oder zumindest gleichauf geblieben ist.

Außerdem sollte man nicht vergessen dass Teile der Chips für andere Funktionen als Rasterization genutzt werden (Tensor + RT Cores). Wäre diese Chipfläche auch für Shader / Cache genutzt worden dann sähe es auch wieder anders aus.


Und das proprietäre Biotop hat noch nie, bei keinem Goodie irgendwohin geführt. Insofern scheint mir ziemlich unwahrscheinlich, dass das bei RDNA3 vs. lovelace nochmal das Züngeln an der Waage sein wird.
DLSS ist das einzige proprietäre Feature auf Turing / Ampere, die Verbreitung ist über einen Großteil der 3D-Engines gesichert.


Siehst Du ernsthaft noch Zweifel am MCM-Desing von RDNA3? Ist dann halt Mut zur Mindermeinung. Kann man natürlich haben, aber... :rolleyes:
Nein, daran zweifle ich nicht. Das gezeigte Diagramm ist aber nicht von AMD, deswegen ist Deine Aussage "cooles Design" hier verwirrend. Das "Design" ist nicht von AMD.

Ob MCM bei GPU's gut funktioniert wird sich auch erst noch zeigen müssen, Vorschusslorbeeren sollte man weder NV noch AMD geben.


nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
Leadership in einem Prestige-Segment zu behalten hilft der Marke an sich, siehe Formel 1 zum Beispiel. NV hat so viel mehr Geld zur Verfügung, es würde mich stark wundern wenn sie das Gaming Segment kampflos aufgeben.
 

Rollora

Kokü-Junkie (m/w)
Bei RT ist nV sicher unbestritten hardwareseitig noch eine Gen voraus. Aber schaust Du, welchen Vorsprung nV seit Maxwell seit sehr vielen Jahren hatte und was davon (nicht mehr) übrig ist, ist's schon bemerkenswert.
Moment: Nvidia hat ja noch sehr wohl einen deutlichen Vorsprung: Würdest du Tensor und RT Cores Rauswerfen, würde man immer noch deutlich weniger Transistoren und Strom für dieselbe oder mehr Leistung brauchen.
Auch darf man nicht vergessen: Nvidia setzt bis auf den Profichip auf Samsungs 8nm Verfahren - eine Variante von Samsungs 10nm Verfahren- während AMD in TSMCs doch besseren 7nm produziert.
Trotz alledem ist man also grade mal gleich schnell. Nvidia ist also durchaus noch deutlich vorne, vor allem was andere Faktoren betrifft: RTRT, Upscaling und diverse Gameworks-Features, Treiber, Gsync, Entwicklerunterstützung...

Wenn man nur den Spielebalken betrachtet und sagt "schau Gleichstand!" stimmt das zwar auch, ist halt aber nicht dasselbe wie technischer Gleichstand, wenn man bedenkt, dass der andere Hersteller dafür schon Features bringt, die der andere erst integrieren muss etc.

Für mich persönlich ist tatsächlich eine Radeon fast gleich gut geeignet, wie eine Geforce. Weil ich Raytracing erst in 4-6 Jahren als etwas ausgereifter betrachte und außerdem kein 4K verwende zum Spielen (DLSS2.2 wär hier wichtig). Also würde ich derzeit wohl wieder zu einer Radeon greifen. Aber objektiv betrachtet hat Nvidia hier noch einiges an Vorsprung. Auch wenn es derzeit nicht die reine Leistung bzw Effizienz ist


Edit: RTRT ist ohne Zweifel die nächste große Evolution im Grafiksektor, und Nvidia hat hier Jahre an Vorsprung. Beim Hochskalieren auch.

Und MCM alleine ist kein Heilsbringer, es bringt auch Nachteile mit sich. Die Technologie gibts bei anderen Sektoren längst, aber man setzt es erst kürzlich wieder ein. CPUs hatten in den 90ern ausgelagerten Cache, der Pentium Pro hatte auch ausgelagerte Teile AFAIR, der Core 2 war sowieso "glued together".
Es hat bei Kosten, Latenz und Co halt auch Nachteile gegeben, gegenüber einem einzelnen mongolischen Chip. Gerade wenn ein Chip in hohen Stückzahlen gensu so gekauft wird, ist er billiger und schneller, als wenn man zusätzliches Beiwerk verbauen muss. Allerdings ist man mit kleinen Chips die man beliebig hochskalieren kann durchaus gut beraten, wenn der Absatz nicht groß genug ist, dass es sich lohnt eigeme Masken, Chips etc aufzulehen und zu validieren. Da Nvidia 80% des Marktes bedient, lohnt dich gür sie der mongolische Chip in manchen Bereichen länger, als für AMD.
 
Zuletzt bearbeitet:

Thepunisher2403

PC-Selbstbauer(in)
nV könnte jetzt auch einfach seine Marktposition im Gamingsegment zu Geld machen. Die Fanbase hat jedenfalls das Mindset dazu. Wachstumschancen scheint nV ja wohl schon seit einiger Zeit eher im HPC-/AI-Bereich zu sehen. Was soll für das Unternehmen nach 80% Marktanteil und 2k-Preisen im Enthusiast-Bereich auch noch groß rumkommen?
Das hätten se dann schon bei ampere machen können als die Brechstange rauszuholen....
Wie du siehst gehts hier eben auch ums Image, es bring immer ordentlich Prestige wenn man sagen kann wir bieten euch die stärkste Karte am Markt

Natürlich verdient man im HPC AI Markt mehr aber die Gaming Sparte wirft auch ordentlich was ab

Wenn AMD die stärkeren Karten über Jahre bringen kann der Markt sich sehr schnell drehen und würde NVIDIA ordentlich Geld kosten, da würden die Aktionäre sturmlaufen....
Ich glaube nicht, dass Nvidia noch viel in der Schublade haben wird. Man hat sich von dem riesen Schritt seitens RDNA2 komplett überrumpeln lassen, da gehe ich mit. Wenn man aber die Entwicklungszeiten betrachtet ist eigentlich nicht davon auszugehen, dass man schon reagieren kann. Entweder ist Lovelace sowieso richtig geil, oder man bekommt Probleme wenn RDNA3 wirklich nochmal 50% Effizienz draufpacken kann.
Wenn NVIDIA wieder bei TSMC fertigen lässt (nicht nur die Profikarte) halte ich es führ sehr wahrscheinlich das man genug Power hat um AMD in Schach zu halten, man sieht ja wie hoch und gut die AMD Karten takten mit tsmc 7nm, angeblich soll es ja 5nm bei tsmc werden.
Wenn se bei Samsung weiterhin bleiben is es nur noch ne 50:50 Chance weil nicht absehbar ist wie Samsung in 5nm liefern kann...

Dazu muss auch erstmal AMD ihre MCM Power (falls es denn kommt) auf die Straße bringen, wir wissen auch nicht wie dieses Design dann in Spiele skaliert.
 
Zuletzt bearbeitet:

Av4l

Komplett-PC-Aufrüster(in)
Auch ich bin da definitiv raus, wenn das Richtung 400W+ geht. Mich würde dann höchstens interessieren, wie die Vollausbau-Chips bei niedrigem Powerlimit performen. Wahrscheinlich lohnt sich der Kauf von einer Midrange-Karte mit 250W dann trotzdem mehr.
 

BigBoymann

Software-Overclocker(in)
Das hätten se dann schon bei ampere machen können als die Brechstange rauszuholen....
Wie du siehst gehts hier eben auch ums Image, es bring immer ordentlich Prestige wenn man sagen kann wir bieten euch die stärkste Karte am Markt

Natürlich verdient man im HPC AI Markt mehr aber die Gaming Sparte wirft auch ordentlich was ab

Wenn AMD die stärkeren Karten über Jahre bringen kann der Markt sich sehr schnell drehen und würde NVIDIA ordentlich Geld kosten, da würden die Aktionäre sturmlaufen....

Wenn NVIDIA wieder bei TSMC fertigen lässt (nicht nur die Profikarte) halte ich es führ sehr wahrscheinlich das man genug Power hat um AMD in Schach zu halten, man sieht ja wie hoch und gut die AMD Karten takten mit tsmc 7nm, angeblich soll es ja 5nm bei tsmc werden.
Wenn se bei Samsung weiterhin bleiben is es nur noch ne 50:50 Chance weil nicht absehbar ist wie Samsung in 5nm liefern kann...

Dazu muss auch erstmal AMD ihre MCM Power (falls es denn kommt) auf die Straße bringen, wir wissen auch nicht wie dieses Design dann in Spiele skaliert.
Ich glaube nicht, dass der Unterschied TSMC zu Samsung derartig groß ist, klar reden wir hier sicherlich von 10%, aber dann ist auch gut und so wie RDNA2 bereits performt, man vergisst man neben dem absoluten Balken gerne den relativen, wird ein MCM Design zwei grundlegende Vorteile haben. Zum einen wird man auf Grund der schieren Anzahl an Shadern dem Sweet Spot näher kommen, man muss zwangsläufig niedriger takten und steigert die Effizienz. Zum anderen sollte ein MCM Design Vorteile bei der Wärmeableitung haben, weshalb man unter Umständen einen höheren Gesamtverbrauch anstreben kann.

Für mich ist das MCM Design die Technik der Zukunft, spannend wird zu sehen sein, wie sich der erste Versuch schlagen wird. Das schreibe ich ja schon die ganze Zeit, nur weil man auf dem Papier die höhere Leistung hat, bedeutet dies im Praxisbench noch lange nicht den längsten Balken.

Wenn NV bei Samsung bleibt, würde ich die Chancen aber weit jenseits von 50/50 sehen, selbst bei TSMC sehe ich in der aktuellen Gerüchteküche leichte bis mittlere Vorteile bei AMD. Wurde hier sogar 60/40 pro AMD sagen, wenn Nvidia bei Samsung bleiben muss, sogar eher in Richtung 70/30. Warum? Wer hätte denn bei RDNA2 gedacht, dass AMD Wort hält? Sie haben 50% versprochen und sogar etwas mehr geliefert. Nvidia hat mit der aktuellen Generation eigentlich nichts geliefert, wenn man ehrlich ist, alles was NV gewonnen hat ist durch Mehrverbrauch und den Shrink bedingt, in der Architektur haben sie eine maßlose Enttäuschung hingelegt.leider vergessen daß die Leute gerne, sehe auch bisher keinen Grund anzunehmen, dass Lovelace hier eine Wende einleitet. So ruhig war es letztlich selten bei Nvidia.
 

gerX7a

BIOS-Overclocker(in)
Ich glaube nicht, dass der Unterschied TSMC zu Samsung derartig groß ist, klar reden wir hier sicherlich von 10%, aber dann ist auch gut und so wie RDNA2 bereits performt, man vergisst man neben dem absoluten Balken gerne den relativen, wird ein MCM Design zwei grundlegende Vorteile haben. Zum einen wird man auf Grund der schieren Anzahl an Shadern dem Sweet Spot näher kommen, man muss zwangsläufig niedriger takten und steigert die Effizienz. Zum anderen sollte ein MCM Design Vorteile bei der Wärmeableitung haben, weshalb man unter Umständen einen höheren Gesamtverbrauch anstreben kann.
Der Unterschied ist durchaus signifikant. Die Hersteller vergleichen bzgl. PPA leider nur hausintern, was man jedoch direkt vergleichen kann ist das "A" und da zeigt sich zwischen TSMCs 7nm mit 91,2 MTr/mm2 und Samsung's 8LPE mit 61,2 MTr/mm2 ein deutlicher Unterschied. Letzterer ist eine 10nm-Weiterentwicklung der primär noch zusätzlich eine UHD-Lib spendiert wurde. RDNA2 hat mit der Verwendung des N7 durchaus einen signifikanten Vorteil zu verzeichnen.
Hinzu kommt, dass nVidia bei Ampere vergleichsweise dicht packt um einen kleinen Chip zu implementieren, was vermutlich auch zwangsweise bedingt, dass Ampere niedriger takten muss und nur in der Range der Vorgeneration arbeitet. Dafür hat man hier jedoch die Ausführungseinheiten deutlich verbreitert.

*) Für einen echten herstellerübergreifenden Vergleich bräuchte man eigentlich zwei vergleichbare Designs in den unterschiedlichen Prozessen gefertigt. Beispielsweise nVidia hatte so etwas mal bei Pascal, bei dem sie relativ spät im Lebenszyklus auch eine GPU bei Samsung in einem 14nm-Node in jedoch nur kleiner Stückzahl fertigen ließen (Samsung brauchte hier zu lange; der GP107, wenn ich mich recht erinnere, ein Wechsel von TSMCs 16nm auf den Samsung-Prozess).

Für mich ist das MCM Design die Technik der Zukunft, spannend wird zu sehen sein, wie sich der erste Versuch schlagen wird. Das schreibe ich ja schon die ganze Zeit, nur weil man auf dem Papier die höhere Leistung hat, bedeutet dies im Praxisbench noch lange nicht den längsten Balken.
MCM ist für weiter wachsende, hochkomplexe Designs schlicht eine fertigungstechnische Notwendigkeit, weil diese ansonsten nicht mehr wirtschaftlich realisierbar sind. Wenn Unternehmen jedoch die Möglichkeit haben auf derartige zusätzliche Komplexität zu verzichten, werden die das auch machen. Intel bspw. hatte bisher keinen Grund MCMs zu fertigen, weil die das erst mit einem effizienteren Node richtig hätten ausfahren können (obwohl die Packaging-technisch voraussichtlich gar eher noch mehr Möglichkeiten zur Verfügung haben als die Konkurrenz). In der Zwischenzeit haben sie mit ihren monolithischen 14nm-Designs weiterhin gut verdient. Beispielsweise AMDs Consumer-Chiplet-Designs sind dagegen vergleichsweise teuer in der Fertigung (und man ist dennoch gezwungen den Marktführer preislich zu unterbieten und eine geringere Marge hinzunehmen um Wachstum zu erzielen). Auf der anderen Seite ermöglicht AMD das MCM aber auch Epyc, am Ende also in der Gesamtbetrachtung eine Mischkalkulation.
Einzig im Mobilbereich hilft ihnen das nicht und sie waren gezwungen ein einzelnes, monolithisches Design zu entwickeln, mit dem sie alle Mobile-Chips und auch APUs abbilden, erneut ein Zeugnis der internen Zwänge um diese Märkte effizient und mit weiterem Wachstum bedienen zu können. Erst jetzt können sie es sich leisten mehere Designs anzugehen (so bspw. zusätzlich Van Gogh, jedoch eine etwas schräge Kombination, da nun modernes RDNA2 mit dagegen alten Zen2-Cores).
Bei GPUs wird AMD mit seinem kleinen Volumen weitaus anfälliger bzgl. Yield-Thematiken bei übergroßen Chips sein, d. h. für die rentiert sich eine frühzeitige Verfolgung eines MCM-Ansatzes eher (bzw. für die wird es eher notwendig diesen Weg zu gehen).
nVidia ist offensichtlich der Meinung, dass die in der NextGen (aus wirtschaftlicher Sicht) noch ohne MCM auskommen (wenn man den Gerüchten Glauben schenken darf). Die werden sich sicherlich was dabei gedacht haben, denn die sind nicht umsonst der unangefochtene Marktführer. Ob ihre Planung am Ende auch zum gewünschten Erfolg führen wird, ist dagegen ein anderes Thema. ;-)

Wenn NV bei Samsung bleibt, würde ich die Chancen aber weit jenseits von 50/50 sehen, selbst bei TSMC sehe ich in der aktuellen Gerüchteküche leichte bis mittlere Vorteile bei AMD. Wurde hier sogar 60/40 pro AMD sagen, wenn Nvidia bei Samsung bleiben muss, sogar eher in Richtung 70/30. Warum? Wer hätte denn bei RDNA2 gedacht, dass AMD Wort hält? Sie haben 50% versprochen und sogar etwas mehr geliefert. Nvidia hat mit der aktuellen Generation eigentlich nichts geliefert, wenn man ehrlich ist, alles was NV gewonnen hat ist durch Mehrverbrauch und den Shrink bedingt, in der Architektur haben sie eine maßlose Enttäuschung hingelegt.leider vergessen daß die Leute gerne, sehe auch bisher keinen Grund anzunehmen, dass Lovelace hier eine Wende einleitet. So ruhig war es letztlich selten bei Nvidia.
Wenn die Gerüchte korrekt sind und es bei nVidia ein monolithischer Chip mit rd. 18.000 ALUs werden soll, dann wird das zweifellos ein TSMC-Prozess werden, also bspw. der N5, N5P oder gar N4. Samsung's 5LPE kommt hier aufgrund der deutlich kleineren Logikdichte eher nicht infrage, denn Samsung's 5nm-Prozess ist nicht so ganz mit TSMCs N5 zu vergleichen sondern liegt deutlich näher an deren N6 (einem 7nm-Node).
Was jedoch denkbar wäre ist, dass nVidia weiterhin beide Foundries nutzt um die Kapazitäten optimal zu verteilen. Beispielsweise die Top-Consumer-Chips könnten bei TSMC entstehen, Mittelklassechips und kleiner könnten bspw. Samsungs 5LPE nutzen, der zudem auch bezogen auf die Wafer-Kosten günstiger sein dürfte, was die Mege noch einmal optimieren würde.

Btw, warum sollte Ampere eine "maßlose Enttäuschung" sein. Ampere ist Turing in jedweder Hinsicht überlegen, bspw. egal von welcher Richtung man sich einer RTX 2080 Ti nähert. Die RTX 3080 ist deutlich günstiger, signifikant schneller, verbraucht realtiv gesehen nicht ansatzweise so viel mehr, sodass ihre Effizienz am Ende durchgehend besser als bei Turing ist. Die RTX 3070 ist leistungstechnisch recht gut vergleichbar, kostet aber nicht einmal halb so viel und ist gar deutlich effizienter als das Turing-Pendant.
Und btw, sieht man sich die Absatzzahlen und Verbreitung an, dann scheint offensichtlich nur ein kleiner Teil des Marktes deine Ansicht zu dieser "Enttäuschung" zu teilen, denn anders lassen sich die Zahlen trotz der derzeit exorbitanten Preise nicht erklären.
 
Zuletzt bearbeitet:

sandworm

Freizeitschrauber(in)
Der Unterschied ist durchaus signifikant. Die Hersteller vergleichen bzgl. PPA leider nur hausintern, was man jedoch direkt vergleichen kann ist das "A" und da zeigt sich zwischen TSMCs 7nm mit 91,2 MTr/mm2 und Samsung's 8LPE mit 61,2 MTr/mm2 ein deutlicher Unterschied. Letzterer ist eine 10nm-Weiterentwicklung der primär noch zusätzlich eine UHD-Lib spendiert wurde. RDNA2 hat mit der Verwendung des N7 durchaus einen signifikanten Vorteil zu verzeichnen.
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
 

Thepunisher2403

PC-Selbstbauer(in)
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
GDDR6X > 24Gbps wir es wohl auch nicht geben - und warum soll es das nicht geben ?
der nachfolger von gddr6 wurde ja auch einfach aus dem hut gezaubert, wenn wieder mit micron zusammen was entworfen wird das dann angepasst auf nvidias gpu sind dann könnte sowas schon realisiert werden...
warten wirs einfach ab

nvidia wird das schon genau abgewogen haben was derzeit sinn macht und was nicht...
ich bin zumindest auf die neuen gpus gespannt
 

gerX7a

BIOS-Overclocker(in)
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

In der Realität beträgt die Differenz lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million (mitnichten dichter gepackt als Navi 21)

Da wäre noch eine kleine Frage was die plausibelste Lösung sein könnte um diesen monolithischen riesen Chip mit seinen 18.000 ALUs mit genügend Speicherbandbreite zu versorgen?

Status quo: 384Bit, GDDR6X, 19.5 Gbps (10496)

HBM kommt einhelliger Meinung wohl nicht in Frage.
GDDR6X > 24Gbps wir es wohl auch nicht geben.
Ein L3 Cache kommt mit Sicherheit auch nicht in Frage.
512 Bit wohl auch nicht.
Sonst noch eine Idee?
Aller Wahrscheinlichkeit steht dir hier mal wieder dein eigener Bias im Weg (die weniger schmeichelhaften Alternativen wären eine Lese- oder gar Verständnisschwäche).
Noch mal zur Klarstellung: nVidia implementiert im 8LPP mit einer deutlich höheren relativen Logikdichte i. V. z. dem, was der Prozess bestenfalls ermöglicht. nVidia nutzt hier bereits 74 % der möglichen Logikdichte des Prozesses, AMD dagegen begnügt sich mit gerade mal 56 %, was natürlich was mit dem Design macht und es ihnen bspw. auch eher ermöglichen können wird, die GPUs höher zu takten.
Ein Navi21 auf Samsung's 8LPP oder anders herum, ein GA102 in TSMCs N7 würde etwas andere Eigenschaften aufweisen. Ersterer würde zwangsweise langsamer/ineffizienter werden, letzterer würde sparsamer und/oder schneller werden, je nachdem welche Gewichtung der möglichen Zugewinne hier nVidia für sinnvoll erachten würde (jedoch nur sparsamer und dafür dann deutlich dürfte man bspw. wohl eher ausschließen, weil der Markt im oberen Drittel mehr auf Leistung als auf Effizienz schaut).

Bezüglich der notwendigen Speicherbandbreite machst du dir vollkommen unnötg Gedanken, bzw. schließt gar Möglichkeiten aus, die vollkommen naheliegend wären (und das gar unbegründeterweise).
Zum einen ist zu berücksichtigen, dass bisher alles Gerüchte sind, auch wenn CS' "Quelle" hier schon konkret was von 384 Bit OC-GGDR6 schreibt. Unwahrscheinlich ist zumindest der Speichertyp dennoch nicht, da nicht anzunehmen ist, dass die Kollaboration mit Micron hier nur eine Eintagsfliege war. HBM2 dürfte dagegen kostentechnisch weiterhin recht unwahrscheinlich sein. 512 Bit mit OC-GDDR6 sind auch sehr unwahrscheinlich, weil das zusätzliche PHY und die Speicherbausteine nochmals deutlich mehr vom energetischen/thermischen Budget abknapsen würden, also wird es irgendwas im Bereich von 256 - 384 Bit sein und der Rest wird mit einem Cache aufgefangen, übrigens bei nVidia auch nichts Neues, denn gegenüber herkömmlichen Designs weist bspw. der GA100 mit 40 MiB einen übergroßen L2$ auf, der relativ gesehen extrem viel Fläche in Anspruch nimmt. Will man es günstiger und kompakter haben, macht man es wie AMD und fügt stattdessen einen L3$ ein, den AMD zwar vollmundig als "Infinity Cache" bereichnet, am Ende ist das aber nur ein schlichter L3$, der zusätlzich in die Speicher/Cache-Hierarchie eingefügt wurde (und bei CPUs bspw. schon seit einigen Jahren Standard ist). Also kein Hexenwerk.
Intel macht bei Xe-HPG übrigens genau das gleiche, denn auch hier kommt (mindestens) das Topmodell offensichtlich mit 16 GiB GDDR6 an einem 256 Bit-SI ums Eck, d. h. entweder gibt es einen dedizierten L3$ oder man hat mindestens einen relativ großen L2$.
Letzten Endes kann man zwar technisch interessiert über das SI spekulieren, relevant ist das aber schlussendlich nicht wirklich, den es obliegt hier dem Hersteller ein passendes Speicherinterface beizusteuern, denn der schönste und tollste Chip nützt nichts, wenn der wegen einem verkrüppelten Speichersubsystem nicht ausgelastet werden kann.

*) Ergänzend: Micron's OC-GDDR6 (kann man zwar umgangssprachlich als "GDDR6X" bezeichnen, ist faktisch jedoch falsch, da es keinen GDDR6X-Standard gibt) sind aktuell gar 21 Gbps-Bausteine, die nVidia derzeit nur bis zu 19,5 Gbps ausfährt. Micron kann hier durchaus weiter optimieren (und hatte das auch schon in Aussicht gestellt). Hinzu kommt, dass die Speicherhersteller gerade im Begriff sind ihre Fertigung auf EUV umzustellen, was für derartiges OC-GDDR6 einen größeren Entwicklungssprung bedeuten könnte. Vielleicht wären tatsächlich 24 Gbps möglich, bei einem derart vergrößerten Chip würde ich aber dennoch nicht davon ausgehen, dass der ohne nennenswerte Anpassungen am Cachesubsystem auskommen könnte, schlicht weil das mal eben rund +80 % mehr ALUs sind, die derzeit zumindest kolportiert werden und eine derart erhöhte Pro-Pin-Geschwindigkeit steigert die Gesamtspeicherbandbreite nur in überschaubarem Rahmen. Einen größeren Bestands-oder gar größere Caches wird es also so oder so geben.
Ist letztendlich auch ein no-brainer und das Cachesubsystem wurde bei CPUs in den letzten Jahren ständig angepasst und vergrößert. Bei GPUs kommt man jetzt aufgrund der immer anspruchsvoller werdenden Chips ebenso in eine Bandbreitennot weil man GDDR6 weitestgehend ausgereizt hat und müsste im einfachsten Fall auf die nächstbessere Speichertechnologie upgraden, hier HBM2(E), jedoch scheint das kostentechnisch immer noch grenzwertig zu sein im Consumer-Segment. Und so versucht man stattdessen die Limits der Bestandstechnologie zu erweitern und bedient sich hierzu (naheliegenderweise) größeren und/oder mehr Caches.
 
Zuletzt bearbeitet:

chill_eule

Moderator
Teammitglied
weil man GDDR6 weitestgehend ausgereizt hat
Ist denn GDDR7 irgendwo ein weiter Ferne am Hoizont schon erkennbar?
Wird da dran überhaupt ernsthaft gearbeitet?
Wirklich belastbare Informationen finde ich, jetzt auf die Schnelle zumindest, da nicht zu. :hmm:

Oder läuft es evtl. doch auf HBM, welche Version auch immer, raus in (näherer) Zukunft?
 

gerX7a

BIOS-Overclocker(in)
Mir ist dazu auch noch nichts untergekommen, aber der Druck ist derzeit auch vergleichsweise gering, da das "Ausgereizt" relativ ist und sich primär auf nVidia bezieht (AMD steht Micron's OC-GDDR6 derzeit vermutlich noch nicht zur Verfügung, weil nVidia vermutlich alle produzierten Mengen aufkauft *):
a) Standard-GDDR6 geht bis 18 Gbps.
b) Micron bietet seine OC-Module bis 21 Gbps an, wie gesagt, nVidia nutzt das nicht ganz aus (läuft am oberen Limit vielleicht auch derzeit noch nicht so stabil oder produziert zu viel Abwärme).
c) Micron hat jedoch eine Weiterentwickung seiner OC-PAM4-Entwicklung schon Ende 2020 erklärt, d. h. man kann mit Optimierungen rechnen, EUV wäre eine Möglichkeit, und vielleicht kommen ja gar noch ein paar Gbps dazu in 2022? Zudem dürften in 2022 auch standardmäßig 16 Gb-BGAs zu Verfügung stehen.
d) Darüber hinaus wird natürlich ab einem gewissen Grade HBM2/3 auch kostentechnisch interessant, weil sich dann Mehrkosten und die technischen Vorteil wie Waage halten werden. Ein Punkt bei HBM ist natürlch auch immer die Verfügbarkeit, denn man muss berücksichtigen, dass Consumer-Produkte HighVolumeProdukte darstellen, d. h. da müsste man schon feste Zusagen seitens der Hersteller vorvereinbaren um nicht in Probleme zu laufen und die müssten vermutlich ihre Kapazitäten erhöhen (wiederum Kosten ;-))

*) Und da AMD derzeit die Schiene fährt Standard-GDDR6 + Cache, hat Micron hier auch keine Veranlassung seine Kapazitäten zu erhöhen, sondern wird sich weitestgehend auf die zugesagten Abnahmemengen von nVidia hin ausrichten.

Es wird auf jeden Fall interessant zu sehen sein, ob es auch in 2022 keine HBM-Designs geben wird, insbesondere bei den HigEnd-Chips, die beide Hersteller ja auch für professionelle Produkte mitverwenden werden. Ein paralleles Speichersubsystem in einem Chip wird sicherlich keiner implementieren, weil das pauschal Wafer-Fläche verschwendet. Wollte man GDDR6 und HBM2 nutztn, bräuchte man also zwei Chipdesigns. Bei AMD könnte das u. a. einfacher sein mit RDNA3, das angeblich einen separaten IOD nutzen soll, d. h. wenn der Speicher direkt am IOD hinge (und der nicht nur PCIe anbindet), könnte man zwei IODs designen, einen für GDDR6 und einen für HBM2 und die GPU-Tiles unverändert weiterverwenden.
Jedoch gibt es zwei Probleme bei der auf den ersten Blick eleganten Überlegung:
a) Die GPU-Tiles sind darauf ausgelegt mit der geringen GDDR6-Bandbreite auszukommen und haben deshalb große L3$ on-die. Die wären beim HBM-Design aber überflüssig und würden unnötig Wafer-Fläche verschwenden. Im worst case wäre die zusätzliche Cache-Stufe bei einem derart schnellen Speicher gar kontraproduktiv?
b) AMD hat grundsätzlich ein viel kleineres Umsatzvolumen bei seinen Profikarten, d. h. die zusätzlichen Aufwedungen fallen hier bei AMD für ein zusätzliches Design deutlich schwerer ins Gewicht.

Es gab jedoch auch mittlerweile Gerüchte im Äther, die behaupteten, dass bei RDNA3 der L3$ als separates Die am IOD hängt und damit optional und bspw. größentechnisch variabel wäre. Ob AMD bereits für 2022 ein derart fexibles und damit aber auch komplexes und teuer zusammengesetztes Design vorsieht ... wer weiß? Aktuell schwirren, wie zu RDNA2-Zeiten, noch sehr viel teils gegensätzliche Gerüchte durch den Äther und davon werden sich zwangsweise entliche als falsch erweisen ...

Darüber hianus gehe ich aber auch davon aus, dass man bei den großen Dreien sicherlich auch an etwas forschen wird, das später mal etwas wie GDDR7 werden könnte und das recht triviale Ziel haben wird wie etwas mehr Leistung als die Vorgeneration zu bieten, vielleicht auch effizienter sein wird, aber weiterhin implementationstechnisch günstiger zu sein als Stacked-DRAM wie bspw. HBM2/3. Der Vorteil von GDDR bleibt nun einmal die designtechnische Flexibilität. HBM muss mit dem Chip auf einem Interposer zusammenkonfiguriert werden und damit hat man ein weitaus teueres Design, das man bei Bedarf nicht mal eben in den unteren Marktsegmenten für weniger Geld vertreiben kann, weil die Kosten des gesamten Packages konstant bleiben. Bei separatem Speicher kann man hier zumindest noch am Speicher den Rotstift ansetzen und das Produkt runterstrippen und kleinere Chips verwenden oder gar auch grundsätzlich weniger Chips (und damit implizit ein schmaleres SI). Entsprechend würde ich davon ausgehen, dass aus kostengründen auch irgendwann noch tatsächlich etwas wie GDDR7 kommen wird.
 
Zuletzt bearbeitet:

chill_eule

Moderator
Teammitglied
5 Minuten Lesezeit...
Danke für deine, wie immer, sehr ausführliche Antwort :wow::D

d. h. da müsste man schon feste Zusagen seitens der Hersteller vorvereinbaren um nicht in Probleme zu laufen und die müssten vermutlich ihre Kapazitäten erhöhen
Neue Chip-Designs, die HBM verwenden zaubert man ja aber sicherlich nicht von Heute auf Morgen aus dem Hut, oder?
Dementsprechend müsste ja einer der Hersteller etliche Monate (Jahre?) im voraus schon mal bei einem Speicherhersteller anklopfen und entsprechend prognostizierte Mengen anfragen.

Interessant wäre natürlich auch der Zweigleisige Ansatz mit zwei I/O dies:
Wollte man GDDR6 und HBM2 nutztn, bräuchte man also zwei Chipdesigns. Bei AMD könnte das u. a. einfacher sein mit RDNA3, das angeblich einen separaten IOD nutzen soll
Ob das bei RDNA3 schon der Fall sein wird? Oder, falls überhaupt mal, erst bei RDNA4?
So viel Spekulatius!
Und soo viele Kosten/Nutzen-Rechnungen.
Zwei I/O Dies entwickeln um auch günstigen GDDR6 Speicher verwenden zu können für die Consumer-Karten?
Einer mit dem, ja noch recht frischen, L3 Cache?
Einer ohne, aber dafür eben HBM?
Auch wieder extra Kosten für ein separates Design :ka:
Plus:
Die GPU-Tiles sind darauf ausgelegt mit der geringen GDDR6-Bandbreite auszukommen und haben deshalb große L3$ on-die
Aktuell arbeitet AMD ja genau so mit RDNA2.
Allerdings bietet AMD auch gleichzeitig die CDNA (inklusive HBM2) im "Profi"-Bereich an.

Ein willkommener Kunstgriff wäre es natürlich, wenn AMD es schafft, all diese Elemente so zu designen, dass eine maximal mögliche Flexibilität und sogar gewisse Schnittmengen entstehen.
Bspw. High-End RDNA3 Grafikkarten mit HBM und/oder günstigere CDNA[2?] Profi-Karten mit "nur" GDDR6, statt entweder-oder. Diese könnte man dann je nach Bedarf und Budget zusammenwürfeln. *träum* :crazy:

Hach, herrlich kompliziert das Alles :fresse:
 

gerX7a

BIOS-Overclocker(in)
Ja, da gibts durchaus viele Designpfade, die man wählen könnte. Der limitierende Faktor wird am Ende immer die Wirtschaftlichkeit sein und nicht etwa das maximal größte Lächeln den Enthusiast-Gamern ins Gesicht zu zaubern, denn schließlich sind sowohl AMD wie auch nVidia hier zum Geldverdienen und nicht etwa als Weltverbesserer unterwegs. Beim erstgenannten Brand vergessen das leider so manchen immer gerne. ;-)

Zwei, drei lose Anmerkungen:

RDNA3 wird in den unteren Marktsegmenten sicherlich weiterhin monolithische Designs verwenden; MCM wäre da vermutlich zu teuer.

CDNA (ein angepasstes GCN) ist komplett unabhängig von der RDNA-Entwicklung und rein auf Compute Workloads ausgelegt. In der Architektur wurden gar wesentliche Bestandteile an 3D-Funktionseinheiten wegrationalisiert. Im Wesentlichen ist noch die Media-Engine übriggeblieben, damit Video verarbeitet werden kann, weil viele AI-Workloads Videomaterial verarbeiten.

Letzten Endes ist das schon alles recht interessant und technologisch haben die Hersteller hier sicherlich vielfältige Möglichkeiten, die weitaus effizientere oder leistungsfähigere Designs ermöglichen würden, nur der Generalanspruch und das Thema Wirtschaftlichkeit schränken den Griff in die Technologiekiste natürlich ein und wenn eine Firma am Ende des Bilanzjahres Umsatz und Gewinn X, Y unterm Strich stehen haben will und Produktsparte dazu z % beitragen muss, dann kann man halt nicht das technisch Beste verbauen. AMD hat sich mal irgendwann mit HBM versucht und das auf den Weg gebracht, jedoch beispielsweise Intel und nVidia dürften seit etwa 2016/17 schon durchgehend weitaus mehr HBM2 als AMD verbauen in ihren Produkten, was am Ende schlicht ein Resultat der Kosten ist, denn auf rein technischer Seite hat HBM etliche Vorteile für sich zu verzeichnen. Und mit der Architekturaufspaltung wird man zukünftig auch kein Abfallprodukt a la Radeon VII mehr erwarten können, sondern muss warten, bis nVidia oder AMD tatsächlich gezielt HBM in den Consumer-Markt bringen werden.
Ich würde zumindest vermuten, sofern nicht etwas wie GDDR7 überraschend schnell kommt (oder Micron ihren OC-GDDR6 noch stark weiteroptimieren kann) oder aber man die Caches einfach noch und nochmals größer macht um weiterhin mit GDDR6 günstig wegkommen zu können, dass die übernächste GPU-Gen (2024?) zumindest im HighEnd mit HBM aufwarten wird.

Btw ... Intel hat hier ja schon mit Sapphire Rapids SP skizziert was kommen wird. Eine Tile-basierte via EMIB-zusammengesetzte CPU, deren Tiles wahrscheinlich vollstädiges I/O besitzen werden, also grob vermutet 16 PCIe 5.0 Lanes pro Tile zzgl. zwei DDR5-Controllern und zusammengesetzt bis zu vier Tiles pro CPU.
Zudem darf man vermuten, dass sofern es nicht einen separaten Tile geben wird, dass jeder Tile zusätzlich über einen HBM2-Controller/PHY verfügen wird, um einen HBM2-Stack anbinden zu können. Die volle CPU kann also 64 GiB (bestenfalls wäre gar 96 GiB möglich) HBM2 auf dem Package haben, die als L4$ fungieren können und das Speichersubsystem damit drastisch beschleunigen dürften, was vor allem für AI-Workloads vorgehen sein wird. Darüber hinaus erklärte man aber auch schon, dass ein DRAM-less Mode möglich sein soll, d. h. die CPU läuft ausschließlich mit dem HBM2 als LastLevel-Speicher ohne DRAM.
Ein HEDT-Ableger davon mit bspw. nur zwei CPU-Tiles und 32 GiB HBM2 mit vielleicht 500+ GiB/s Speicherbandbreite klingt schon ein wengi verrückt. ;-)

Und zukünftige Designs werden gar noch komplexer. Von Meteor Lake weiß man schon, dass es ein Compute-Tile gibt, jedoch auch dass das Design Foveros nutzen wird, d. h. es wird interessant, was uns hier in Zukunft erwartet, wobei man aber auch nüchtern sagen muss, dass das leistungstechnisch schon alles weit über den einfachen Consumer-Bedarf hinausgeht ... ja,ja, ich weiß, so mancher wird ja dennoch nicht müde zu behaupten "es gibt nie genug" ;-)
 
Zuletzt bearbeitet:

Honkalonka78

Komplett-PC-Aufrüster(in)
AMD hat auch nichts zu verschenken, die ALU-Werte sind mir etwas zu utopisch im Vergleich zu heute.

5120 ALUs, 160-192 MB IC für eine 7700 XT (Vollausbau)
4608 ALUs, 128-160 MB IC für eine 7700 (Teilverwertung)
3840 ALUs, 128 MB IC für eine 7600 XT (Vollausbau)
3200 ALUs (eher 2560), 96-128 MB IC für eine 7600 (Teilverwertung)

Damit wäre man im Einstiegs- und Midrange-Bereich locker bei 80% - 100% über heutiger Leistung.

Selbst bei 6nm muss AMD auf die Kosten achten und die Chipgrößen im Zaum halten.

Der Infinity Cache könnte als gesonderter Chip natürlich anwachsen.
Aber auch hier, warum soll AMD 512 MB "verschenken", wenn 256 MB für das Topmodell auch schon eine Verdopplung wären? Max sind vielleicht 384 MB drin.
Wenns dazu eh schon schnelleren RAM gibt, dann wäre das Verschwendung.

Die Top-Modell könnten natürlich so stark anwachsen, dank Multi-Chip. Aber ganz ehrlich, die werden 1500 Euro + kosten und das wäre der Preis in normalen Zeiten, aktuell würde die Karte für 3500 - 4000 über den Tisch gehen.

Aber auch die Multichips müssen produziert werden und ich will nicht wissen wie hoch der Ausschuss ist bei 5120 ALUs auf einem Chip, geschweige denn wenn noch mehr ALUs drauf sein sollen.

2023 ist schließlich auch noch ein Jahr und da will AMD bestimmt RX 8xxx verkaufen, das könnten die mit leicht höherem IC und ALU Vollausbau machen, ohne eine neue Archtiketur in den Markt zu werfen. + evtl. GDDR7 und fertig ist die Laube.
 
Zuletzt bearbeitet:

Technologie_Texter

BIOS-Overclocker(in)
Was passt dir bei den ALUs denn nicht?

Wer sagt denn, daß es eine Cache-Die mit 512MB geben muß?

Die Cache-Die könnte auch nur 256MB groß sein und bei den wenigen Top-Karten stapelt man da 2 Dice.
 

Honkalonka78

Komplett-PC-Aufrüster(in)
Was passt dir bei den ALUs denn nicht?

Die Produktion davon sagt mir, dass es die so nur zu hohen Preisen geben wird und der Stromverbrauch muss ja auch noch im Zaum gehalten werden.

Mit Multichip ist das zwar entschärft, aber dennoch sind das (auf heutige Werte bezogen) High-End-Chips die 5000 und mehr ALUs haben sollen. Wie gesagt, dass erhöht den Ausschuss und damit erhöht es die Kosten.

Also MUSS es kleinere Chips geben, die man eher in Einstiegskarten verbaut, d.h. Einstiegskarten werden keine 5000 ALUs haben.


Wer sagt denn, daß es eine Cache-Die mit 512MB geben muß?
Ich sage das nicht, die Gerüchteküche. Ich halte das für überzogen, aber da es ein extra Modul sein wird (momentan redet man nur von 1 nicht von mehreren), kann es schon möglich sein. Die Frage ist auch hier wieder zu welchem Preis und warum sollte AMD das machen (außer um nvidia in die Schranken zu weisen).

Die Cache-Die könnte auch nur 256MB groß sein und bei den wenigen Top-Karten stapelt man da 2 Dice.
Das stimmt, nur beim stapeln sind wir da glaube ich noch nicht. Wenn 2 einzelne Caches wie einer angesprochen werden können (also von allen Einheiten) dann macht das Sinn. Aber denke Latenzen beim Zugriff mehrerer Module stehen dem im Weg (muss schließlich koordiniert werden), daher wären es dann eher jeweils 256 MB je Recheneinheit, was keinesfalls 100% 512 MB entspricht (da Daten doppelt vorhanden sein können).

In der absoluten High-End-GPU könnte ich mir das vorstellen, aber das wird kosten.

Ich freue mich jedenfalls auf die neuen Einstiegskarten. Sollte es eine 7600 oder 7600 XT mit den Daten geben, dann wäre ich mehr als happy, das wären ~100% mehr Leistung zu jetzigen GPUs.

Bei den aktuellen Preisen reizen mich die 6xxx leider nicht. Eine kommende RX 6600 XT hat mir mit 32 MB zu wenig IC (nutze WQHD). Daher ist meine obige Annahme von 96-128 MB IC für ne 7600 schon sehr optimistisch, realistisch werden es wohl eher 64 - 96 sein.
 

Technologie_Texter

BIOS-Overclocker(in)
Also MUSS es kleinere Chips geben, die man eher in Einstiegskarten verbaut, d.h. Einstiegskarten werden keine 5000 ALUs haben.
Wer sagt denn, daß man dafür nicht erstmal bei einer kleinen RDNA2-GPU bleibt?
Ich sage das nicht, die Gerüchteküche.
Ob der Cache gestapelt wird geht aus dem Gerücht nicht hervor.
Aber denke Latenzen beim Zugriff mehrerer Module stehen dem im Weg (muss schließlich koordiniert werden), daher wären es dann eher jeweils 256 MB je Recheneinheit, was keinesfalls 100% 512 MB entspricht (da Daten doppelt vorhanden sein können).
Damit liegst du falsch!
 
Oben Unten