AMD Radeon RX 8000 kommen angeblich mit MCM und 3nm/5nm-Fertigung

4k@270W, damit man die Architekturen direkt vergleichen kann ohne die übliche Powerlimitierung bei der 6900!
(noch ohne rBar/SAM)

mal nur die minFps als Percentil
(minFps, um das "schlechte" Funktionieren des IF-Cache zu zeigen)
 

Anhänge

  • 270W_minFps.JPG
    270W_minFps.JPG
    115,6 KB · Aufrufe: 44
AMD News kommt raus und Chatstar so:
Was heißt Sinnlos, es zeigt, dass AMD am ball bleibt und tief in der Planung sitzt.

Intel macht das gleiche, aber Chatstar sieht das anders:
Mal abwarten was da kommt, wenn überhaupt was kommt.
Aus meiner Sicht sind das alles Nebelkerzen, die Intel zündet um die Aktionäre zu beruhigen.

Zusammengefasst sind also Intels offizielle Ankündigungen alles Nebelkerzen und irgendwelche AMD-Leaks sind Fakten :ugly:

Also ich liege ja auch meist richtig mit meinen Vorhersagen...
So wie beim Wundertreiber von AMD oder der "Fine-Wine" Geschichte?

denke mal:
Bei Duvar waren es Gesamt ungefähr 228...230W.
TSMCs 7NM vs Samsungs 8NM. Wie effizient die Architektur ist, kann man hier nicht direkt erkennen.
Das ist auch das lustige an euren Grabenkämpfen. Ihr feiert AMD für etwas, was sie eigentlich TSMC zu verdanken haben, denn ohne TSMC wäre AMD heute nicht gleichauf mit Nvidia und das, obwohl Nvidia mit Samsungs 8NM das schlechtere Verfahren hat.

Und die Vergleiche kannste dir in die Haare schmieren. Duvars von Hand optimierte 6900XT als Grundlage zu nehmen ist schon hart frech.
Als das die Intel-Jungs hier gemacht haben und sich rausstellte, dass ein extrem optimierter 9900K wesentlich effizienter ist, als jeder Ryzen da draußen, hats euch auch nicht interessiert. Duvar war übrigens derjenige, der darüber berichtet hatte ;)
 
Zuletzt bearbeitet:
Also ich liege ja auch meist richtig mit meinen Vorhersagen und sage, dass es für Nvidia sehr schwer werden wird in Zukunft mit AMD mit zu halten, insbesondere wenn es stimmt, dass lovelance noch auf MCM verzichten muss.
Dann käme man frühestens mit irgendwas in Richtung der AMDs 8000er und da muss man kein Prophet sein, um zu wissen, dass das nicht langen wird.
Gottchen....rauchst du geiles Zeug :lol:
 
Bin erstmal auf die nächste Generation gespannt. Wenn die dann da ist, kann man über die nächste Generation spekulieren, vorher finde ich es sinnlos.

Intressant wird das Chiplet Deign auf jeden Fall. Ich bin gespannt wie gut es AMD hinbekommt die Auslastung auf die einzelnen GPU Teile zu verteilen, so dass die Auslastung optimalt ist. Bin auch gespannt wie gut es funktioniert im Verhältnis zum Monlith Degin von Nvidia im Vergleich in Sachen Performance und am Ende Stromverbrauch.

Diese Genreation habe ich schon aufgrund der Verfügbarkeit abgeschrieben und hoffe auf die RX7000 und Nvidia 4000er Serie. Mal schauen, wird auf jeden Fall interessant, da zum Ersten Mal seit langem dann wieder wirklich zwei komplett andere Architekturen von der Grundstruktur miteinander konkurrieren.

Je nachdem wie gut das Desgin von AMD funktioniert, wird es dazu führen das Nvidia wohl auch bei der darauffolgenden bzw. der folgendenen Gerneration switchen wird. Das selbe trifft wohl auf Intel zu.
Ich denke aber das Intel noch eine Weile brauchen wird, bis sie wirklich Nvidia und AMD richtig ärgern können. Man hat ja gesehen, wie lange AMD brauchte, um Nvidia wieder richtig ärgern zu können und momentan haben wie die Effizenz Karte im Verhältnis zu Nvidia ganz klar in der Hand.
 
Ich finde auch, dass man sich erstmal die 7000´er Reihe angucken sollte, bevor man über die nächste Generation spekuliert, über die man noch weniger, genauer gesagt, eigentlich gar nichts weiß. :ugly:
 
Zusammengefasst sind also Intels offizielle Ankündigungen alles Nebelkerzen und irgendwelche AMD-Leaks sind Fakten :ugly:
Das hab ich so nie gesagt aber das amd mit mcm kommt bereits bei rdna3 steht doch offiziell fest und dann ist doch eigentlich klar das rdn4 und folgend auch darauf basieren wird.

Da kan doch keiner ernsthaft was anderes vermuten, oder doch?

Es ist einfach schade, dass sich einige so gegen den Fortschritt bei Amd wehren /:
So wie beim Wundertreiber von AMD oder der "Fine-Wine" Geschichte?
Ja man sieht es doch aktuell auch, jeder neue Treiber setzt bei bn noch weiter Leistung frei zb ist in timespy der Grafik score über die letzten 4 Treiber um ca. 2000 Punkte angestiegen, wenn man das oc potential der Karte nutzt.
 
Zuletzt bearbeitet:
[Nebelkerzen] Das hab ich so nie gesagt aber ...
Doch, sogar wortwörtlich:
Aus meiner Sicht sind das alles Nebelkerzen, die Intel zündet um die Aktionäre zu beruhigen.
Oder ist das jetzt wieder diese berühmte 180-Grad-Kehrtwende a la "das war ja alles gar nicht so gemeint und alles ja gaaanz anders". ;-)

das amd mit mcm kommt bereits bei rdna3 steht doch offiziell fest ...
Genaugenommen nein, denn auch das ist bisher nicht mehr als ein Gerücht, wenn auch ein plausibleres. Zum Fakt, wie du es hier schon wieder darzustellen versuchst mit "steht doch offiziell fest", wird es dadurch noch lange nicht, denn offiziell steht genaugenommen gar nichts fest, da es keinerlei offiziellen Aussagen dahingehend gibt.

und dann ist doch eigentlich klar das rdn4 und folgend auch darauf basieren wird.

Da kan doch keiner ernsthaft was anderes vermuten, oder doch?
Wenn RDNA3 == MCM stimmt, dann ist auch für RDNA4 ein MCM anzunehmen, aber das ist vollkommen irrelevant weil dann offensichtlich, also nichts weswegen man wie du ein derartiges Fass aufmachen muss und erst recht nichts, von dem man irgend eine Art Führerschaft/Überlegenheit ableiten könnte, wie du es hier permanent unters Volk zu streuen versuchst.
Und es wird umso unsinniger, wenn du hier einen zwangsweise relativen Vergleich anstrebst, jedoch nur (Pseudo-)Informationen zu einer Seite vorliegen hast. Man weiß weder was Lovelace wird noch weiß man was Intels Battlemage im folgenden Jahr werden wird.

Es ist einfach schade, dass sich einige so gegen den Fortschritt bei Amd wehren /:
Nein, keinesfalls, denn der Sachverhalt trifft schlicht nicht zu, da ich hier keinen sehe, der unentwegt AMD irgendetwas in Abrede zu stellen versucht. Das Problem ist eher auf deiner Seite zu suchen, da dir die Entwicklungen bei AMD offensichtlich noch lange nicht genug sind und du entsprechend alles völlig überhöht darstellen musst und quasi noch im gleichen Atemzug tatsächlich dann "den Fortschritt" bei der Konkurrenz niederredest. Am Ende trittst eigentlich genau du hier als derjenige in Erscheinung, der sich gegen den Fortschritt (ver)wehrt ... nur halt nicht bei AMD und deshalb scheinst du da einen blinden Fleck zu haben mit dem du fast alle deine Aussage ad absurdum führst.
 
Zuletzt bearbeitet:
Naja gut dann lässt uns abwarten, ob mcm bei gpus nun der gamechanger wird wie die Experten vermuten oder halt nicht.
 
Naja gut dann lässt uns abwarten, ob mcm bei gpus nun der gamechanger wird wie die Experten vermuten oder halt nicht.
Wow das war ja mal die erste normale Antwort hierzu....

checks endlich mal keiner will amd was böses oder versucht das ganze klein zu reden
(ja amd hat mit big navi abgeliefert, aber jetzt müssen sie das mal über jahre bestätigen)

doch jedes mal versuchst du aus einem gerücht mehr zu machen als es in wahrheit ist....
jeder kann seine meinung sagen und vertreten aber mach daraus keine fakten dann kriegst du auch nicht so viel gegenwind

und bedenke mal sollte amd wirklich komplett nvidia iwan überflügeln wedern wir die gleiche situation sehen wie wir sie die letzten iahre hatten...
sie würden nur noch das notwendigste tun
können die preise bestimmen und würden diese nochmal anziehen...

Konkurrenz belebt das geschäft sieht man ja jetzt wie sich beide an maximum pushen und die gewinner sind wir....
vll siehst auch du mal ein das du genauso nvidia brauchst wie alle anderen auch sonst gäbe es wieder nur ein monopol und somit auch kein wettbewerb....
Welche Alternative soll es dazu geben? Und wer kann das besser als AMD?
abwaten ob mcm wirklich die leistung auf die straße bringt und wie das dann in der praxis in tests aussieht...
die ganzen leistungs gerüchte zu mcm sind bisher nichts weiter als gerüchte und mehr eben nicht...

klar wäre das gut wenn das einschlägt aber ich bleibe da weiter skeptisch
 
Ich sehe irgendwie nicht das die beiden sich puschen, mir drängt sich eher der Eindruck auf das es trotz aller Konkurrenz Absprachen gibt.
Meine hoffnung ist das Intel da wirklich was bewirken kann und die Kunden mal wieder was vom Konkurrenzkampf haben.
 
Bedenkt man, dass bei nVidia RT- und Tensorkerne zusätzliche Chipfläche einnehmen (mehr als die RT-Beschleunigung bei AMD) ist es auch wieder schwierig zu sagen, dass AMD bei der Architektur für Rasterisierung überlegen ist.
Es ist natürlich nicht einfach dies exakt miteinander zu vergleichen, aber eine gewisse Tendenz kann man schon daraus ableiten, wenn man ein wenig tiefer gräbt.

Ein kleines Beispiel: (Die Werte wurden anhand des TU116, bei dem es sich ebenfalls um einen Turing ohne Tensor / RT cores handelt ermittelt Link)

TU106 (Turing) = 445mm2, TPCs 18, Shaders 2304, Tensor cores 288, RT cores 36

Nvidia benötigt z.B. eine Fläche (12nm) von ca. 1.95mm2 pro TPC (tensor 1.25 / RT 0.7) ---> 1 x TPC = 10.89mm2 TU106 - 1.95mm2 = 8.94mm2 (21.8%)
Bzw. 10.89 x 18 = 196mm2 davon sind 1.95 x 18 = 35mm2 (7.9% relativ 445mm2) für tensor / RT reserviert.

Klar die Tensor cores der dritten Gen. wie sie z.B.: beim GA102 (RTX3090) zum Einsatz kommen, sind entsprechend ca. um den Faktor 2 leistungsfähiger und benötigen demgegenüber auch mehr Platz auf dem Die.
Aber es wurden davon auch wiederum entsprechend weniger verbaut.
Daher kann man wohl trotzdem nicht davon ausgehen das mehr als 10% der Die Fläche für Tensor und RT cores benötigt werden. Was anhand des GA102 (628mm2) in etwa maximal 60mm2 ausmachen würde.

Das 384Bit, GDDR6, Speicherinterface macht wiederum ca. 20% der Die Fläche aus.

AMD hingegen benötigt nur ein 256Bit, GDDR6, Speicherinterface was entsprechend etwas Platz einspart. (6-7%?)
Benötigt aber wiederum min. 120mm2 bzw. 23% der Gesamtfläche von 520mm2 für den verbauten 128MB IF-Cache.

Also wenn man sich die Sache etwas näher betrachtet, kann man sehr wohl sagen das AMD was die Architektur anbelangt bezüglich der Rasterisierung überlegen ist. Auch wenn sicher keine Welten dazwischen liegen.

Auch das Argument das NVIDIA durch die Verwendung des Samsung 8nm stark benachteiligt wäre zieht nicht wirklich.

Prozessbereinigt nehmen sich die beiden Kontrahenten nämlich nicht allzu viel, wie man anhand des folgenden Beispiel sehen kann:
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

Die Differenz in der Transistor density beträgt lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess, bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million.

Jetzt könnte man noch argumentieren das NVIDIA ca. 10 - 20% Takt rausholen könnte, wenn sie TSMC's 7nm Prozess verwenden würden.
Das mag schon sein, aber bei gleicher Fläche (520mm2) und selbem Verbrauch, auch wenn man die negativen Skalierungseffekte noch rausrechnet, hätte man da im besten Fall auch wiederum nur ein Nullsummenspiel.

Alles in allem sehe ich AMD daher momentan leicht vorne.

Aber jetzt kommt das Beste. Mit RDNA3 bzw. RX7000 werden sie voraussichtlich, wenn die Gerüchte den stimmen sollten, nicht nur neue Maßtäbe bezüglich der Effizienz und Leistungsfähigkeit setzten, sondern auch bei den Herstellungskosten dank des Chiplet Ansatzes die Nase vorne haben.


Denn beim MCM Design (Multi-Chip Module) wie er wohl bei NAVI 31 und 32 zur Anwendung kommen wird, wird wohl der Infinity cache auf ein separates Chiplet ausgelagert und wer weiß, vielleicht werden sie ebenso wie beim 3D-V-Cache bei den kommenden Zen 3+ Prozessoren mit optimierten Bibliotheken versehen, die eine um den Faktor 2 höhere Packdichte ermöglichen sollte.

Wenn es für den NAVI 31 gar die selben 64MB Cache-Chiplets wie bei Zen 3+ sein sollten und diese zusammen produziert würden, dann könnte es wohl folgendermaßen aussehen: 8 x 64MB Chiplet =512MB bei doppelter Packdichte in TSMC' 6nm Prozess.

32MB L3 Cache bei Zen 3 belegen ca. 30mm2, bei doppelter Packdichte wären das 15mm2 für 32MB bzw. ca. 30mm2 für 64MB. Also z.B: 6 x 64MB Chiplets für NAVI 32 und 8 x 64MB Chiplets für NAVI 31.
Da die Chiplets so klein sind und in einem ausgereiften Prozess (TSMC 6nm) produziert würden, sollten die Yield raten eigentlich außerordentlich gut sein und dies auch noch in einem günstigeren und vor allem verfügbaren Prozess.

Was wird so ein ca. 30mm2, 64MB Chiplet in der Produktion den Kosten.
Sicher keine 10$. Ich würde mal eher auf 5-10$ tippen.

Wenn man nun die 512MB IF Cache aus der Rechnung raus nimmt und bedenkt das NAVI 21 ohne diesen
in TSMC's 7nm Prozess nur 400mm2 groß wäre, inklusive eines 256 Bit SI.

Bei NAVI 31 mit ebenfalls einem 256 Bit SI und 3x so vielen Shadern würde das SI natürlich gerade was den Verbrauch anbelangt eine viel kleinere Rolle spielen.

Jetzt ist natürlich die große Frage, wie viel Fläche von den 400mm2 benötigt man den in etwa für ein 256 BIt SI.
Ein guter Schätzwert würde ich sagen so Pi x Daumen wären 15% das sind dann 400-60=340mm2

Allerdings müsste dieses wohl 2x verbaut werden, da es sich wohl um zwei identische Chiplet handelt, bei dem eines den aktivierten Komandoprozessor enthält, obwohl es nur einmal benötigt wird. (Eventuell auch 2x128 Bit SI aktiviert?)

Von der theoretischen Steigerung der Dichte um den Faktor 1.8 x (bezogen auf Logic Area) der durch die Verwendung von TSMC's N5 anstatt N7 entsteht, bleibt am Ende natürlich nur noch ein Bruchteil übrig. (siehe Zitat Anandtech)
Allerdings, aufgrund das die 512MB IF-Cache sozusagen ausgelagert wurden und das ein 256Bit SI eigentlich sehr klein ist (auch wenn es möglicherweise 2x oder doch nur 2x128Bit vorhaneden ist???) könnte ich mir trotzdem gut vorstellen, das der analoge, sd-ram Anteil prozentual doch deutlich geringer ausfallen könnte und damit die Angaben von Anandtech deutlich übertroffen werden könnten.

Ein guten Hinweis liefert auch das folgende Beispiel anhand eines Vega64 (495mm2, 12.5Mio. T/mm2, GF 14nm) vs. Vega VII (331mm2, 13.3 Mio.T/mm2 TSMC 7nm)

Was ziemlich exakt einem Faktor 1.6 entspricht (theoretische logic density reduction =2.0)

Bei TSMC 5nm und dem Faktor 1.8, wären es umgerechnet immer noch 1.44

Gut die haben zwar ein HBM SI und daher schwierig zu vergleichen, allerdings könnte dies Flächenmäßig verglichen mit einem doch sehr schmalen 256 Bit GDDR6 SI doch nicht zuweit voneinander entfernt sein.


Ausgehend von dem Worst Case Szenario 400mm2 pro Chiplet / 1.44 =278mm2 (TSMC 5nm) pro Chiplet.
Allerdings scheint es noch grössere Architektur bedingte Änderungen zu geben, so das die Fläche noch eine grössere Schwankungsbandbreite aufweisen könnte.

Mal angenommen 278x1.2= wären trotzdem nur 333mm2 sogar wenn es 400mm2 wären was ich nicht glaube wären 2 solcher Chiplets wohl nur unwesentlich, wenn überhaupt, teurer zu fertigen als ein z.B. 600mm2 (TSMC 5nm) großer Lovelace (RTX4000) Chip.

Auch leistungstechnisch wird es für NVIDIA unmöglich sein da mitzuhalten.
Es steht momentan ein Faktor von 2x vs. 2.5x verglichen mit Ampere bzw. NAVI21 im Raum.

Wo es bei AMD, unter der Annahme das genügend Speicherbandbreite zur Verfügung steht, plausibel erscheint die Leistung um den Faktor 2.5 zu steigern und vor allem trotz einer Verdreifachung der Shader-Einheiten nicht in einen Flaschenhals bezüglich der Speicherbandbreite zu laufen.

So scheint beim AD102 mit seinen 18.432 Shader den damit einhergehenden 71,4 Prozent mehr Recheneinheiten + zusätzlich mehr Takt als beim GA102 (10.752) und einer vermuteten Leistungssteigerung um den Faktor 2.0 das Gegenteil der Fall zu sein.
Von wo soll dieser den kommen? (Das konnte bis jetzt noch keiner beantworten!)

Den laut einhelliger Meinung in sämtlichen HW Magazinen und Foren soll es kein HBM Speicher für Desktopkarten mehr geben.
Auch ein 512 Bit SI ist des Teufels da zu komplex und zu stromintensiv.

GDDR6X >24Gbps wird es wohl auch nicht geben und von GDDR7(X) müsste man auch bereits etwas gehört haben wenn es diesen dann auch bis zum Erscheinen in ausreichender Stückzahl geben sollte.

24/19.5 (wie bei der 3090) gibt nur +23%
512/384x1.23=1.64 selbst bei 512 Bit SI + 24 Gbps sind es nur +64% Speicherbandbreite.

Hier konnte mir noch keiner eine plausible Antwort liefern, wie das möglich sein soll. (Bessere HW Komprimierung?
Aber in diesem Umfang überhaupt möglich?)

Es schmerzt mich wirklich das zu sagen, aber für NVIDIA sieht es bei der next. Gen. einfach nur zappenduster aus

Ich sehe ihren Top Dog RTX 4090 im besten Fall bei +70-80% relativ zur Vorgängergeneration bzw. im Besten Fall 40% hinter NAVI 31 bzw. 10-20% hinter NAVI 32.
Und als würde dies nicht bereits schon ausreichen, wird dieser gewaltige Performance Vorsprung wohl noch nicht einmal höhere Produktionskosten als bei der RTX4080 /4090 verursachen.

Auch der Verbrauch wird wohl ziemlich ähnlich sein beide wohl >400W bzw. NAVI 32 300W.

Mal schauen, vielleicht kann NVIDIA ja noch bei den Einsteiger bzw. bei den unteren Mittelklasse Karten Punkten. Zu wünschen wäre es ihnen auf jeden Fall, den Konkurrenz ist ja für uns alle gut.
Quelle Anandtech
Modern chip designs are very SRAM-heavy with a rule-of-thumb ratio of 70/30 SRAM to logic ratio, so on a chip level the expected die shrink would only be ~26% or less.
5nm.png
 
Zuletzt bearbeitet:
Ich sehe irgendwie nicht das die beiden sich puschen, mir drängt sich eher der Eindruck auf das es trotz aller Konkurrenz Absprachen gibt.
Meine hoffnung ist das Intel da wirklich was bewirken kann und die Kunden mal wieder was vom Konkurrenzkampf haben.
und das siehst du woran ?

also amd hat mit big navi gut abgeliefert und ist jetzt wieder mit nvidia auf augenhöhe
nvidia hat das ganze vorher unterschätz und dachte das man auch mit samsung weit vorne wäre etc
deswegen is ja der verbauch auch so hoch um grad noch so vor amd zu bleiben

auch deshalb wird nvidia bei der nächsten gen liefern müssen um nicht hinter amd zu landen....
das nenne ich zumindest pushen...
auch sehe ich jetzt nichts von absprachen
es sind beider aktienunternehmen die gewinne einfahren müssen das die aktionäre zufrieden sind... da kann man keine absprachen riskieren
da würde man auch ordentliche strafen riskieren und ein image schaden, dazu würde der aktienkurs gewaltig runter gehen....
 
Es ist natürlich nicht einfach dies exakt miteinander zu vergleichen, aber eine gewisse Tendenz kann man schon daraus ableiten, wenn man ein wenig tiefer gräbt.

Ein kleines Beispiel: (Die Werte wurden anhand des TU116, bei dem es sich ebenfalls um einen Turing ohne Tensor / RT cores handelt ermittelt Link)

TU106 (Turing) = 445mm2, TPCs 18, Shaders 2304, Tensor cores 288, RT cores 36

Nvidia benötigt z.B. eine Fläche (12nm) von ca. 1.95mm2 pro TPC (tensor 1.25 / RT 0.7) ---> 1 x TPC = 10.89mm2 TU106 - 1.95mm2 = 8.94mm2 (21.8%)
Bzw. 10.89 x 18 = 196mm2 davon sind 1.95 x 18 = 35mm2 (7.9% relativ 445mm2) für tensor / RT reserviert.

Klar die Tensor cores der dritten Gen. wie sie z.B.: beim GA102 (RTX3090) zum Einsatz kommen, sind entsprechend ca. um den Faktor 2 leistungsfähiger und benötigen demgegenüber auch mehr Platz auf dem Die.
Aber es wurden davon auch wiederum entsprechend weniger verbaut.
Daher kann man wohl trotzdem nicht davon ausgehen das mehr als 10% der Die Fläche für Tensor und RT cores benötigt werden. Was anhand des GA102 (628mm2) in etwa maximal 60mm2 ausmachen würde.

Das 384Bit, GDDR6, Speicherinterface macht wiederum ca. 20% der Die Fläche aus.

AMD hingegen benötigt nur ein 256Bit, GDDR6, Speicherinterface was entsprechend etwas Platz einspart. (6-7%?)
Benötigt aber wiederum min. 120mm2 bzw. 23% der Gesamtfläche von 520mm2 für den verbauten 128MB IF-Cache.

Also wenn man sich die Sache etwas näher betrachtet, kann man sehr wohl sagen das AMD was die Architektur anbelangt bezüglich der Rasterisierung überlegen ist. Auch wenn sicher keine Welten dazwischen liegen.

Auch das Argument das NVIDIA durch die Verwendung des Samsung 8nm stark benachteiligt wäre zieht nicht wirklich.

Prozessbereinigt nehmen sich die beiden Kontrahenten nämlich nicht allzu viel, wie man anhand des folgenden Beispiel sehen kann:
GA102
Samsung 8 nm
Transistors 28,300 million
Density 45.1M / mm²
Die Size 628 mm²

NAVI 21
TSMC 7 nm
Transistors 26,800 million
Density 51.5M / mm²
Die Size 520 mm²

Die Differenz in der Transistor density beträgt lediglich 14%

Hypothetisch wenn NVIDIA seinen GA102 in TSMC 7 nm anstatt in Samsung 8 nm Prozess, bei einer Größe von 520mm2 gebracht hätte, hätte dies wohl in etwa so ausgesehen.
28300 x 520 / 630 = 23360 x 51.5 / 45.1 = 26675 million.

Jetzt könnte man noch argumentieren das NVIDIA ca. 10 - 20% Takt rausholen könnte, wenn sie TSMC's 7nm Prozess verwenden würden.
Das mag schon sein, aber bei gleicher Fläche (520mm2) und selbem Verbrauch, auch wenn man die negativen Skalierungseffekte noch rausrechnet, hätte man da im besten Fall auch wiederum nur ein Nullsummenspiel.

Alles in allem sehe ich AMD daher momentan leicht vorne.

Aber jetzt kommt das Beste. Mit RDNA3 bzw. RX7000 werden sie voraussichtlich, wenn die Gerüchte den stimmen sollten, nicht nur neue Maßtäbe bezüglich der Effizienz und Leistungsfähigkeit setzten, sondern auch bei den Herstellungskosten dank des Chiplet Ansatzes die Nase vorne haben.


Denn beim MCM Design (Multi-Chip Module) wie er wohl bei NAVI 31 und 32 zur Anwendung kommen wird, wird wohl der Infinity cache auf ein separates Chiplet ausgelagert und wer weiß, vielleicht werden sie ebenso wie beim 3D-V-Cache bei den kommenden Zen 3+ Prozessoren mit optimierten Bibliotheken versehen, die eine um den Faktor 2 höhere Packdichte ermöglichen sollte.

Wenn es für den NAVI 31 gar die selben 64MB Cache-Chiplets wie bei Zen 3+ sein sollten und diese zusammen produziert würden, dann könnte es wohl folgendermaßen aussehen: 8 x 64MB Chiplet =512MB bei doppelter Packdichte in TSMC' 6nm Prozess.

32MB L3 Cache bei Zen 3 belegen ca. 30mm2, bei doppelter Packdichte wären das 15mm2 für 32MB bzw. ca. 30mm2 für 64MB. Also z.B: 6 x 64MB Chiplets für NAVI 32 und 8 x 64MB Chiplets für NAVI 31.
Da die Chiplets so klein sind und in einem ausgereiften Prozess (TSMC 6nm) produziert würden, sollten die Yield raten eigentlich außerordentlich gut sein und dies auch noch in einem günstigeren und vor allem verfügbaren Prozess.

Was wird so ein ca. 30mm2, 64MB Chiplet in der Produktion den Kosten.
Sicher keine 10$. Ich würde mal eher auf 5-10$ tippen.

Wenn man nun die 512MB IF Cache aus der Rechnung raus nimmt und bedenkt das NAVI 21 ohne diesen
in TSMC's 7nm Prozess nur 400mm2 groß wäre, inklusive eines 256 Bit SI.

Bei NAVI 31 mit ebenfalls einem 256 Bit SI und 3x so vielen Shadern würde das SI natürlich gerade was den Verbrauch anbelangt eine viel kleinere Rolle spielen.

Jetzt ist natürlich die große Frage, wie viel Fläche von den 400mm2 benötigt man den in etwa für ein 256 BIt SI.
Ein guter Schätzwert würde ich sagen so Pi x Daumen wären 15% das sind dann 400-60=340mm2

Allerdings müsste dieses wohl 2x verbaut werden, da es sich wohl um zwei identische Chiplet handelt, bei dem eines den aktivierten Komandoprozessor enthält, obwohl es nur einmal benötigt wird. (Eventuell auch 2x128 Bit SI aktiviert?)

Von der theoretischen Steigerung der Dichte um den Faktor 1.8 x (bezogen auf Logic Area) der durch die Verwendung von TSMC's N5 anstatt N7 entsteht, bleibt am Ende natürlich nur noch ein Bruchteil übrig. (siehe Zitat Anandtech)
Allerdings, aufgrund das die 512MB IF-Cache sozusagen ausgelagert wurden und das ein 256Bit SI eigentlich sehr klein ist (auch wenn es möglicherweise 2x oder doch nur 2x128Bit vorhaneden ist???) könnte ich mir trotzdem gut vorstellen, das der analoge, sd-ram Anteil prozentual doch deutlich geringer ausfallen könnte und damit die Angaben von Anandtech deutlich übertroffen werden könnten.

Ein guten Hinweis liefert auch das folgende Beispiel anhand eines Vega64 (495mm2, 12.5Mio. T/mm2, GF 14nm) vs. Vega VII (331mm2, 13.3 Mio.T/mm2 TSMC 7nm)

Was ziemlich exakt einem Faktor 1.6 entspricht (theoretische logic density reduction =2.0)

Bei TSMC 5nm und dem Faktor 1.8, wären es umgerechnet immer noch 1.44

Gut die haben zwar ein HBM SI und daher schwierig zu vergleichen, allerdings könnte dies Flächenmäßig verglichen mit einem doch sehr schmalen 256 Bit GDDR6 SI doch nicht zuweit voneinander entfernt sein.


Ausgehend von dem Worst Case Szenario 400mm2 pro Chiplet / 1.44 =278mm2 (TSMC 5nm) pro Chiplet.
Allerdings scheint es noch grössere Architektur bedingte Änderungen zu geben, so das die Fläche noch eine grössere Schwankungsbandbreite aufweisen könnte.

Mal angenommen 278x1.2= wären trotzdem nur 333mm2 sogar wenn es 400mm2 wären was ich nicht glaube wären 2 solcher Chiplets wohl nur unwesentlich, wenn überhaupt, teurer zu fertigen als ein z.B. 600mm2 (TSMC 5nm) großer Lovelace (RTX4000) Chip.

Auch leistungstechnisch wird es für NVIDIA unmöglich sein da mitzuhalten.
Es steht momentan ein Faktor von 2x vs. 2.5x verglichen mit Ampere bzw. NAVI21 im Raum.

Wo es bei AMD, unter der Annahme das genügend Speicherbandbreite zur Verfügung steht, plausibel erscheint die Leistung um den Faktor 2.5 zu steigern und vor allem trotz einer Verdreifachung der Shader-Einheiten nicht in einen Flaschenhals bezüglich der Speicherbandbreite zu laufen.

So scheint beim AD102 mit seinen 18.432 Shader den damit einhergehenden 71,4 Prozent mehr Recheneinheiten + zusätzlich mehr Takt als beim GA102 (10.752) und einer vermuteten Leistungssteigerung um den Faktor 2.0 das Gegenteil der Fall zu sein.
Von wo soll dieser den kommen? (Das konnte bis jetzt noch keiner beantworten!)

Den laut einhelliger Meinung in sämtlichen HW Magazinen und Foren soll es kein HBM Speicher für Desktopkarten mehr geben.
Auch ein 512 Bit SI ist des Teufels da zu komplex und zu stromintensiv.

GDDR6X >24Gbps wird es wohl auch nicht geben und von GDDR7(X) müsste man auch bereits etwas gehört haben wenn es diesen dann auch bis zum Erscheinen in ausreichender Stückzahl geben sollte.

24/19.5 (wie bei der 3090) gibt nur +23%
512/384x1.23=1.64 selbst bei 512 Bit SI + 24 Gbps sind es nur +64% Speicherbandbreite.

Hier konnte mir noch keiner eine plausible Antwort liefern, wie das möglich sein soll. (Bessere HW Komprimierung?
Aber in diesem Umfang überhaupt möglich?)

Es schmerzt mich wirklich das zu sagen, aber für NVIDIA sieht es bei der next. Gen. einfach nur zappenduster aus

Ich sehe ihren Top Dog RTX 4090 im besten Fall bei +70-80% relativ zur Vorgängergeneration bzw. im Besten Fall 40% hinter NAVI 31 bzw. 10-20% hinter NAVI 32.
Und als würde dies nicht bereits schon ausreichen, wird dieser gewaltige Performance Vorsprung wohl noch nicht einmal höhere Produktionskosten als bei der RTX4080 /4090 verursachen.

Auch der Verbrauch wird wohl ziemlich ähnlich sein beide wohl >400W bzw. NAVI 32 300W.

Mal schauen, vielleicht kann NVIDIA ja noch bei den Einsteiger bzw. bei den unteren Mittelklasse Karten Punkten. Zu wünschen wäre es ihnen auf jeden Fall, den Konkurrenz ist ja für uns alle gut.
Quelle Anandtech

Anhang anzeigen 1372438
ich hab es chatstar schon gesagt deine spielerei etc is ja ganz nett anzusehen aber auch nur gerüchte und mehr nicht

erstmal müssen mcm karten erst noch beweisen ob se die power auch auf die straße bringen und in tests das beweisen...
desweiteren wer sagt denn das in den 7000er karten mcm karten kommen, vllt wird erst nur der profi bereich damit bedient....? wurde das offizell bestätigt das mcm zu einsatz in den 7000er karten kommt ?

das es für nvidia zappenduster in der nächsten gen aussieht is auch eine gewagte these weil dies ebenfalls nur auf gerüchte stützt....

wer sagt dann das nicht ein schnellerer gddr6x speicher kommt oder gar gddr7 vor ampere gab es auch keine anzeichen zu gddr6x
dieser speicher entstand ja durch micron in zusammenarbeit mit nvidia...

wir sind alle momentan nicht wirklich schlauer....
bis zum relase im nächsten jahr kann noch viel passieren....

einfach abwarten und nicht schon solche gewagten thesen aufstellen.....
@sandworm
Sehr reflektierter Post, dem man zustimmen muss.
Da bin ich happy nicht ganz alleine hier zu stehen. :)
nicht schon wieder.....
du warst doch auf einem normalen weg und jetzt hast schon wieder die amd brille auf...

das war kein reflektierter post sondern gerüchteküche und nicht mehr
 
das war kein reflektierter post
Aber er hat doch meinen Standpunkt sehr gut dargelegt, mit zahlreichen Beispielen und Daten, ich verzichte mal jetzt bewusst auf das Wort Fakten aber ich denke das die Wahrheit so gut beleuchtet wurde, ich hätte es jedenfalls nicht besser schreiben können.
Auch die Skeptiker sollten zumindest mahl darüber nachdenken. :)
 
Aber er hat doch meinen Standpunkt sehr gut dargelegt, mit zahlreichen Beispielen und Daten, ich verzichte mal jetzt bewusst auf das Wort Fakten aber ich denke das die Wahrheit so gut beleuchtet wurde, ich hätte es jedenfalls nicht besser schreiben können.
Auch die Skeptiker sollten zumindest mahl darüber nachdenken. :)
Meine Antwort habe ich hierzu schon geliefert solltest mal lesen....

Wie oft den noch das sind keine Fakten oder sonst was nur Gerüchte und mehr nicht.....

Es is doch nicht mal bestätigt das mcm in die 7000 Karten kommt

Wann begreift ihr endlich mal das aus seiner eigenen Meinung keine Fakten entstehen

Setz endlich mal deine riesen rote amd Brille ab
 
Zurück