AMD Radeon BigNavi & RDNA2 Laberthread

Also ich muss sagen hatte ja auch eine 3080 bestellt..aber nicht verfügbar nach der bestellung plötzlich, dann stoniert , dann günstig eine 2080 TI bekommen. Aber wird eh wieder verkauft. Irgendwie macht die mehr Probleme also meine Radeon VII vorher, bzw auf dem Desktop. Und wenn die Big Navi etwas schlechter ist als die 3080 mir egal. Lieber ein volles AMD System als irgendwie was gemischtes was nicht ganz rund läuft. :-|
 
Danke für den Link @Xaphyr
Im Artikel von TomsHardware ist auch nochmal das Patent bzgl. "Adaptive Cache Reconfiguration via Clustering" eingebunden.
Erste Gerüchte in Richtung "first MCM" GPU kamen ja recht früh auf
clutstering_first.jpg


und das scheint sich nun immer mehr zu bestätigen.
Hochwahrscheinlich basiert BigNavi also erstmals auf zwei GPU-Clustern, die sich in der Anzahl der beherbergenden CU´s sogar unterscheiden können (z.B. 36CU´s + 40 CU´s), über eine Crossbar/Fabric miteinander kommunizieren können und dabei auf den identischen L2 und L3 Cache zugreifen können.
GPU_Clustering_e.jpg


Jede der beiden GPU´s/Cluster behält dabei zwar Ihren eigenen L1 Cache, auch hier gibt es meinem Verständnis nach dann aber eine Änderung -> denn nicht jeder CU im entsprechenden Cluster hat seinen eigens fest zugeordneten L1 Cache-Bereich (und ist dort situationsbedingt womöglich limitiert), sondern alle CU´s im entsprechenden GPU-Cluster können auf alle vorhandenen L1 Cache-Bereiche zugreifen.
CU_L1_e.jpg

Die Anfragen-Hierarchie von den CU´s ausgehend ist ansonsten klar definiert, L1 -> L2 -> (L3) /GDDR/HBM

Was ich jetzt noch überlege, ist der InfinityCache letztendlich ein wahnsinnig großer L3 Cache, eben wie bei Zen der GameCache, oder steht der Infinity Cache schon an zweiter Stelle, also als L2 Cache?
Glaub fast es handelt sich um den L2, denn von L3 hab ich im gesamten Patent nichts gelesen. Da dann 128MB wäre einfach abnormal groß :ugly:

Find das jedenfalls mega spannend, denn die ganze GPU wird so letztendlich wahnsinnig variabel und verspricht Ihre Leistung in viel mehr Situationen vollständig auf die Straße bringen zu können, als dies in der Vergangenheit oftmals der Fall war, wenn Anfragen erst bis in den GDDR/HBM durchgeschleust werden müssen. Der Latenzunterschied ist enorm.

edit: okay, haben je CU den festzugeordneten L0, dann den shared L1, und schließlich den L2(infinity cache)
AMD spricht im Patent klar von zwei GPU´s, die different ausgelegte Shader-Cluster beherbergen können.
Meine Sichtweise hab ich ansonsten genauer/korrigiert im heutigen Artikel-Thread (AMD Big Navi: GPU mit Infinity Cache) ausgeführt.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 

6900XT - 5120sp - 256bit - 16GB - 340W
6900 - 4608sp - 256bit - 16GB - 290W
6800XT - 4096sp - 192bit - 12GB - 270W
6800 - 3584sp - 255W
6700XT - 3200sp - 240W
N23 - 40CU - 192bit - 195W

non_rtx_performance_e.jpg
 

Anhänge

  • RDNA2_re_forecasted.jpg
    RDNA2_re_forecasted.jpg
    169,2 KB · Aufrufe: 44
Zuletzt bearbeitet:
RX 6700 (navi23, 40 CU)ist rund 20% schneller als RX 5700 in dem Diagramm. Das haut ungefähr hin.
 
soso, die haben nicht nur all die rdna2 gpus, sondern auch die rtx 3070/60 ti usw:lol:

fake benches :hop::-$
 
Sind das nicht extrapolierte Zahlen auf Basis von einer Kombination aus offiziellen AMD Targets, geleakten RDNA 2 Zahlen und RDNA 1 Performance? Steht da doch auch so. "Relative Perf"

Darum sage ich ja, abwarten auf echte Benches, aber dass eine 80CU RDNA 2 Karte nur so schnell wie eine 3070/2080 Ti sein sollte, halte ich für genau so komisch. Glaube eher, dass sowohl Nvidia und AMD immer vorsichtiger werden, was sie den Boardpartnern vor Launch mitteilen, da die ja öfter mal gerne undicht sind.
 
@gecan , natürlich muss man das mit sehr viel Vorsicht genießen.
Kann sich teils um Hochrechnungen handeln, auch wenn ich persönlich denke, dass die AiB´s da schon ziemlich gut wissen was kommt. Bis auf vllt AMD´s absoluten TopDog, denn der scheint ja TopSecret zu sein.
Wo du speziell die 3070 ansprichst, der dänische Proshop hat schon 20 Karten davon auf Lager ;)
Ich geh mal weiter träumen :crazy:
 
Leistung hin oder her.. wird so ne Radeon auch das ganze Gedöns von Nvidia können? DLSS, PhysX, Hairworks und keine Ahnung was noch alles gibt :confused:
 
Es ist wohl etwas ähnliches wie DLSS in der Mache und Hardware-basiertes Ray Tracing teil von RDNA 2, wie performant wird sich zeigen. Hairworks und PhysX (zumindest GPU-beschleunigt) sind aber doch lange nicht mehr relevant.
 
Physx kommt in fast keinem neuen Spiel mehr zum Einsatz, da wird heute viel eher auf Microsofts Havok gesetzt. Ansonsten unterstützen AMD Systeme das über die CPU.
Das gleiche eigentlich bei Hairworks. Wenn ein Spiel auf eine solche Technologie setzt und wie 80% der Spiele seinen Ursprung auf den Konsolen hat, arbeitet da im Hintergrund wohl eher ein TressFX Abkömmling.
Bzgl. DLSS Alternative sind Gerüchte zu nahezu verlustfreiem AA auf RDNA2 im Busch.
Ob was dran ist weiß ich nicht, ansonsten werden zum Jahresende aber sicherlich in irgendeiner Form Weiterentwicklungen von RadeonBoost, FidelityFX etc. kommen.
Von DLSS bin ich persönlich letztlich nicht überzeugt und stell auch ein großes Fragezeichen hinter zukünftige Implementierungen, weil die Version 2.0 neben dem Vorabtraining durch Nvidia meines Wissens speziell in den Spielecode integriert werden muss.
Vllt zahlt Nvidia bei paar Spielen mit RayTracing für eine entsprechende Implementierung, aber in der Masse wird man es nicht vorfinden. Nur meine Sicht der Dinge.
 
Es ist wohl etwas ähnliches wie DLSS in der Mache und Hardware-basiertes Ray Tracing teil von RDNA 2, wie performant wird sich zeigen.

Also das RT auf der PS sah schon mal sehr hübsch aus.
Also sollten noch stärkere AMD Karten das doch sogar noch besser hinkriegen. :)

Ich glaub schon, dass das was wird.
 
@DARPA puuh, kann ich gar nicht einordnen.

@BigYundol hatte drüben im PS5 TearDown Thread auf die verblüffende Ähnlichkeit zwischen dem heute erstmals zu sehenden PS5 Die und dem die Tage von Coreteks gezeigten angeblichen N21 Die hingewiesen. Was meint Ihr? Hat uns Coreteks da (unbewusst) einen Bären aufgebunden oder ist der der PS5 kleiner?

PS5_vs_N21.jpg
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Well :D Gedanken bestätigt würde ich sagen.
Was ich aber auch interessant finde: So ein Trümmer wie das hier ist: Sehen wir hier vielleicht doch die "Titan" und die "RTX 3080" war eigentlich mal der 2080 Ti Nachfolger und war eher so als "RTX 3080 Ti" gedacht? Da könnte man jetzt spekulieren, dass Big Navi einen gewissen Druck ausübt und man über eine Modellanpassung bei NV versucht immer noch das AMD-Topmodell leistungstechnisch schon mit der RTX 3080 zu kassieren und so das AMD-Portfolio schlechter dastehen zu lassen... Ich bin gespannt.
 
Zurück