AMD Sienna Cichlid: "Big Navi" mit 80 CUs und 5.120 Shadern?

Hat ja wohl auch niemand ernsthaft mehr erwartet.
Das war bereits seit Ende letzten Jahres klar, als die Eckdaten (80 CUs, 5120 Shader) bekannt wurden. Doppelte Größe, durch den Verbrauch aber wiederum auf ca. 75 % Takt beschränkt ergibt eine Leistungssteigerung von ca. 50 % zur 5700XT und damit ziemlich genau auf Höhe der 2080 ti.

So ein Unfug! :schief:
AMD hat für RDNA eine um 50% besseres Energieeffizienz versprochen, wieso sollten sie dann also niedriger takten? Und auch sonst meinst du es gab keine Weiterentwicklungen? Da wird sich schon auch einiges getan haben zwischen RDNA und RDNA 2 und seitdem Konduri weg ist, macht AMD auch keine unrealistischen Ansagen mehr. Sieht man ja auch bei Zen, da stappeln sie eher tief...
 
Hat ja wohl auch niemand ernsthaft mehr erwartet.
Das war bereits seit Ende letzten Jahres klar, als die Eckdaten (80 CUs, 5120 Shader) bekannt wurden. Doppelte Größe, durch den Verbrauch aber wiederum auf ca. 75 % Takt beschränkt ergibt eine Leistungssteigerung von ca. 50 % zur 5700XT und damit ziemlich genau auf Höhe der 2080 ti.

Ah schön die schon Bestätigten Architekturfortschritt kann man natürlich getrost ignorieren, Fakten sind ja nicht so wichtig ;)
RDNA2 verbraucht 1/3 weniger Watt statt also 440 Watt für ne doppelte XT kommt man auf 290 Watt.
Dazu kommt noch das Takt/Verbrauch keine gerade sondern eine Kurve ist und sich der Sweetspot sich somit schnell noch um 100-200Mhz verschieben kann ohne wesentlichen Mehrverbrauch.

Ich hab alles zusammengetragen was wir wissen/bzw die Gerüchte hergeben und hochgerechnet :D
Klar kann es immer anders kommen und wer weiß wirklich was Nvidea bringt :ka:
 

Anhänge

  • 6900 2.JPG
    6900 2.JPG
    475,8 KB · Aufrufe: 263
  • 6900.JPG
    6900.JPG
    92,8 KB · Aufrufe: 218
PS: wenn die Karten dann mal erscheinen wird es sicher deutlich unter 850 Eu bleiben mit der etwa 2080 Ti leistung ...

Wenn die dicke Navi nur ~40-50% auf eine 5700XT draufpackt wär das eine herbe Enttäuschung.
Sollte AMD die Karte mit 80CUs aufdoppeln, dann müsste da mehr bei rumkommen.
+100%CU = +75%Performance wär in meinen Augen einigermaßen realistisch, etwaige Verbesserungen bei der µ-Arch. mal außer Acht gelassen, da trau ich mich nicht drüber.

Außerdem spricht AMD von einem Halo-Produkt, für mich klingt das nach: Sehr schnell, sehr heiß, sehr teuer.
Halo-Produkte sind üblicherweise keine Schnäppchen und bewegen sich weit abseits dessen, wo man mit einem guten PLV in Berührung kommt.
 
Hey meine Vega 56 war zum Kaufzeitpunkt ~220€ teu...günstig inc. 3 (guten) Spiele.

Daran habe ich auch nicht gezweifelt, Vega 56 gab es durchaus zu guten Preisen. Wobei das der Abverkauf gewesen ist, somit müßte man für die GTX 980Ti auch 300€ ansetzen und nicht die ursprünglichen 700€. Zum Normalpreis war Vega überteuert, für das, was sie konnten.

Das wichtigste: die Ankündigung, dass sie Nvidia schlagen werden, hat sich als Seifenblase entpuppt. Von daher glaube ich ihn nichtmehr.

GTX 1070 bzw. 1080 waren da deutlich teurer; fals es schon RTX gab brauchen wir über die Preise erst gar nicht anfangen.

Das kommt eben sehr stark auf den Zeitpunkt an. Zum Erscheinungszeitpunkt waren die Nvidiakarten klar die bessere Wahl. Während des Miningbooms sowieso. Das die Nvidiakarten schon ein Jahr früher verfügbar waren kommt noch hinzu, die GTX 1070 hat z.B. im November 2016 350€ gekostet. Im Abverkauf waren die Vega 56 Karten dann unglaublich günstig (wobei das eben auch relativ ist, wenn man bedenkt, dass es die GTX 980Ti und Fury X zwei Jahre zuvor für um die 300€ gegeben hat).
 
Und wie dann die Performance mit RT sein wird. Wie ich gelesen habe sollen das bei AMD die Shader übernehmen. Damit ist man dann auch mit den Konsolen kompatibel. Wenn bei eingeschalteten RT von den 80 CU´s, 20 Cu´s für RT abgestellt werden würden bleibt natürlich auch gut Leistung auf der Strecke.
Wird alles sehr spannend.

Wie genau RT berechnet wird weiß man glaube offiziell noch nicht. MS hatte zur Xbox Series X ein paar Daten genannt. Bei Nvidia wird das RT doch auch über die Shader berechnet. Die RT Cores übernehmen soweit ich weiß nicht die komplette Berechnung.
Wird wohl ähnlich gelöst sein bei AMD.

Ich schätze mal das man als Gamer eine 72 CU GPU sehen wird bei den letztens geleakten Daten. Unterm Strich sehe ich Big Navi leicht unterhalb der RTX3080 bzw. ~25% über einer RTX2080ti.
 
Und wie dann die Performance mit RT sein wird. Wie ich gelesen habe sollen das bei AMD die Shader übernehmen. Damit ist man dann auch mit den Konsolen kompatibel. Wenn bei eingeschalteten RT von den 80 CU´s, 20 Cu´s für RT abgestellt werden würden bleibt natürlich auch gut Leistung auf der Strecke.
Wird alles sehr spannend.

Das hast du haber völlig falsch verstanden. Amd wie auch Sony und Microsoft haben schon gesagt das es dedizierte RT Hardware gibt, woher hast du deine Infos, bitte eine Quelle
 
Wenn die dicke Navi nur ~40-50% auf eine 5700XT draufpackt wär das eine herbe Enttäuschung.
Sollte AMD die Karte mit 80CUs aufdoppeln, dann müsste da mehr bei rumkommen.
+100%CU = +75%Performance wär in meinen Augen einigermaßen realistisch, etwaige Verbesserungen bei der µ-Arch. mal außer Acht gelassen, da trau ich mich nicht drüber.

Schwer zu sagen wieviel schneller die Karten werden wird. Fakt ist jedenfalls das Powerlimit, bzw die Temperatur der Karte wird den Takt begrenzen. Möglich das die Karten mit dem Standard Powerlimit überhaupt nicht 2 GHZ Takt schaffen.

In 2 - 3 Monaten sind wir schlauer.
 
Schwer zu sagen wieviel schneller die Karten werden wird. Fakt ist jedenfalls das Powerlimit, bzw die Temperatur der Karte wird den Takt begrenzen. Möglich das die Karten mit dem Standard Powerlimit überhaupt nicht 2 GHZ Takt schaffen.

In 2 - 3 Monaten sind wir schlauer.

Ich denke schon das sie über 2Ghz sein wird, die Chipfläche ist sehr groß und es ist auch schon ausgereiftes 7nm verfahren. Die Chancen stehen also sehr gut!
 
Das hast du haber völlig falsch verstanden. Amd wie auch Sony und Microsoft haben schon gesagt das es dedizierte RT Hardware gibt, woher hast du deine Infos, bitte eine Quelle

Mit dem US-Patent US 2019/0197761 A1 scheint AMD nun einen ersten Schritt in Richtung Raytracing zu machen:

Aus der Patentschrift geht hervor, dass AMD auf eine Kombination aus Soft- und Hardwarelösung setzt, um Raytracing zu ermöglichen und zu verbessern. Dabei wird die Strahlenberechnung von den normalen Shader-Einheiten gesteuert.
Licht in Spielen: AMD patentiert eigene Raytracing-Technologie - ComputerBase

Auch wenn die Shader durch einen Textur Prozessor unterstützt werden stehen die Shader dann für "normale Berechnungen" nicht mehr zur Verfügung. Einbußen gibt es immer mit RT. Dann sind in dem Fall die Shader die dedizierte Hardware.
 
Zuletzt bearbeitet:
Mit dem US-Patent US 2019/0197761 A1 scheint AMD nun einen ersten Schritt in Richtung Raytracing zu machen:

Aus der Patentschrift geht hervor, dass AMD auf eine Kombination aus Soft- und Hardwarelösung setzt, um Raytracing zu ermöglichen und zu verbessern. Dabei wird die Strahlenberechnung von den normalen Shader-Einheiten gesteuert.
Licht in Spielen: AMD patentiert eigene Raytracing-Technologie - ComputerBase

Ist aber gut so, normale Shader Einheiten kannst du auch ohne RT nutzen! Nachteil: RTX Leistung wird vermutlich nicht so gut wie bei Nvidia sein... aber Vorteil: In allen Games ohne RT geht auch die Leistung nach oben!
Das wiederum spricht fürs gleichziehen der Leistung mit Nvidia ohne RTX!

Da es eh noch nicht so viele Spiele mit Raytracing gibt, ist das finde ich, so die brilliante Lösung! Dedizierte Kerne kann man nach BIG Navi immer noch einführen!
 
Und selbst wenn "nur" +/- 2080Ti-Leistung rumkommt - bei einem attraktiven Preis im Bereich 650 - 700 € (2 x Navi) wäre das für mich okay! Sollte sich AMD wider Erwarten auch am oberen Ende mit nVidia anlegen können, werden auch die Preise entsprechend ausfallen. Dazu würde die Ankündigung über ein "Halo-Produkt" passen... Aber ganz ehrlich, mir wäre eine solide Leistung zum guten Kurs deutlich lieber als die nächste Oberklasse-Pixelschubse für weit über 700 €, völlig egal ob nun von AMD oder nVidia! Dass sich preislich gar im High-End Bereich etwas bewegt, wenn AMD konkurrenzfähig wird, ist doch illusorisch...

VG
Epi
 
Spekulatius
Wie igor zu sagen pflegt

Was nvidia kann weis ich relativ genau
Was amd kann nicht so

Wir wissen 5120shder
Ein auf shader und angepasste tmu basierendes dxr (software)
50% bessere Effizienz
bedeutet bei gleichen takt 50% weniger strom
daraus ergibt sich max 40% mehr takt bei gleicher tbp
das ergibt etwa 1,7*1,4=2,38ghz
Wenn das erreicht wird bevor der Prozess dichtmacht hut ab
ich gehe aber von max 2,2ghz aus mit 300w tdp

Also sind es 5120shader*2*2,2=22,528tf
Das klingt unrealistisch
Da kommt noch die ipc infrage also gehen wird von einen besseren effizienz des navi10 chips
somit 1,6ghz 1,6*1,33=2,13ghz
Das klingt realistischer
Die große frage ist wie ist die ipc ?
Aktuell liegt navi bei etwa 0,9 vs turing somit sind wir bei
2,13*5120*2*0,9=19,63tf

Das wird mit der rtx3080ti knapp
Ergibt gegen standard rtx2080ti 4352*2*1,7= 14,796tf
19,63/14,796= 33%
die rtx3080ti hat auch 5120 shader aber 1,7ghz
5120*2*1,7=17,408 17,408/14,796=18%+ 6% ipc etwa 24%

Also ein Kopf an Kopf rennen
Ud das ist reine teraflops leistung
Die dxr leistung wird klar nvidia gewinnen
Die werden verdreifacht
Werte zum letzten gerücht des vollausbau de ga102
6144 shader 288Rt cores 768 tensor cores
Auf den 5120 chip bedeutet das
5120 240rt cores 720 tensor core
Eine quasi verdoppelte DXR Leistung wenn nicht mehr
Die große frage bleibt beim vram.
Der ga102 wird bis zur rtx3070 in verwendung
Der ga104 sollte de z oder januar kommen für den rest
ga106 wird lediglich die einsteiger chips ohne dxr geben
bsp name wären rt3030 und rt3040
Amd n23 kommt auch erst q1 2021
Wie groß dieser chip wird ist ungewiss man geht von 64 oder 56cu aus. könnte ein Ableger der Konsolen design sein
Modelle werden wohl rx670xt 6700
navi24 q2 2021 n10 ersatz ohne dxr
rx6600xt 36cu rx6600 32cu rx6500 26cu

das sind die Aussichten
Die sku können stark abweiche da amd sicherlich nvidia markteinführungspreise und specs anpasst.
Gilt besonders für die cut chips
Aber so macht es Sinn.
Nvidia wird vorlegen müssen. Weil es diesmal echt eng wird mit der GPU Leistungskrone
Bis man genug vollwertige ga102 chips hat.
 
Wieder nur 64 ROPs? Lernt AMD nicht dazu? Bei Fiji und Vega waren sie schon ein Flaschenhals, jetzt gibt es doppelt so viele Shader wie auf der 5700XT aber immwr genauso viel ROPs?
 
Zurück