AMD Radeon RX 6000: Navi Flounder mit 40 CU?

Die 6900 XT wird mit max. 84 CUs kommen also 5.376 Shadern. Alle Hinweise zeigen auf 80 CUs also 5.120 Shadern. Das ganze wird dann bei um die 2.000 MHz im Boost-Takt laufen. Einige spekulieren sogar über 2.200+ MHz aber das wird vermutlich massiv an Leistung kosten und ordentlich gekühlt werden müssen.

Wenn wir das alles zusammen rechnen dann sind wir vermutlich bei der Leistung um die RTX 3080. Vermutlich eher etwas drunter. Mit der Brechstange könnte AMD bestimmt an die RTX 3090 dran kommen aber das ist wohl kaum eine sinnvolle Option.

Und noch zur Informationen: Man kann nicht einfach noch ein paar CUs hinzufügen je nach belieben. Da gibt es die ein oder anderen Restriktionen. Soweit ich weiß hat AMD mit GCN immer das Limit von 64 CUs gehabt. Erst mit RDNA2 konnte man das nun etwas erhöhen.

Spekulation:
Wäre die Karte damit nicht mehr als doppelt so leistungsstark wie die 5700XT? Wären die damit nicht ungefähr 15% vor einer 3080? (Und damit 5% vor der 3090 - vermutlich)
Aber selbst bei 50-60% Effizenzsteigerung wird die Karte mehr Strom als eine 5700XT verbrauchen und gen 300Watt laufen, aber immer noch weniger als 3080 und 3090.
/Spekulation
 
Spekulation:
Wäre die Karte damit nicht mehr als doppelt so leistungsstark wie die 5700XT? Wären die damit nicht ungefähr 15% vor einer 3080?
Aber selbst bei 50-60% Effizenzsteigerung wird die Karte mehr Strom als eine 5700XT verbrauchen und gen 300Watt laufen, aber immer noch weniger als 3080 und 3090.
/Spekulation
Grundlegend ist die Idee absolut richtig aber genauso wie Kerne bei einer CPU werden auch die Shader niemals linear skalieren. Dementsprechend kannst du eher von 70-80 Prozent steigerung ausgehen. Wir haben bei Ampere mit den doppelten FP32 Shadern gesehen, dass es vor allem in höheren Auflösungen in denen die Berechnung der Shader intensiver ist die Leistungssteigerungen höher sind.

Ich bin gespannt in wie fern AMD einige der Probleme der RDNA1 Architektur gelöst haben. Wenn wir zusätzlich noch ein +20% IPC Improvement (Unwahrscheinlich) sehen könnte vielleicht das Target 2x 5700XT sogar hinkommen. Aber das ist wie gesagt reine Spekulation.

Zusätzlicher Faktor ist auch noch die Speicherbandbreite die sich nicht stark zu erhöhen scheint.
 
und
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

doch HBM?
 
und
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

doch HBM?

Für Big Navi wäre das sogar denkbar, würde auch zu einem geringeren Energiebedarf führen, im Gegensatz zu GDDR6X.
Das SI wäre damit dann auch nicht so das Problem...

Es wird weiterhin spannend sein, was wirklich kommt - möglich ist fast alles...
 
und
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

doch HBM?
Woher kommt diese Spekulation über HBM2e? Das hört sich schon wieder an wie der CO-Prozessor auf der RTX 3000 Reihe.
 
Hört bitte auf, auf HBM zu hoffen...
Das hier sollte eigentlich alles sagen.
Trotz der Schrauben!
Wenn der Hype Train jetzt schon wieder eskaliert wird nachher wieder nur gemosert.

Wenn die Karte so Grob im Bereich der 3080 liegt können wir echt glücklich und zufrieden sein, und vor allem wäre das dann mmn. immernoch ein sehr gelungenes GPU-Comeback von AMD.
 
Für Big Navi wäre das sogar denkbar, würde auch zu einem geringeren Energiebedarf führen, im Gegensatz zu GDDR6X.
Das SI wäre damit dann auch nicht so das Problem...

Es wird weiterhin spannend sein, was wirklich kommt - möglich ist fast alles...
GDDR6X wird es so oder so nicht bei Big Navi geben. Micron & Nvidia haben da sehr wahrscheinlich einen exklusiven Deal zu und abseits davon gibt es bisher nur 1GB Module. AMD scheint ganz normale generische 2GB GDDR6 Module von Samsung zu verbauen.
 
Grundlegend ist die Idee absolut richtig aber genauso wie Kerne bei einer CPU werden auch die Shader niemals linear skalieren. Dementsprechend kannst du eher von 70-80 Prozent steigerung ausgehen. Wir haben bei Ampere mit den doppelten FP32 Shadern gesehen, dass es vor allem in höheren Auflösungen in denen die Berechnung der Shader intensiver ist die Leistungssteigerungen höher sind.

Ich bin gespannt in wie fern AMD einige der Probleme der RDNA1 Architektur gelöst haben. Wenn wir zusätzlich noch ein +20% IPC Improvement (Unwahrscheinlich) sehen könnte vielleicht das Target 2x 5700XT sogar hinkommen. Aber das ist wie gesagt reine Spekulation.

Zusätzlicher Faktor ist auch noch die Speicherbandbreite die sich nicht stark zu erhöhen scheint.

Ja, es ist wohl klar, dass doppelte Shader keine doppelte Leistung sind. Ich habe bei den 100% aber auch mit der Takterhöhung kalkuliert. Shader + Takt sollten die 100% ergeben und das wäre krass.

Es ist noch vieles unklar, vor allem was Speicheranbindung, Infinity Cache etc. bedeutet. ...und eben Stromaufnahme.
Aber so schlecht sieht das nicht aus.

Edit: Vielleicht muss ich meine Einschätzung 2080ti + 40% auf 45% erhöhen. :lol::lol::lol:
 
Die 6900 XT wird mit max. 84 CUs kommen also 5.376 Shadern. Alle Hinweise zeigen auf 80 CUs also 5.120 Shadern. Das ganze wird dann bei um die 2.000 MHz im Boost-Takt laufen. Einige spekulieren sogar über 2.200+ MHz aber das wird vermutlich massiv an Leistung kosten und ordentlich gekühlt werden müssen.

Wenn wir das alles zusammen rechnen dann sind wir vermutlich bei der Leistung um die RTX 3080. Vermutlich eher etwas drunter. Mit der Brechstange könnte AMD bestimmt an die RTX 3090 dran kommen aber das ist wohl kaum eine sinnvolle Option.

Und noch zur Informationen: Man kann nicht einfach noch ein paar CUs hinzufügen je nach belieben. Da gibt es die ein oder anderen Restriktionen. Soweit ich weiß hat AMD mit GCN immer das Limit von 64 CUs gehabt. Erst mit RDNA2 konnte man das nun etwas erhöhen.
Warum hat die vermutete Big Navi wohl 3 Kühler? Genau wegen der Problematik um das Kühlen herum!
 
Ja, es ist wohl klar, dass doppelte Shader keine doppelte Leistung sind. Ich habe bei den 100% aber auch mit der Takterhöhung kalkuliert. Shader + Takt sollten die 100% ergeben und das wäre krass.

Es ist noch vieles unklar, vor allem was Speicheranbindung, Infinity Cache etc. bedeutet. ...und eben Stromaufnahme.
Aber so schlecht sieht das nicht aus.
Schlecht sieht das auf keinen Fall aus. AMD scheint endlich mal wieder oben mitzuspielen. Wenn nicht mit der RTX 3090 dann zumindest mit der RTX 3070 und vermutlich auch RTX 3080.

Sie haben alle Tools und sind mit der Fertigung technisch sogar vor Nvidia. Die einzige Herausforderung die noch besteht ist es, dem Kunden das in einen preiswerten Paket nach Hause zu liefern. Ach ja und DXR Unterstützung sollte auch recht ordentlich sein.
 
Warum hat die vermutete Big Navi wohl 3 Kühler? Genau wegen der Problematik um das Kühlen herum!
Das ist Möglich aber dafür müsste RDNA2 auch darauf ausgelegt sein noch über den 250W vernünftig zu skalieren. Gerade bei der RTX 3080 sehen wir derzeit, dass die Skalierung über 300W doch nicht so gut ist wie Nvidia es uns glauben lassen wollte.

Soweit ich weiß skaliert die RX 5700XT über 250W auch nicht mehr gut. Dementsprechend müssen wir sehen was dort machbar ist. Von einen dickeren PCB wie bei Nvidia habe ich auch noch nichts gehört/gesehen. Wird alles sehr gespannt aber ich gehe davon aus, dass AMD eher im Bereich von 250-300 Watt bleiben wird.
 
Verstehe ich das Update richtig das "Navi Flounder" dadurch als Navi22 identifiziert ist? Irgendwie klingt das komisch, 40CU sind ein zu krasser Sprung von 80CU, da muss eigentlich noch was dazwischen kommen.

Würde aber zu AMD passen, bei der 5000er Serie gabs ja auch lange die 250€ Lücke zwischen 5600/5700 und der 5500, in der für viele genau der Sweet Spot sitzt. Die 5600 ist zwar inzwsichen langsam in diese Richtung gefallen, aber jetzt ists schon zu spät.

Theoretisch kann Navi23 ja auch 60 CUs oder so haben, ist ja kein Naturgesetz das die immer in absteigender Größe nummeriert sind.
 
Sie haben alle Tools und sind mit der Fertigung technisch sogar vor Nvidia. Die einzige Herausforderung die noch besteht ist es, dem Kunden das in einen preiswerten Paket nach Hause zu liefern. Ach ja und DXR Unterstützung sollte auch recht ordentlich sein.

Gäbs eine günstigere Alternative ohne Raytracing Unterstützung, ich würd sie sofort kaufen.
Aber sicherlich wird AMD da die gleiche Zwangsschiene wie nvidia fahren.

Verstehe ich das Update richtig das "Navi Flounder" dadurch als Navi22 identifiziert ist?

Nein, Navi 23.
 
Zuletzt bearbeitet:
Gäbs eine günstigere Alternative von Raytracing Unterstützung, ich würd sie sofort kaufen.
Aber sicherlich wird AMD da die gleiche Zwangsschiene wie nvidia fahren.
Eine günstige Alternative zu Raytracing gab es schon immer. Das nennt sich unter anderem Shadow-Maps oder auch Precalculated Global Illumination etc. Das ganze sorgt für schöne Effekte aber eben nur in statischen Szenen.

Raytracing sorgt grundlegend dafür, dass sämtliches Licht auf physikalischer Basis, wenn auch leicht vereinfacht berechnet wird. Das gibt Spieleentwicklern mehr Freiheiten. Insgesamt kann man Raytracing als eine Abstraktion bezeichnen. Sobald einmal vernünftig in die Engine eingebaut kann es den Workflow theoretisch stark beschleunigen.

Da wir aber noch weit von richtigen Raytracing in Spielen entfernt sind und derzeit auf eine Hybrid-Lösung setzen werden wir einfach Raytracing für Sachen verwenden die mit den herkömmlichen Methoden zu schwer wären.
 
Ich meine es war "Adored TV", der spekuliert hat, dass je mehr CU, je niedergier der Takt ausfallen könnte (Aus technischer Sicht, nicht zwecks Powerlimit).
Somit bleibt die Frage, ob's bei 60-80CU überhaup über die 1,9GHz geht, wobei die Kleinen mit vielleicht 2,3GHz ausfallen könnten.

Meint ihr, da is was dran, bzw. hat man woanders nochma von gehört?
Ich vermute mal nicht, dass wir 80CU mit 2gHz+ erwarten sollten, auch wenn's toll wär.

Auf HBM tippe ich persönlich erst mal nicht.
Aber auszuschließen wäre nicht, dass AMD irgendwann zwischen Tür und Angel mal ein (TI)Kontermodell mit HBM und sortierten/gesammelten "guten" Chips nachschieben könnte, Richtung Prosumer ähnlich der R7.
Oder Richtung Anniversary Edition, nur eben, damit die auch Sinn ergibt/sich absetzt, gleich mit HBM.
Evtl. dann mit 84CU, wahrscheinlich aber eher mit "nur" höherem Takt.
Aber das ist netmal Spekulation, sondern eher Hoffnung ;)
 
Zuletzt bearbeitet:
Ich meine es war "Adored TV", der spekuliert hat, dass je mehr CU, je niedergier der Takt ausfallen könnte (Aus technischer Sicht, nicht zwecks Powerlimit).
Somit bleibt die Frage, ob's bei 60-80CU überhaup über die 1,9GHz geht, wobei die Kleinen mit vielleicht 2,3GHz ausfallen könnten.

Meint ihr, da is was dran, bzw. hat man woanders nochma von gehört?
Das ist vollkommen richtig. Desto mehr CUs desto geringer fällt der Takt aus oder desto höher ist die Herausforderung einen hohen Takt stabil zu halten. Ich gehe von einen Basistakt Richtung 1.800 bis 1.900 Mhz aus. Also sehr Ähnlich zum XSX Chip. Alles darüber wird an Silicon Lottery, Leistung und Kühlung liegen.
 
Das ist vollkommen richtig. Desto mehr CUs desto geringer fällt der Takt aus oder desto höher ist die Herausforderung einen hohen Takt stabil zu halten. Ich gehe von einen Basistakt Richtung 1.800 bis 1.900 Mhz aus. Also sehr Ähnlich zum XSX Chip. Alles darüber wird an Silicon Lottery, Leistung und Kühlung liegen.
Möglicherweise gibt es einen Sweetspot von CUs, dem Takt und dem Energiebudget, der nicht bei 1,8GHz und 80CUs liegt. Kann sein, dass 64 CUs bei 2,2GHz (Gaming) weniger Leistung verschlingen und schneller sind als 80CUs bei 1,7 GHz (Gaming).
Nichts genaueres weiß man nicht. Das wäre aber auch eine Option.
 
Mal ne Frage:

Es kommt doch sicher auf's Spiel, bzw. die Engine an, ob nun viele CU + wenig Takt,
oder wenig CU + viel Takt ein besseres Ergebnis liefern?
Das Spiel haben wir doch gerade bei PS5 vs. SX

Sofern ja, muss ein GPU Hersteller sich wohl entscheiden was sinniger ist und wo die Reise der Engines hin tendiert.
(Wobei auf "künftig geht das gut" zu setzen halt schlecht für den Start und somit auch Verkauf ist, dafür gut für Langzeitnutzer)
 
Zurück