Big Navi: AMD über Paper-Launch und 8K-Gaming

Realität:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
nvidia_tot.JPG


Jetzt wird es klar, warum Nvidia so gerusht hat. 22.5 reale TFLOPs gegen fake Ampere 29.8 TFLOPs, 2050 - 2200MHz Takt und 5120 reale Streamprocessoren bei 80 CUs. Nvidia kann sich warm anziehen.
 
Das beste ist, wahrscheinlich in 2021 schon wird es Big Navi 31 geben. Der Refresh mit mehr Takt wird der Lederjacke den Rest geben :banane:
 
Puh.. nur 238W? Dann aber sicher nur die GPU.. da ist der Speicher noch nicht mit drin.
Ansonsten wär es echt ne Revolution in Performance Pro Watt, die Nvidia diesmal nicht abrufen konnte.
 
Ich denke auch, dass das nur die GPU ist (Navi 21 238 Watt). Im Artikel steht dazu noch "socket power".
Mit Speicher, Nebensachen und Wandlerverlusten werden wir wohl bei 300 W Powerlimit für das Board landen.

Interessant ist für mich der hohe Takt der Flunder Navi 22. Das könnte günstig und schnell werden, zudem lassen sich weniger Shader leichter auslasten.
Die Lücke wird bestimmt mit einem stark beschnittenen Navi 21 mit 60 - 68 aktiven CUs und niedrigerem Takt geschlossen.
 
So meine erste Prognose die folgendermaßen lautete: Big Navi 80CU mindestens ca. 2GHz wurde allem Anschein nach sogar noch übertroffen.
Die NVIDIA Hardcore Minimalisten Fraktion wollte es ja nicht wahrhaben, das Big Navi um die 2GHz takten kann,
jetzt sind wir gar bei 2.2GHz angekommen.
Aber ihr müsst euch deswegen nicht gleich in den Büschen verstecken, jeder kann mal falsch liegen.

Was mich auch gleich zu meiner zweiten Prognose führt: + IPC 10-25% (RDNA1 / RDNA2)
Um es mal in Relation zu setzen:
Big Navi = 5120 Shader 22.5TFLOPS + 10-25 IPC wird keinen Stein mehr auf dem anderen lassen und einschlagen wie eine Bombe:
3080 = 8704 pseudo Shader (29.5 pseudo TFLOPS) vs. 2080ti 4352 Shader (14.2 - 15.6TFLOPS)
3080 ca. 30% vor 2080ti

Bei einer solch potenten GPU die einen solch hohen Takt fährt, läuft eigentlich alles am Ende wieder auf HBM2 hinaus.
Vielleicht analog der VII:
4 Stapel a 256 GB/s, 1024GB/s
oder gar 4 Stapel a 307GB/s 1228GB/s

Oder doch:
- Samsung HBM2E mit zwei Stapel a 538 GB/s Total 1076 GB/s
- SK Hynix HBM2E mit zwei Stapel a 460 GB/s Total 920 GB/s

Am Ende stehen immer noch 512Bit GDDR6 mit 896 - 1024GB/s und der heilige Gral die 256 Bit + 128MB infinity Cache im Raum.

Irgenwie hab ich aber das Gefühl, das an der 256Bit + Infinity cache Geschichte nicht viel dran ist und dieses Gerücht
wohl aus der Luft gegriffen ist.

Die Chancen das wir ein 512Bit, GDDR6 oder doch HBM2 für Big Navi zu Gesicht bekommen werden, würde ich zum jetzigen Zeitpunkt auf 50:50 schätzen.
Dabei hat 512Bit GDDR6 einen möglichen Kostenvorteil (allerdings nicht sicher, Stichwort Komplexität und Flächenvorteil)

HBM2 hingegen braucht nur in etwa die Hälfte der Fläche (oder gar weniger, habe es mal genauer analysiert kann mich an die genauen Zahlen aber nicht mehr erinnern) und verbraucht dadurch das er niedriger getaktete dafür aber breiter Angebunden ist deutlich weniger Strom.
Die Kosten dafür müssten eigentlich mittlerweile in einem akzeptablem Bereich angekommen sein.
(Stichwort: Größere Stückzahlen, zusätzliche Anbieter sicherlich nicht mehr mit der Situation zu Fury, Nano, 56/64 bzw VII Zeiten vergleichbar.
Ob z.B.: 20GB GDDR6X wirklich billiger als 16GB HBM2 sind muss auch noch zuerst bewiesen werden.

Aber um es auf den Punkt zu bringen, wenn Big Navi nicht an einem chronischen Speicherbandbreitenmangel drauf geht, wird Big Navi die 3080 ungespitzt in den Boden hauen.
Anhand der vorhandenen Spezifikation würde dies bereits der Fall sein, selbst wenn RDNA2, 0 IPC Zuwachs zu verzeichnen hätte.

Falls die von mir in den Raum gestellten 10-25% (Wobei ich ca. 20% am wahrscheinlichsten halte)
zutreffen, wird sie gar die 3090 zum Frühstück verspeisen und dies mit 275W?

Das wird wohl auch die Erklärung sein wieso bei NVIDIA der letzte Tropfen probiert wurde hinauszupressen und
selbst Leistungsaufnahmen weit über 400W in Kauf genommen wurden selbst wenn gewissen Karten dabei mittlerweile in regelmäßigen Abständen das Licht ausgeht.
 
Zuletzt bearbeitet:
Da könntest Du durchaus recht haben. Mich wundert es sehr, dass Nvidia jetzt so eine fette Leistungssteigerung raus haut. Die hätten sich ja noch etwas von der Performance für die 4000er Generation übrig lassen können.

Auch wenn AMD in den letzten Jahren Nvidia nicht ankratzen konnte, sollte man nicht vergessen was der Underdog mit Intel angestellt hat. Das hat sich auch niemand vorstellen können.
Nvidia setzt auf KI als auf reine gewaltige Power. In Zukunft wird sich das auszahlen, Konsolen machen das schon seit 10 Jahren und die haben nicht mal annähernd sowas wie DLSS2.0. Dasselbe gilt auch für 8K, dessen 8K ( in Control ) eben von 1440p auf 8K hochskaliert wird und das mit beeindruckendem Ergebniss. Wir PCler sind einfach nur am meckern und meckern und können nicht mal das gute schätzen, damals machte man witze über Raytracing und auch über DLSS. Dagegen sind Konsolenspieler völlig Erwachsener im Verhalten und es sollte umgekehrt sein. Wie gesagt, im Upscaling ( KI ) liegt die Zukunft und Nvidia hat mit DLSS schon ein Vorsprung und gute Erfahrung. Cyberpunk 2077 ist eines der meist gehypten Spiele aller Zeiten und diese wird auch mit RT und DLSS beworben und auch WD Legion geht den gleichen Weg, Nvidia hat also schon einen fetten Zugpferd in der Tasche. Die Karten sind schwer zu bekommen, liegt aber weniger an Paperl. sondern weil auch die Nachfrage so gross ist.
 
Ich denke auch, dass das nur die GPU ist (Navi 21 238 Watt). Im Artikel steht dazu noch "socket power".
Mit Speicher, Nebensachen und Wandlerverlusten werden wir wohl bei 300 W Powerlimit für das Board landen.

Interessant ist für mich der hohe Takt der Flunder Navi 22. Das könnte günstig und schnell werden, zudem lassen sich weniger Shader leichter auslasten.
Die Lücke wird bestimmt mit einem stark beschnittenen Navi 21 mit 60 - 68 aktiven CUs und niedrigerem Takt geschlossen.
Ja Navi 22 ist für mich auch am interessantesten und zugleich auch die größte Überraschung da ich bzw. auch etliche andere eigentlich von 56 - 64 CU's ausgegangen sind.

Jetzt kommen also 40CU's mit 2.5GHz resp. 12.8 TFLOPS falls da noch ein gutes Stück IPC drauf gelegt wird
und die Speicherbandbreite nicht limitiert sollte sie gar in die Nähe einer 2080ti FE (mit realen Taktraten Gaming 15.6TFLOPS) kommen können. So max. 10% Rückstand wird wohl realistisch sein bzw. sollte sie sich fast 3070 Level bewegen können.
Wenn er dann auch noch nur in etwa 250mm2 gross wird, analog NAVI10 werden wir wohl auch gleich noch den nächsten Preisleitungskracher zu Gesicht bekommen.

3070 = 392mm2 (Samsung 8nm)
Navi 22 = +/- 250 (TSMC 7nm)
 
Am Ende stehen immer noch 512Bit GDDR6 mit 896 - 1024GB/s und der heilige Gral die 256 Bit + 128MB infinity Cache im Raum.

Irgenwie hab ich aber das Gefühl, das an der 256Bit + Infinity cache Geschichte nicht viel dran ist und dieses Gerücht
wohl aus der Luft gegriffen ist.
Die Consumer Karten haben kein HBM - da muss ich Dich leider enttäuschen. Die Anbindung sind 256bit und wie der Cache funktioniert kann Dir am 28ten dann jemand erklären. Dadurch wird jedenfalls aus 256Bit ca. 384Bit - die Karten kommen mit 80, 72, 64 und 56 Cu(s). Also die 6900XT, 6900, 6800XT und 6800. Nach meinen Infos gibt es kein AI System wie DLSS (erst bei N31), aber die bestehenden Systeme (CAS+Fidelity FX) sind verbessert worden. Der Rest am 28ten und Release dann zwischen dem 8-11 Nov.
Der Nachfolger der 5700(XT) ist N22 und der ist sehr interessant, weil hier die Masse kaufen wird.
 
Kleiner Witzbold, oder was? Da gibts wohl für AMD das Problem an genügend Wafer zu kommen! Ergo wie sollten sie da vor dem 28.10 was Releasen können? Und +25% IPC könnte j a auch leicht von der Realität nach unten abweichen! Und was ist, wenn wieder Erwarten 80 CU doch nicht der größte Chip ist? Könnte ja auch so ein Spielchen geben mit FP 32 * 2, oder nicht?

Die Menge der Wafer ist uninteressant. AMD als größter Kunde auf N7 hat wohl wenig Probleme an Wafer zu kommen, zumal die Reservierung wohl schon seit Monaten stehen wird. Samsung hätte auch noch große Kapazitäten für Nvidia Chips frei. Das ist nicht aber nicht das Problem.

Die Leistung der Karten wird auch nicht das Problem sein. Sehe die 6900 XT (80 CU = ~500 mm² TDP ~280 W, mehr CUs halte ich für unrealistisch) aktuell irgendwo zwischen RTX 3070 / RTX 3080 je nachdem wie die GPU und der Treiber mit dem separaten Infintiy/Game/L3 Cache (kA wie die ihn nennen werden) und der schmalen Speicheranbindung klar kommt. Hoffen wir einfach mal, dass man nicht wieder in Speicherbandbreitenschallmauer kracht wie bei Polaris. Die 25% mehr IPC (in 4K Ultra Settings und 4xAA) wird der Chip wohl dringend nötig haben, da man wohl auf N7P setzt wird der Chip wohl wenig höher takten können als Navi 10. (max. 2,0 GHz stock) Ein "Verdopplung" der FP Einheiten à la Ampere halte ich bei Big Navi für ausgeschloßen. Dafür hätte die Architektur von Grund auf überarbeitet werden müssen, was die RTG sicherlich nicht in einem Jahr geschafft hätte. Zum Vergleich: Die Entwicklung von Ampere hat mindestens 2,5 Jahre gedauert bei mehr Manpower.

Das Problem ist die Logistik und da hat die RTG schon in normalen Zeiten und bei weniger interessanten Produkten gestrauchelt. Nvidia ist in diesem Punkt wesentlich breiter also besser aufgestellt und man hat ja gesehen, wie es trotzdem gelaufen ist. Wer weiß, wie die Lage in einem Monat aussieht, die zweite Welle ist in den USA und Europa schon da und in Asien, Südamerika und Afrika ist grad erst die erste Welle vorbei und in 4-6 Wochen könnte die Zweite auch dort folgen. Zum jetztigen Zeitpunkt vollmundig schon einen "reibungslosen" Hardlaunch zu versprechen ist für mich marketingtechnischer Selbstmord. Vor Allem wenn man AMD typisch den AIBs erstmal das Referenz-PCB inkl. Referenz-Kühler aufs Auge drückt, wird das kein gutes Ende nehmen. Seh schon die "Paperlaunch" Posts und die Schlagzeile "Frank Azor arbeitet jetzt für Frima XY" vor mir. So wird man nie aus der kleinen RTG Enthusiasten-Nische rauskommen. Die werden sicherlich abwarten, um die Karten zu kaufen zu können und alle Marketingschnitzer großzügig übersehen. alle anderen werden die dann (noch) verfügbaren Nvidiakarten kaufen.
 
Zuletzt bearbeitet:
Habe jetzt nur einige Beiträge überflogen, aber die Erwartungen an Navi scheinen hier recht groß zu sein. Ich hoffe ja auch auf das Beste, aber eine gewisse Skepsis bleibt. Theoretische Leistung ist nett, aber am Ende zählt was auf der Straße ankommt.
In der letzten Zeit habe ich eigentlich immer gelesen, dass eine Leistung ca. wie 2080TI erwartet wird, was ja schon super wäre. Wenn es an die 3080 ran reicht mit 16 GB wäre das gigantisch und würde wohl den ein oder anderen "Vorbesteller" der auf seine 3080 wartet nochmal umstimmen.
Interessant auch mit der Fertigung. Nvidia lässt "billig" bei Samsung fertigen und AMD bei TSMC. Nvidia schaltet bei der 3080 über 20% der SMs ab für eine gute Ausbeute. mal sehen wie es da bei AMD wird.

ich bin gespannt =) Aber (noch) nicht so euphorisch wie viele Andere hier =)

Edit: zu den Aussagen aus dem Artikel, der Mann ist vom Marketing und wenn ich so Sprüche höre wie " We are listening, learning and adapting to offer the best experience we can. " ist da null Aussage drin.

Puh.. nur 238W? Dann aber sicher nur die GPU.. da ist der Speicher noch nicht mit drin.
Ansonsten wär es echt ne Revolution in Performance Pro Watt, die Nvidia diesmal nicht abrufen konnte.

Erstmal muss man die Performance kennen bevor man was über Performance/Watt sagen kann. Oder meinst du die reine theoretische Rechenleistung?
 
So meine erste Prognose die folgendermaßen lautete: Big Navi 80CU mindestens ca. 2GHz wurde allem Anschein nach sogar noch übertroffen.
Die NVIDIA Hardcore Minimalisten Fraktion wollte es ja nicht wahrhaben, das Big Navi um die 2GHz takten kann,
jetzt sind wir gar bei 2.2GHz angekommen.
Aber ihr müsst euch deswegen nicht gleich in den Büschen verstecken, jeder kann mal falsch liegen.

Was mich auch gleich zu meiner zweiten Prognose führt: + IPC 10-25% (RDNA1 / RDNA2)
Um es mal in Relation zu setzen:
Big Navi = 5120 Shader 22.5TFLOPS + 10-25 IPC wird keinen Stein mehr auf dem anderen lassen und einschlagen wie eine Bombe:
3080 = 8704 pseudo Shader (29.5 pseudo TFLOPS) vs. 2080ti 4352 Shader (14.2 - 15.6TFLOPS)
3080 ca. 30% vor 2080ti

Bei einer solch potenten GPU die einen solch hohen Takt fährt, läuft eigentlich alles am Ende wieder auf HBM2 hinaus.
Vielleicht analog der VII:
4 Stapel a 256 GB/s, 1024GB/s
oder gar 4 Stapel a 307GB/s 1228GB/s

Oder doch:
- Samsung HBM2E mit zwei Stapel a 538 GB/s Total 1076 GB/s
- SK Hynix HBM2E mit zwei Stapel a 460 GB/s Total 920 GB/s

Am Ende stehen immer noch 512Bit GDDR6 mit 896 - 1024GB/s und der heilige Gral die 256 Bit + 128MB infinity Cache im Raum.

Irgenwie hab ich aber das Gefühl, das an der 256Bit + Infinity cache Geschichte nicht viel dran ist und dieses Gerücht
wohl aus der Luft gegriffen ist.

Die Chancen das wir ein 512Bit, GDDR6 oder doch HBM2 für Big Navi zu Gesicht bekommen werden, würde ich zum jetzigen Zeitpunkt auf 50:50 schätzen.
Dabei hat 512Bit GDDR6 einen möglichen Kostenvorteil (allerdings nicht sicher, Stichwort Komplexität und Flächenvorteil)

HBM2 hingegen braucht nur in etwa die Hälfte der Fläche (oder gar weniger, habe es mal genauer analysiert kann mich an die genauen Zahlen aber nicht mehr erinnern) und verbraucht dadurch das er niedriger getaktete dafür aber breiter Angebunden ist deutlich weniger Strom.
Die Kosten dafür müssten eigentlich mittlerweile in einem akzeptablem Bereich angekommen sein.
(Stichwort: Größere Stückzahlen, zusätzliche Anbieter sicherlich nicht mehr mit der Situation zu Fury, Nano, 56/64 bzw VII Zeiten vergleichbar.
Ob z.B.: 20GB GDDR6X wirklich billiger als 16GB HBM2 sind muss auch noch zuerst bewiesen werden.

Aber um es auf den Punkt zu bringen, wenn Big Navi nicht an einem chronischen Speicherbandbreitenmangel drauf geht, wird Big Navi die 3080 ungespitzt in den Boden hauen.
Anhand der vorhandenen Spezifikation würde dies bereits der Fall sein, selbst wenn RDNA2, 0 IPC Zuwachs zu verzeichnen hätte.

Falls die von mir in den Raum gestellten 10-25% (Wobei ich ca. 20% am wahrscheinlichsten halte)
zutreffen, wird sie gar die 3090 zum Frühstück verspeisen und dies mit 275W?

Das wird wohl auch die Erklärung sein wieso bei NVIDIA der letzte Tropfen probiert wurde hinauszupressen und
selbst Leistungsaufnahmen weit über 400W in Kauf genommen wurden selbst wenn gewissen Karten dabei mittlerweile in regelmäßigen Abständen das Licht ausgeht.


AMD hat kein HBM mehr ist eigentlich schon klar.
Kann bis zu Takten 2,2Ghz Takten echt genauso wie RDNA 1 sogar exakt die gleiche Zahl 2210 Mhz. Und schon mal eine RDNA 1 gesehen mit 2,2 Ghz Boost? Das ist der maximal mögliche Takt, der ist übrigens bei Pascal, Turing und Ampere bei 2100 Mhz. Was heißt diese Zahl gar nichts,
außer du heißt Sony und nimmst eiskalt bei einer Dynamischen Taktrate den höchsten Wert für Teraflops.

Du meinst das Teraflops etwas aussagen in Gaming? Die Fake Shader der 3080 was denkst passiert wenn man diese "Fake" Architektur optimiert. Sowas wie in Doom passiert dann 48%+ zur 2080ti. Ampere ist tatsächlich eine ganz andere Architektur
die dann im Fokus stehen wird. Schon mal daran gedacht? Das Ampere eine andere Programmierung braucht wie die Vorgänger. Geht man auf Fließkomma legen die Karten mächtig zu umso weniger umso schlechter für Ampere.

Dir scheint nicht bewusst zu sein das mehr Shader nicht linear Skalieren. Warum gehst du eigentlich davon aus, das bei gleichen Teraflops
RDNA 2 schneller ist wie RDNA1? Ach weil die Presse das sagt, es gibt aber bis heute keinen Anhaltspunkt das es so ist. Mehr Teraflops bei einer Architektur siehe Ampere heißt noch lange nicht das sie bei gleichen Teraflops schneller ist.
Warum hat es nie eine 5800XT geben? Weil die Architektur anscheinend nicht gut skaliert und ich will dir ja die Laune nicht verderben, aber ich würde meine Prognosen mal deutlich tiefer schrauben.

Womit wurde den Neulich RDNA 2 getestet? Da wurde tatsächlich Ashes aus der Mottenkiste geholt. Ein Test der weder neutral, noch relevant ist und da kam man mit 2 Versuchen einmal unter die 2080 S und einmal über diese aber nur knapp.
Das Spricht Bände, was heißt die GPU ist nicht in der Lage die 2080t zu schlagen und dass sollte die kleinere sein.
Dann wird die größere knapp die 2080ti schlagen oder gleich ziehen und das war die Prognose von Anfang an.

Hat AMD kein DLSS Ersatz sind sie sowieso schon Ko, RT munkelt man unter Turing Leistung. Software wurde bei NV auch wieder
deutlich aus gebaut und da hat AMD deutlich Nachteile. AMD hat bis heute keine Shadow Play Ersatz weil sie einen Uralt Encoder benutzen.
Schaut man mal genauer hin sind da große Unterschiede was NV Software Seitig bietet und was AMD. Mit AI Entwicklung wird AMD richtige Probleme bekommen.

Selbst wenn die Karten genauso schneller wären, haben sie dadurch verloren. Spielst auf der AMD Karte 4K ohne RT, kannst bei Nv dann mit den doppelten FPS plus RT zocken. DLSS wird ja jetzt Standard sein, es gibt keine GTX Karten mehr. Selbst eine viel Günstigere NV Karte kann so eine teurere AMD Karte überholen.
Ohne DLSS hat AMD praktisch verloren und das gescheit hin zu bekommen wird nicht einfach. Der Vorsprung von NV ist auf jeden fall da und ich war mal DLSS Gegner. Am Anfang war es auch Scheiße, aber jetzt ist es der Grund für mich eine neue Karte zu holen.
 
Videocardz:
"...With a boost clock of 2200 MHz, the Navi 21B would have a shader performance of 22.5 TFLOPs. For comparison, with NVIDIA’s new dual SM architecture, the GeForce RTX 3080 graphics card has a maximum FP32 throughput of 29.8 TFLOPs. .."

Wenn die FP32-Leistung von N2X ähnlich wie bei der 5700XT in die Realität umgesetzt wird, heißt das für N21b, dass jedenfalls die 3080 nur noch Rücklichter sieht (gemessen an deren Real-Leistung in UHD). Sind die Zahlen dagegen so aussagefähig, wie bei V10 oder V20, wird's nix mit 'nem Halo-Produkt. Also schau'n mer mal, was der 28. dann so bringt...
 
@jadiger
Es stimmt dass mehr Shader nicht linear skalieren, allerdings wird das Problem mit vielen Shadern pro Cluster größer.
Nvidia verbaut hier wieder mehr als 64.
Navi 22 hat mit hohem Takt gutes Potenzial als FHD und WQHD Karte für die Masse.

DLSS ist ein gutes Feature, zieht allerdings hauptsächlich bei AAA-Titeln. Viele zocken auch Games ala Snowrunner und Green Hell.
Funktioniert es da schon gut?
 
Zuletzt bearbeitet:
@jadiger
...
DLSS ist ein gutes Feature, zieht allerdings hauptsächlich bei AAA-Titeln. Viele zocken auch Games ala Snowrunner und Green Hell.
Was DLSS angeht wäre ich jedenfalls deutlich skeptischer, als bezüglich theoretischer TFLOPS-Angaben zu BN. Imho eins der klassischen Marketinfolienchecklistenfeature, die aus der Mottenkiste gezogen werden, wenn sich aus 30TFLOPS nur noch knapp 30% Mehrleistung ergeben, statt der rechnerisch "richtigen" 130%. Wenn's in ein paar Jahren wirklich funktionieren sollte, kann man darüber mal wieder reden. Auf jetzigem Stand und für die aktuellen GraKa-Generationen einfach nur meh.
 
Angeblich funktioniert DLSS schon gut, aber da ich selbst keine moderne Nvidia-Karte für eigene Tests habe, enthalte ich mich an dieser Stelle. :kaffee:
 
Zurück