So meine erste Prognose die folgendermaßen lautete: Big Navi 80CU mindestens ca. 2GHz wurde allem Anschein nach sogar noch übertroffen.
Die NVIDIA Hardcore Minimalisten Fraktion wollte es ja nicht wahrhaben, das Big Navi um die 2GHz takten kann,
jetzt sind wir gar bei 2.2GHz angekommen.
Aber ihr müsst euch deswegen nicht gleich in den Büschen verstecken, jeder kann mal falsch liegen.
Was mich auch gleich zu meiner zweiten Prognose führt: + IPC 10-25% (RDNA1 / RDNA2)
Um es mal in Relation zu setzen:
Big Navi = 5120 Shader 22.5TFLOPS + 10-25 IPC wird keinen Stein mehr auf dem anderen lassen und einschlagen wie eine Bombe:
3080 = 8704 pseudo Shader (29.5 pseudo TFLOPS) vs. 2080ti 4352 Shader (14.2 - 15.6TFLOPS)
3080 ca. 30% vor 2080ti
Bei einer solch potenten GPU die einen solch hohen Takt fährt, läuft eigentlich alles am Ende wieder auf HBM2 hinaus.
Vielleicht analog der VII:
4 Stapel a 256 GB/s, 1024GB/s
oder gar 4 Stapel a 307GB/s 1228GB/s
Oder doch:
- Samsung HBM2E mit zwei Stapel a 538 GB/s Total 1076 GB/s
- SK Hynix HBM2E mit zwei Stapel a 460 GB/s Total 920 GB/s
Am Ende stehen immer noch 512Bit GDDR6 mit 896 - 1024GB/s und der heilige Gral die 256 Bit + 128MB infinity Cache im Raum.
Irgenwie hab ich aber das Gefühl, das an der 256Bit + Infinity cache Geschichte nicht viel dran ist und dieses Gerücht
wohl aus der Luft gegriffen ist.
Die Chancen das wir ein 512Bit, GDDR6 oder doch HBM2 für Big Navi zu Gesicht bekommen werden, würde ich zum jetzigen Zeitpunkt auf 50:50 schätzen.
Dabei hat 512Bit GDDR6 einen möglichen Kostenvorteil (allerdings nicht sicher, Stichwort Komplexität und Flächenvorteil)
HBM2 hingegen braucht nur in etwa die Hälfte der Fläche (oder gar weniger, habe es mal genauer analysiert kann mich an die genauen Zahlen aber nicht mehr erinnern) und verbraucht dadurch das er niedriger getaktete dafür aber breiter Angebunden ist deutlich weniger Strom.
Die Kosten dafür müssten eigentlich mittlerweile in einem akzeptablem Bereich angekommen sein.
(Stichwort: Größere Stückzahlen, zusätzliche Anbieter sicherlich nicht mehr mit der Situation zu Fury, Nano, 56/64 bzw VII Zeiten vergleichbar.
Ob z.B.: 20GB GDDR6X wirklich billiger als 16GB HBM2 sind muss auch noch zuerst bewiesen werden.
Aber um es auf den Punkt zu bringen, wenn Big Navi nicht an einem chronischen Speicherbandbreitenmangel drauf geht, wird Big Navi die 3080 ungespitzt in den Boden hauen.
Anhand der vorhandenen Spezifikation würde dies bereits der Fall sein, selbst wenn RDNA2, 0 IPC Zuwachs zu verzeichnen hätte.
Falls die von mir in den Raum gestellten 10-25% (Wobei ich ca. 20% am wahrscheinlichsten halte)
zutreffen, wird sie gar die 3090 zum Frühstück verspeisen und dies mit 275W?
Das wird wohl auch die Erklärung sein wieso bei NVIDIA der letzte Tropfen probiert wurde hinauszupressen und
selbst Leistungsaufnahmen weit über 400W in Kauf genommen wurden selbst wenn gewissen Karten dabei mittlerweile in regelmäßigen Abständen das Licht ausgeht.
AMD hat kein HBM mehr ist eigentlich schon klar.
Kann bis zu Takten 2,2Ghz Takten echt genauso wie RDNA 1 sogar exakt die gleiche Zahl 2210 Mhz. Und schon mal eine RDNA 1 gesehen mit 2,2 Ghz Boost? Das ist der maximal mögliche Takt, der ist übrigens bei Pascal, Turing und Ampere bei 2100 Mhz. Was heißt diese Zahl gar nichts,
außer du heißt Sony und nimmst eiskalt bei einer Dynamischen Taktrate den höchsten Wert für Teraflops.
Du meinst das Teraflops etwas aussagen in Gaming? Die Fake Shader der 3080 was denkst passiert wenn man diese "Fake" Architektur optimiert. Sowas wie in Doom passiert dann 48%+ zur 2080ti. Ampere ist tatsächlich eine ganz andere Architektur
die dann im Fokus stehen wird. Schon mal daran gedacht? Das Ampere eine andere Programmierung braucht wie die Vorgänger. Geht man auf Fließkomma legen die Karten mächtig zu umso weniger umso schlechter für Ampere.
Dir scheint nicht bewusst zu sein das mehr Shader nicht linear Skalieren. Warum gehst du eigentlich davon aus, das bei gleichen Teraflops
RDNA 2 schneller ist wie RDNA1? Ach weil die Presse das sagt, es gibt aber bis heute keinen Anhaltspunkt das es so ist. Mehr Teraflops bei einer Architektur siehe Ampere heißt noch lange nicht das sie bei gleichen Teraflops schneller ist.
Warum hat es nie eine 5800XT geben? Weil die Architektur anscheinend nicht gut skaliert und ich will dir ja die Laune nicht verderben, aber ich würde meine Prognosen mal deutlich tiefer schrauben.
Womit wurde den Neulich RDNA 2 getestet? Da wurde tatsächlich Ashes aus der Mottenkiste geholt. Ein Test der weder neutral, noch relevant ist und da kam man mit 2 Versuchen einmal unter die 2080 S und einmal über diese aber nur knapp.
Das Spricht Bände, was heißt die GPU ist nicht in der Lage die 2080t zu schlagen und dass sollte die kleinere sein.
Dann wird die größere knapp die 2080ti schlagen oder gleich ziehen und das war die Prognose von Anfang an.
Hat AMD kein DLSS Ersatz sind sie sowieso schon Ko, RT munkelt man unter Turing Leistung. Software wurde bei NV auch wieder
deutlich aus gebaut und da hat AMD deutlich Nachteile. AMD hat bis heute keine Shadow Play Ersatz weil sie einen Uralt Encoder benutzen.
Schaut man mal genauer hin sind da große Unterschiede was NV Software Seitig bietet und was AMD. Mit AI Entwicklung wird AMD richtige Probleme bekommen.
Selbst wenn die Karten genauso schneller wären, haben sie dadurch verloren. Spielst auf der AMD Karte 4K ohne RT, kannst bei Nv dann mit den doppelten FPS plus RT zocken. DLSS wird ja jetzt Standard sein, es gibt keine GTX Karten mehr. Selbst eine viel Günstigere NV Karte kann so eine teurere AMD Karte überholen.
Ohne DLSS hat AMD praktisch verloren und das gescheit hin zu bekommen wird nicht einfach. Der Vorsprung von NV ist auf jeden fall da und ich war mal DLSS Gegner. Am Anfang war es auch Scheiße, aber jetzt ist es der Grund für mich eine neue Karte zu holen.