AMD Radeon RX 6000: Navi 21 angeblich mit 16 GiB; Navi 22 mit 12 GiB

Vega sollte ja auch schon der 1080Ti Killer sein.
Wo genau soll AMD das behauptet haben?

Und die RadeonVII (09. Jan. 2019) sollte der RTX2080Ti-Killer sein (27. Sep. 2018).
Wo soll AMD das behauptet haben?

Irgenwie beschleicht mich so langsam das Gefühl 2020 werden wir keine neuen Grafikkarten mehr bekommen, zumindest nicht in Hardware...
Eh nicht, weil AMD den Großteil der Wafer wohl für den "Kampf" gegen Intel eingeplant haben wird.
+ die Konsolen, für die man Liefergarantien gegenüber MS/Sony zu erfüllen hat.

Nvidia fertig doch bei TSMC. Den Ampere Vollausbau Quadro mit 48GB.
Das bringt euch Gamern genau was?
 
Nvidia fertig doch bei TSMC. Den Ampere Vollausbau Quadro mit 48GB.

Hängt davon ab was du meinst. Wenn du tatsächlich die großen Quadro's (und die neue Titan) meinst, dann nein, denn die verwenden den Vollausbau des GA102, also Samsung's semi-custom 8N Prozess.
Hier vertust du dich mit dem GA100, der bei TSMC im N7 gefertigt wird. Der Chip ist bedeutend größer als der GA102 und für Datacenterprodukte vorgesehen. Mittlerweile gibt es davon auch eine etwas "ausgebremste" PCIe-Karte, die jedoch nicht unter dem Quadro-Brand vertrieben wird, sondern NVIDIA A100 PCIE heißt (> 9000 €). Darüber hinaus verwendet der GA100 in Form der A100 "nur" 40 GiB HBM2, während die kommende große Quadro und die Titan 48 GiB Standard-GDDR6 verwenden werden. Die A100 ist zudem auch für FP64-HPC ausgelegt, die kleineren Chips dagegen nicht.
 
Zuletzt bearbeitet:
Hängt davon ab was du meinst. Wenn du tatsächlich die großen Quadro's (und die neue Titan) meinst, dann nein, denn die verwenden den Vollausbau des GA102, also Samsung's semi-custom 8N Prozess.
Hier vertust du dich mit dem GA100, der bei TSMC im N7 gefertigt wird. Der Chip ist bedeutend größer als der GA102 und für Datacenterprodukte vorgesehen. Mittlerweile gibt es davon auch eine etwas "ausgebremste" PCIe-Karte, die jedoch nicht unter dem Quadro-Brand vertrieben wird, sondern NVIDIA A100 PCIE heißt (> 9000 €). Darüber hinaus verwendet der GA100 in Form der A100 "nur" 40 GiB HBM2, während die kommenden Quadro's und die Titan 48 GiB Standard-GDDR6 verwenden werden. Die A100 ist zudem auch für FP64-HPC ausgelegt, die kleineren Chips dagegen nicht.

Ich meine den GA100, wie oben beschrieben. Aber es spielt auch überhaupt gar keine Rolle welcher Chip nun bei TSMC gebaut wird.
Wie oben beschrieben, ging es mir um nichts mehr, als aufzuzeigen, dass Nvidia ja auch bei TSMC fertig und eben nicht nur bei Samsung.
Das war völlig wertfrei.
 
Zuletzt bearbeitet:
- 60% + effizienter
- 2GHz+
- hochmoderne Fertigung in 7nm TSMC
- vollständig im Einklang mit den neuen Konsolen
- optimiertes Raytracing wie die Konsolen

Nimmt man mal deine rote Brille ab, dann stellt sich diese Liste etwas anders dar:

- 60% + effizienter
Realistisch irgendwas im Bereich von 50 - 60 %. Deutlich mehr wird zunehmend unwahrscheinlicher.

- 2GHz+
Eher < 2 GHz, siehe unter anderem die Yield-Probleme bei der PS5 mit 2,23 GHz und gerade mal 36 CUs. Die Xbox taktet nicht zum Spaß 400 Mhz niedriger und auch nVidia's Chips sind nicht ohne Grund deutlich unterhalb der 2 GHz bzgl. ihrer offiziellen Boost-Angabe angesetzt.

- hochmoderne Fertigung in 7nm TSMC
Voraussichtlich der etablierte N7P, den sie auch schon bei RDNA/Navi 10 verwenden. Bei letzterem haben sie diesen jedoch unzureichend genutzt. Man wird abwarten müssen, was sie nun tatsächlich herausholen können, wenn sie die gebotenen Möglichkeiten tatsächlich auch mal nutzen. ;-)

- vollständig im Einklang mit den neuen Konsolen
Einklang, Zweiklang, Dreiklang ...? Who cares. Auf dem PC wird über DirectX und Vulkan programmiert. Eine hardwarenahe Programmierung wird man später bestenfalls auf den Konsolen antreffen und die PS5 verwendet gar komplett andere APIs.
Zudem wäre es möglich, dass es nicht einmal einen "Einklang" gibt, wenn die dGPUs tatsächlich so etwas verwenden sollten wie den in der Gerüchteküche kolportierten "InfinityCache", insbesondere wenn der tatsächlich auch noch eine gezielte Unterstützung benötigen sollte, denn die Konsolen verfügen nicht über einen solchen übergroßen L2-Cache.

- optimiertes Raytracing wie die Konsolen
Das "optimiert" ist reine Spekulation. Gesichert ist lediglich, dass es sich hier um AMDs Raytracing-Erstlingswerk handelt. Weiterhin handelt es sich um Technik aus dem Jahr 2018. Hier wird man schlicht abwarten müssen wie gut sich die Implementaiton im Vergleich zu den RT Cores (v2) präsentieren wird. Aktuell gibt es dazu nicht eine einzige Ableitungsmöglichkeit.

Einfach mal abwarten was kommt. Da AMD derzeit informationstechnisch den Deckel draufhält, sind nahezu alle Aussagen Spekulation, d. h. es kann so kommen, zumindest in gewissen Rahmen, denn einige Einzelpersonen übertreiben hier technisch maßlos, oder es kann auch anders kommen.

Ich meine den GA100, [...] Das war völlig wertfrei.

Wertfrei war meine Aussage ebenfalls; die sollte lediglich einige Lücken füllen.
Darüber hinaus ist nVidia schon seit langem TSMC-Kunde und sie haben Samsung auch schon bei Pascal in kleinem Rahmen genutzt.
 
Zuletzt bearbeitet:
Eh nicht, weil AMD den Großteil der Wafer wohl für den "Kampf" gegen Intel eingeplant haben wird.
+ die Konsolen, für die man Liefergarantien gegenüber MS/Sony zu erfüllen hat.

Klar, dessen bin ich mir bewusst, spielt mir auch in die Karten, mehr als die neue Grafikkarte benötige ich einen moderne CPU mit moderner Plattform. Aber, dass die Aussichten so schlecht sind... hatte gehofft Ende Nov kann ich die dann hoffentlich neue Platform mit einer neuen GPU vervollständigen.
Ich merke schon, mein Ansatz auf 144Hz UWQHD umzusteigen ist wohl nicht der schlechteste.
 
Da merkt man halt wieder was für AMD aktuell wichtiger ist.
Für die neuen Konsolen wird man noch einige Zeit viele Wafer benötigen, dieses Jahr wird es da bei den RDNA2-dGPUs knapp werden.

Dann startet auch bald CDNA(1), was wohl auch wichtiger als RDNA2 sein wird.
 
- 2GHz+
Eher < 2 GHz, siehe unter anderem die Yield-Probleme bei der PS5 mit 2,23 GHz und gerade mal 36 CUs. Die Xbox taktet nicht zum Spaß 400 Mhz niedriger und auch nVidia's Chips sind nicht ohne Grund deutlich unterhalb der 2 GHz bzgl. ihrer offiziellen Boost-Angabe angesetzt.

ich denke auch nicht das der Basistakt über 2Ghz liegt. Für den Boost ist das allerdings schon eher wahrscheinlich, ich würde AMD da durchaus auch 2100+ zutrauen. Wie Nvidia boostet ist unerheblich, anderer Prozess UND andere Architektur.

Die Konsolenvergleiche sind nur teilweise sinnvoll. Beim Sony yield bleibt zu bedenken, dass dort nicht nur dedizierte Grafikchips vom Band fallen und bisher auch in diesem Bereich alles nur Mutmaßungen sind. Die Xbox hingegen läuft wahrscheinlich dichter am Sweetspot, denn das PowerBudget für die APU will gehalten werden. Ein Indiz für die Taktbarkeit von RDNA2 ist das hingegen nicht.
 
- hochmoderne Fertigung in 7nm TSMC
Voraussichtlich der etablierte N7P, den sie auch schon bei RDNA/Navi 10 verwenden. Bei letzterem haben sie diesen jedoch unzureichend genutzt. Man wird abwarten müssen, was sie nun tatsächlich herausholen können, wenn sie die gebotenen Möglichkeiten tatsächlich auch mal nutzen. ;-)

Navi 10 wurde jedoch nicht im N7P Verfahren, sondern in N7 hergestellt.
In folgendem Beitrag siehst du die Unterschiede zwischen TSMC 12nm und TSMC 7nm:
rtx 2070super 545mm²
rx5700xt 251mm²
------------------
- optimiertes Raytracing wie die Konsolen
Das "optimiert" ist reine Spekulation. Gesichert ist lediglich, dass es sich hier um AMDs Raytracing-Erstlingswerk handelt. Weiterhin handelt es sich um Technik aus dem Jahr 2018. Hier wird man schlicht abwarten müssen wie gut sich die Implementaiton im Vergleich zu den RT Cores (v2) präsentieren wird. Aktuell gibt es dazu nicht eine einzige Ableitungsmöglichkeit.

DXR1.1 Unterstützung. Macht ja auch nur Sinn, wenn man den Grafikchip in einer XBox verbaut.
Ich sehe da jetzt nicht so recht, welche Vorteile Nvidia bei der Unterstützung haben soll?
Welcher Hersteller am Ende performanter ist, werden wir sehen. Aber auch da muss jeder für sich die Gewichtung von Raytracing ausmachen.
 
Auf jeden Fall, 16GB RAM klingen schon verdammt gut, hatte das zu wenig RAM Problem schon öfter bei Nvidia.
Eine eigentlich gute Karte verreckt weil der RAM ausgeht.
12; 16GB klingen schon sehr nach 2020 :daumen:
 
Navi 10 wurde jedoch nicht im N7P Verfahren, sondern in N7 hergestellt [...]

RNDA/Navi 10 wurde bereits im 2ndGen N7P gefertigt, so explizit von Wikichip ausgewiesen. Vega 20 wurde in 2018 im N7 gefertigt.
Und was sollen mir die unterschiedlichen Chipgrößen sagen? Turing verwendet den 12FFN mit um die 25 MTr/mm2, AMD implementierte bisher mit um die 40 MTr/mm. Diese Chipgrößen resultieren da zwangsweise.
Darüber hinaus hast du dir da einen sehr unvorteilhaften Vergleich herausgesucht, denn im Vergleich zur RX 5700 XT performt die RTX 2070 Super besser. Konkrete Werte kann man bspw. bei in Reviews sehen, so in SotTombRaider, BF5 und Wolfenstein II in 4K. In allen drei Titeln liefert die Turing-Karte die höheren Fps und ist zusätzlich in einer Fps/Watt-Betrachtung auch noch die effizientere Karte (+4 % bis +10 % effizienter und diese Super ist schon deutlich ineffizienter als ihre Nicht-Super-Variante, die nur mit Blick auf die Effizienz +20 % bis +22 % effizienter ist, als das Navi-Pendant).

Bei unterem Teil ging es nicht darum, dass Amepre angeblich irgendwelche Vorteile bei der Unterstützung haben soll. Es ging lediglich darum zu entkräften, dass RDNA2 auf dem PC angeblich irgendwelche nennenwerten Vorteile haben soll. Das sind zwei unterschiedliche Aussagen. ;-)

Wir wissen aber welcher Hersteller den Standard definiert und es sind nicht die Grünen.

Ähhh, du verwirrst ... ;-) Im Augenblick setzt einzig nVidia den Standard, denn alles was AMD derzeit anbietet ist nicht nur (deutlich) langsamer sondern auch ineffizienter, d. h. das was jetzt von AMD kommen wird (man beachte den Tempus), wird sich dem derzeitigen Defacto-Standard Ampere stellen müssen.

Erst dann (und natürlich nach entsprechenden Tests) kann man eine etwaige Änderung des "Standards" ausrufen.
Unabhängig davon wird nVidia aber weiterhin den weitaus größeren Marktanteil inne haben, d. h. Entwickler werden weiterhin vorzugsweise für nVidia optimieren, eine schlicht wirtschaftliche und nachvollziehbare Vorgehensweise. Was die Konsolen in Verbindung mit Ports bieten können, ist, dass das Level der grundlegenden Optimierung nun bei AMD etwas steigen könnte, sodass es (hoffentlich) nicht mehr so große, negative Ausreißer geben wird. (Bspw. Ghost Recon Breakpoint ist diesbezüglich ein regelrechter Alptraum für die RX 5700 XT. Nicht nur dass die RTX 2070 Super in 4K +12 % mehr Fps liefert, die Karte liefert auch noch +34 % mehr Fps/Watt).
 
Zuletzt bearbeitet:
Hmmm, wenn Navi 21/22 im Gesamtpaket überzeugen kann, dann wird wohl seit langem mein Rechner mal wieder die Farbe rot tragen. Ampere säuft mir zuviel und nur 10GB VRAM sind auch aktuell schon mit der heißen Nadel gestrickt.

16GB VRAM wären mir recht. Seit meiner GTX 670 quasi immer eine Verdoppelung des Videospeichers. Und RAM kann man bekanntlich nie genug haben.

Gruß
 
Zuletzt bearbeitet:
Mhmm, stimmt. Sehe ich auch grad. Aber zumindest kam noch DUV zum Einsatz, was sich ja mit Navi20 auf EUV ändern soll.

Nein. Aktuell gibt es keine belastbare Indikation für die Nutzung von EUV. AMD wird mit hoher Wahrscheinlichkeit beim N7P bleiben, ob in einer semi-custom Variante oder nicht spielt erst mal keine Rolle. Darüber hinaus sind die effektiven Unterscheide zwischen dem N7P und N7+ gering *), letzterer ist jedoch mit einigen handfesten Nachteilen verknüpft, was auch der Grund ist, warum der Prozess insgesamt nur von wenigen genutzt wird.

*) Das "gering" zum N7+ rührt hier u. a. auch daher, dass lediglich vier Lagen mittels EUV belichtet werden. Der Großteil wird beim N7+ weiterhin mit DUV belichtet. TSMC verwendet EUV erst in umfangreichem Maße im N5.
 
Zuletzt bearbeitet:
Hmmm, wenn Navi 21/22 im Gesamtpaket überzeugen kann, dann wird wohl seit langem mein Rechner mal wieder die Farbe rot tragen. Ampere säuft mir zuviel und nur 10GB VRAM sind auch aktuell schon mit der heißen Nadel gestrickt.

16GB VRAM wären mir recht. Seit meiner GTX 670 quasi immer eine Verdoppelung des Videospeichers. Und RAM kann man bekanntlich nie genug haben.

Bin schon ganz heiß auf eine neue Platform mit PCIe 4.0 und M.2, dazu eine CPU mit 10+ Kernen und eine potente Grafikkarte mit 16GB+. Das wäre mein erstes AMD System seit Athlon X2 4600+, GPU nach Voodoo also seit TNT2 Ultra nur Nvidia (Ausnahme die RX570 im Bastel-PC).
Bin gespannt was dann per Undervolting möglich ist, Effizienztuning anstatt Mhz-Rennen beim i7-3770K/X5660 wird eine neue Erfahrung für mich.
 
Zurück