Bezüglich dem Speicherinterface wird man abwarten müssen, da man bei AMD noch nahezu gar nichts weiß. Angeblich kennen ja zurzeit noch nicht einmal die Kartenhersteller nennenswerte Details zu RDNA2 und den Referenz-Karten, weil sich AMD hier derart bedeckt hält.
Schlussendlich kann man nicht sagen, dass die eine oder andere, gerüchteweise kommende Speicherauslegung kategorische Vor- oder Nachteile haben wird. Es liegt am Ende schlicht an der Zielsetzung des jeweiligen Herstellers. Wenn AMD hier tatsächlich 16 GiB über ein 512 Bit-Speicherinterface anbieten will, dann haben sie es grundlegend schwerer, hiermit gleichzeitig extrem schnelle Bausteine zu verarbeiten, da das Design damit noch deutlich gedrängter wird, was die Fertigung noch mehr verkomplizieren würde. Dementsprechend wäre es durchaus plausibel, wenn AMD stattdessen "nur" Standard-16-Gbps-BGAs verbaut (bei angenommenen 512 Bit).
Darüber hinaus dürfte die Verfügbarkeit extrem schneller Chips beschränkt sein, denn aktuell gibt es offiziell nicht einmal einen "GDDR6X"-Standard und hinzu kommt, dass nVidia der deutlich größere Kunde ist, der damit schlussendlich auch am längeren Hebel bei den Speicherherstellern sitzen dürfte.
AMD ist nach wie vor der Underdog, von dem der Markt neben einem günstigeren Preis auch mehr Features erwartet *) und so ist durchaus denkbar, dass man dieser Erwartungshaltung mit den 16 GiB nachkommen wird (was man sicherlich nicht freiwillig macht, denn das drückt in vielerlei Hinsicht auf die Marge).
Bei nVidia kann man zumindest spekulieren, dass die neuen Karten ein gutes Stück schneller werden (ob allgemein oder primär mit Blick auf Raytracing wird man abwarten müssen), denn offensichtlich sieht sich nVidia i. V. z. RTX 2080 Ti genötigt die Speicherbandbreite um +40 % bis +56 % zu erhöhen, abhängig davon, welchen Leaks man Glauben schenken möchte.
Bei AMD ist eine Abschätzung anhand der Speicherbandbreite weniger zielführend, da es einerseits sein kann, dass AMD diese nur indirekt hinzugewinnt, weil deren Priorität (vertriebstechnisch) ggf. auf der Bereitstellung von 16 GiB lag, und zudem hatte es AMD in den letzten 5 Jahren nicht wirklich geschafft aus einer gar teilweise beträchtlich höheren Bandbreite einen nennenswerten Nutzen zu ziehen. Hier wird man erst einmal abwarten müssen, was sie mit RDNA2 tatsächlich abliefern werden und aktuell ist hier bei ihrer extremen Geheimniskrämerei alles nur Spekulation.
Zmindest dieses Jahr ist man gemeinhin guter Hoffnung, dass AMD mit RDNA2 im HighEnd wieder aufschließen können wird. Vor drei Jahren mit GCN5 und der Vega 64 gelang ihnen das noch nicht:
o Vega 10, 14 nm, 12,5 Mrd. Tr., 495 mm2, 1,55 GHz Boost, 484 GiB/s HBM2, 64 CUs (4096 SPs)
o GP102, 16 nm, 12 Mrd. Tr., 471 mm2, 1,58 GHz Boost, 484 GiB/s GDDR5X, 56 SMs äquivalent (3584 CUDA Cores) **)
Trotz vergleichbarer Eckdaten lieferte der GP102 in Form der GTX 1080 Ti in WQHD im Mittel etwa +25 % mehr FPS in höchsten Settings. Man darf also hoffen, dass RDNA2 nun die Lücke schließen können wird, sodass man auch endlich wieder eine ernstzunehmende Konkurrenzsituation im oberen Segment haben wird.
*) So insbesondere leicht aufzunehmende, keine weitere Interpretation verlangende Werte, wie bspw. eine einzelne, größere Zahl auf dem Karton (hier konkret die Speichermenge), was man werbetechnisch weitaus leichter vermarkten kann, als bspw. ein spezielles (software)technisches Feature.
**) Pascal gruppierte seine CUDA Cores (ALUs) noch in 128er-Gruppen, sodass die offizielle Angabe für den GP102 28 SMs sind. Ab dem GP100 ("Datacenter-Pascal" mit HBM2, u. a. Tesla P100, April 2016) änderte nVidia die Gruppierung zu 64 CUDA Cores pro Streaming Multiprocessor, was sie bis heute beibehalten haben.