AMD Big Navi: Angeblich mit bis zu 16 GiB GDDR6 ab Q4/2020

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Big Navi: Angeblich mit bis zu 16 GiB GDDR6 ab Q4/2020

Die Big-Navi-Radeons sollen mit bis zu 16 GiByte Speicher auf den Markt kommen, sagt eine asiatische Quelle. Und nennt auch das vierte Quartal als Release-Zeitraum. Aber anscheinend wird es recht eng mit dem Release und man muss zunächst mit Referenzkarten vorlieb nehmen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Big Navi: Angeblich mit bis zu 16 GiB GDDR6 ab Q4/2020
 
Das mit den Custom Modellen wäre zwar extrem schade, aber dass sind immer noch bedeutend bessere Gerüchte als bei nVidia in meinen Augen.

Auch wenn es wohl sehr realistisch ist das beide Hersteller ihr Strombudget sehr gut ausnutzen bzw erhöhen werden.
 
nur passen 16GB und 384 Bit nicht zusammen

Ja, das klingt krumm. Wenn das tatsächlich so implementiert sein sollte, würde das bspw. bedeuten acht 1GB-BGAs und vier 2GB-BGAs. Das hätte dann aber schon wieder Potential für merkwürdiges Latenz-/Bandbreitenverhalten bei hoher Speicherauslastung, denn wenn man annimmt, dass die oberen vier Gigabyte der 2GB-BGAs nur dann genutzt werden, würde sich die Bandbreite für dort abgelegte Daten effektiv verringern.
Vollkommen ausgeschlossen wäre das nicht; der Kostendruck könnte das durchaus möglich machen, jedoch würde ich das Gerücht vorerst mit Skepsis sehen und abwarten was tatsächlich kommt. (Und es wäre dann auch ein Dämpfer für die HBM-Fraktion ;-))
 
Bei 16 gig waren wir ja schon bei der V2, wobei hier von der Leistung auch 10-12 Gig leicht gereicht hätten. Umsobesser wenn man nun mit Big Navi dort ankommt, wo man vor Navi schon mal war, das ist doch klasse. :D

Bin auf jedenfall gespannt, was unsere kleinen Elektrogangster im Herbst für lustige Plastikecken abliefern, auch was den Preis betrifft, auch spannend wird die Leistung der Konsolen, ham ma was zu gucken.
 
Ja, das klingt krumm. Wenn das tatsächlich so implementiert sein sollte, würde das bspw. bedeuten acht 1GB-BGAs und vier 2GB-BGAs. Das hätte dann aber schon wieder Potential für merkwürdiges Latenz-/Bandbreitenverhalten bei hoher Speicherauslastung, denn wenn man annimmt, dass die oberen vier Gigabyte der 2GB-BGAs nur dann genutzt werden, würde sich die Bandbreite für dort abgelegte Daten effektiv verringern.
Vollkommen ausgeschlossen wäre das nicht; der Kostendruck könnte das durchaus möglich machen, jedoch würde ich das Gerücht vorerst mit Skepsis sehen und abwarten was tatsächlich kommt. (Und es wäre dann auch ein Dämpfer für die HBM-Fraktion ;-))

Dann wäre die Lederjacke von dieser neuen 970 echt beeindruckt. :daumen:
 
Zuletzt bearbeitet:
Ich seh die 384bit eher bei einer möglichen 6800ér mit dann 12GB VRAM.
Wenn die "Halo" RDNA2-Karte nicht mehr auf HBM setzt fände ich das schon sehr verwunderlich nach Fury, Vega und Vega II.
 
Die Frau Su konnte man auch schon des öfteren mit einer Lederjacke auf der Bühne bestaunen.
Hoffe die nimmt sich nicht Mr. Lederjacke zum Vorbild und lässt das auch in den GK Preisen widerspiegeln :lol:
 
Wahrscheinlich wird Nvidia mit Ihrer Speichermenge ja ziemlich enttäuschend. Ich werde bestimmt nicht von einer 1080ti mit 11GB auf eine 3080 mit 8GB wechseln. Von daher wird es spannend wenn AMD mit bis zu 16GB Speicher daher kommt. Und wenn die Custom Karten erst nächstes Jahr kommen warte ich halt bis dahin. Vorrausgesetzt die Leistung der neuen Karten enttäuscht nicht wieder und kommt nicht an der 2080ti vorbei. Dann heißt es wieder lange warten oder komplett überteuerte Ampere Karten kaufen.
 
Wozu passen sie denn. 512bit oder 4096bit?

"Passen" ist hier nicht ganz der richtige Ausdruck. Ein GDDR6-BGA verwendet 32 Datenleitungen (bei insgesamt 180 Balls unter dem Gehäuse). Auf HighEnd-Karten werden bspw. 12 GiB dementsprechend mittels eines 384 Bit-Speicherinterfaces realisiert, also 12 Speichercontroller auf dem GPU-Die, so bspw. auf dem TU102 (RTX 2080 Ti bis Quadro RTX 8000).
Noch mehr Controller im Chip verbrauchen mehr Strom, erfordern das Nach-außen-führen von mehr Leitungen und verteuern ggf. gar das PCB, da man möglicherweise mehr Lagen verwenden muss. Und natürlich erfordern noch mehr Chips auch mehr Platz auf dem PCB, was das Layout und die Kühlung auch noch einmal etwas verkompliziert.
WIll man nun etwas untypischere Kombination anbieten, hat man im Wesentlichen zwei Möglichkeiten.
a) Man kann größere GDDR6-BGAs mit mehr Kapazität verwenden. Typischerweise werden heute 1 GiB-BGAs verwendet. Das typische obere Limit dürfte hier massenfertigungstechnisch bei 2 GiB-BGAs liegen. Beispielsweise die Titan RTX und Quadro RTX 6000 nutzen diesen Weg und kombinieren den TU102 mit 24 GiB GDDR6 mit weiterhin 12 Chips, diesmal aber jeweils mit doppelter Kapazität (d. h. die Speicherbandbreite ändert sich nicht).
b) Man kann durch eine Aufteilung der Datenleitungen zwei BGA-Chips an einen Speichercontroller anschließen (wärend die Adressleitungen für beide Chips verwendet werden können). Die Gesamtbandbreite pro Controller bleibt damit unverändert und man kann die Kapazität erhöhen. Beispielsweise die Quadro RTX 8000 nutzt dieses Verfahren. Das Design der kleineren RTX 6000 nutzt bereits 2 GiB-Chips, d. h. eine weitere Erhöhung ist hier nicht möglich mit dem 384 Bit-Interface, da es 4 GiB-Chips entweder kaum gibt oder diese gar überhaupt nicht gefertigt werden. Entsprechend werden hier zwei 2 GiB-BGAs an einen Controller angeschlossen, sodass die Karte nun 48 GiB GDDR6 besitzt, die dann jedoch über 24 BGAs realisiert werden, die man zur Hälfte auf die Rückseite des PCBs verlagern musste, da auf der Vorderseite um die GPU herum nicht mehr genügend Platz ist.
c) Als eher unwahrscheinliche dritte Varainte wäre natürlich theoretisch zumindest auch noch eine Kombination zwischen a) und b) denkbar.

Unterm Strich, wie bereits gesagt, vollkommen abwegig wären 16 GiB über 384 Bit nicht. AMD hat bereits für Microsoft's Konsolen-SoC 16 GiB mittels 320 Bit realisiert (Microsoft brauchte die etwas höhere Speicherbandbreite offensichtlich, um ihre größere GPU mit ausreichend Daten versorgen zu können). Vielleicht hat der Kostendruck AMD nun dazu gezwungen das Vorgehen auch für den großen RDNA2-PC-Chip zu übernehmen? HBM ist nach wie vor teuerer und AMDs Marktanteile sind geringerer, d. h. die können mit weniger Umsatz rechnen, was die Amortisierung erschwert, sodass man bzgl. der Fertigungskosten aufpassen muss, wenn es wirtschaftliche sein soll.

Grundsätzlich hätte ich ab einer Speichermenge von 16 GiB auch eher die Verwendung von HBM2 erwartet. Das Problem ist nur, dass AMDs Absatzzahlen in diesem Segment deutlich geringer sein werden als die von nVidia, selbst wenn man noch die Radeon Pro's einrechnet, die zweifelsfrei auch RDNA2 verwenden werden. Hätte/würde AMD den HighEnd-Chip auf HBM2 auslegen, hätte man keine wirtschaftliche Möglichkeit zum Downgrading mehr, wie es bspw. nVidia mit dem TU102 macht (den sie über eine sehr weite Produktspanne hinweg nutzen), denn für etwas runtergestrippte Chipvarianten stünde dann weiterhin nur das HBM-Interface zur Verfügung, d. h. man müsste auch auf diesen günstigeren Karten teueren HBM verwenden, was die Fertigungskosten relativ betrachtet weiter in die Höhe treiben würde (bzw. effektiv die Marge senken würde).
 
Zuletzt bearbeitet:
Wahrscheinlich wird Nvidia mit Ihrer Speichermenge ja ziemlich enttäuschend. Ich werde bestimmt nicht von einer 1080ti mit 11GB auf eine 3080 mit 8GB wechseln.
Das wirst du schon deshalb nicht müssen, weil es keine 3080 mit 8 GB geben wird ... :rollen:
Von daher wird es spannend wenn AMD mit bis zu 16GB Speicher daher kommt.
Nvidia wird auch "mit bis zu 16 GB" daherkommen, auch wenn's dafür wohl eine 3080Ti/3090, relativ deutlich jenseits der 1000 Euro, brauchen wird.

Wirklich gewonnen ist deshalb auch erst dann etwas, wenn AMD diese Speichermenge tatsächlich auf Karten in der Preisregion zwischen 500 und 1000 Euro verbaut. Dort auf eine 3070/3080 zu treffen, die gegebenenfalls über 10 oder 12 GB nicht hinaus kommen, wäre dann schon interessant ...
 
Wahrscheinlich wird Nvidia mit Ihrer Speichermenge ja ziemlich enttäuschend. Ich werde bestimmt nicht von einer 1080ti mit 11GB auf eine 3080 mit 8GB wechseln. Von daher wird es spannend wenn AMD mit bis zu 16GB Speicher daher kommt. Und wenn die Custom Karten erst nächstes Jahr kommen warte ich halt bis dahin. Vorrausgesetzt die Leistung der neuen Karten enttäuscht nicht wieder und kommt nicht an der 2080ti vorbei. Dann heißt es wieder lange warten oder komplett überteuerte Ampere Karten kaufen.

Interessant wird auch wie die Qualität und die Treiberqualität aussieht. Bei den 5700 (XT) liesst man subjektiv von vielen Rückläufern und Treiberproblemen.
 
Zurück