AMD Big Navi: Angeblich Varianten mit 16 und 12 GiByte Grafikspeicher

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Big Navi: Angeblich Varianten mit 16 und 12 GiByte Grafikspeicher

Gerüchte aus den Weiten des Chiphell-Forums besagen, dass AMDs Navi 21 - auch gerne "Big Navi" genannt - in zwei Speicherkonfigurationen erhältlich sein wird. Angeblich wird es Grafikkarten mit 16 und 12 GiByte geben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Big Navi: Angeblich Varianten mit 16 und 12 GiByte Grafikspeicher
 
Zen 3 und big Navi müssten eigentlich im 7nm ++ kommen da schon zen2 in 7nm + vom band geht.

Die 16gb mit HBM wird warscheinlich Apple exklusiv werden da die auch gut zahlen, was man auch an der 5700XT mit 16GB sehen kann den die wenigsten würde für die karte 600€ zahlen.


Die neuen karten mit 16gb und Normalen speicher wäre schon was feines. ;)
 
Die Zen2 Chiplets werden doch in N7 gefertigt.
Renoir müßte auch N7 sein.

Ist doch nur der 7er ohne +.

was AMD in der zweiten Generation an 7-nm-Produkten plant, wird eine verbesserte Fertigung in 7 nm sein. Die CPU-Chiplets auf Basis von Zen 2 werden in N7 bei TSMC gefertigt. Dabei handelt es sich um die erste Generation der Fertigung in 7 nm bei TSMC, die eine DUV-Lithografie (Deep Ultra Vilolett) verwendet. Für die aktuellen Navi-GPUs verwendet AMD bei TSMC bereits N7P. Hier kommt ebenfalls noch ausschließlich DUV zum Einsatz, allerdings gab es Verbesserungen in anderer Hinsicht. Hier zeigen sich die Unterschiede in den Anforderungen an die Fertigung.
AMD erlaeutert 7nm, 7nm+ und was sich dahinter verbergen koennte - Hardwareluxx

Es wird wohl kein HBM-PHY vorhanden sein.
Kann schon sein, aber wenn Apple ein paar dollar springen lässt dann wird AMD den chip anpassen und so fertigen lassen.
 
Ich wäre mit 12 GB VRAM zufrieden da ich aktuell 8 GB habe und die Auflösung meiner Wahl WQHD ist. Ich kann verstehen, wenn Leute von einer 11 oder 12 GB Karte kommen und nun gerne 16 GB hätten. Ich denke wenn ich eine mit 16 GB hätte würde ich auch meinen Arbeitsspeicher auf 32 GB ausbauen. Wäre ja peinlich wenn das System und GPU gleich viel Speicher hätten :D
 
Zen2 und Renoir nutzen beide den N7, d. h. TSMCs 7 nm-Prozess der ersten Generation (in der HVM genutzt seit 2018). Navi 10 nutzt den N7P, d. h. die optimierte Variante und damit einen 2nd-Gen-Prozess. Die "7nm+" werden sich allgemein auf einen generischen 2nd-Gen-Prozess beziehen, höchstwahrscheinlich den N7P, den man schon nutzt und nun voraussichtlich auch für Zen3 und RDNA2 und höchstwahrscheinlich auch für die Konsolen-SoCs verwenden wird. Der N7+ (mit vier EUV-Lagen) bietet nur wenig Mehrwert, erforder jedoch eine vollständige und aufwändige Re-Implementaiton.

Die einzig wirklich sinnvolle Alternative wäre TSMCs N6 der IP-kompatible zum N7(P) ist, jedoch befindet sich der noch in der Risk Production und soll erst gegen Jahresende (?) in die HVM überführt werden, was für die unmittelbar bevorstehenden AMD-Produkte zu spät erscheint. (Eine Entscheidung zugunsten einer frühzeitigen Verwendung des N6 wäre mit einem gewissen Risiko behaftet gewesen; so etwas könnte sich AMD tendenziell eher nicht leisten.)

HBM? - Ein Deal mit Apple, der vertraglich bestimmte Abnahmemengen zusichert, wäre wohl der einzige Weg, der es AMD ermöglichen würde, wirtschaftlich noch zusätzlich ein HBM-RDNA2-Design aufzusetzen. Ob das so kommt, wird man abwarten müssen. Wird es keine speziellen RDNA2-basierten Designs für Apple geben, wird man wohl mit hoher Wahrscheinlichkeit auch grundsätzlich kein HBM2 in Verbindung mit RDNA2 zu Gesicht bekommen.

Undenkbar wäre ein solcher Deal nicht, denn Apple nutzt auf der Radeon Pro Vega II (Duo) 2x16 bzw. 2x32 GiB HBM2. Insbesondere letztere Speichergröße wäre mit GDDR6 über 512 Bit nicht sinnvoll realisierbar. Die Frage ist aber, ob Apple jetzt schon wieder ein neues Design in Auftrag geben und bezahlen will. (Apple's Vega 20-Varianten sind gerade mal Mitte 2019 auf den Markt gekommen. Ein potentieller Pluspunkt wäre die Hardware-Raytracing-Unterstützung, aber ob das Apple eine neue Beauftragung wert ist, wird man abwarten müssen. - Neben CPUs auf ARM-Basis sitzt Apple auch daran eine eigene Grafik-IP zu entwickeln.)
 
Zuletzt bearbeitet:
Sollte Nvidia nur mit max 12 GB um Ecke kommen, könnten sich manche gezwungen fühlen zu warten ob von AMD nicht ein fast gleich schnelles Teil mit 16Gb zu haben ist. Hat AMD eine 16GB-Karte und Nvidia ncht, wird früher als manche denken vielleicht von der Geforce ein Update erscheinen welches auch 16 GB hat. - Sich wegen dem Spiecher eine Titan zu kaufen ist ja keine wirkliche Option für die meisten jedenfalls nicht. - Es sollte also niemand enttäuscht sein, der schnell eine Ampere mit 12 GB kauft, dass es die selbe Karte ein paar Monate später - geringfügig schneller und mit 16 GB gibt.

Da kann man ja fast nur hoffen, dass die Ampere Leaks nicht stimmen und es schon von Beginn weg 16GB Karten gibt.
 
Hmm, also wenn das so kommt, würde ich zur 512bit-Variante greifen. Finde ja schon die 256bit bei der 5700XT etwas sportlich und wenn, dann möchte ich schon gleich eine doppelte Navi 10 reinstecken, damit sich das Upgrade auch ordentlich lohnt.
Ich hoffe zudem auf Dual-Bios auf den Flaggschiffen, Turbo- und Silentmodus umschaltbar.
 
Der N7+ (mit vier EUV-Lagen) bietet nur wenig Mehrwert, erforder jedoch eine vollständige und aufwändige Re-Implementaiton.
Wieso liefert N7+ gegenüber N7P keinen Mehrwert? 7% höherer Takt oder 10% höhere Effizienz dem gegenüber 18% höherer Takt oder 20% höhere Effizienz? N7P ist auf N7+ übertragbar, nur nicht auf N5. Natürlich ist 12FFN nicht auf N7+ übertragbar.

Sowas hab ich noch nie gelesen. Sie meinen N7P+ (FEOL+MOL) DUV nicht EUV, also einen nochmal verbesserten N7P. EUV kann Designs über 250Watt bisher nicht wirklich berücksichtigen, wenn das geht werden alle früher oder später wechseln, soweit Kapazitäten vorhanden sind.

Nvidia behauptete auch 7nm bietet keinen Mehrwert, sieht für mich anders aus.
 
Was habt ihr nur alle mit eurem Hype um sowohl HBM als auch 512er SI? :schief:

Keine AMD-Karte in jüngster Erinnerung war ein durchschlagender Hit ... mit keiner von beiden Ausstattungen. Im Gegenteil, einige der größten Flops und Problemkinder waren darunter!

Neuerer GDDR6 alleine sollte genügend Bandbreite geben. Wozu also die Karten unsinnig aufblasen? Kostet nur mehr Stromverbrauch, höhere Abwärme und kompliziertere Platine. AMD muss die Karten so einfach wie möglich halten. Das reduziert potentielle Fehlerquellen!

Jedes weitere GB an VRAM kostet zusätzlich. Das müsst "ihr" am Ende bezahlen. Viel wichtiger wäre mir, wieviel Rohleistung die finalen Karten tatsächlich haben. Ob 12 oder 16 machen dann kaum einen Unterschied aus. Der Aufpreis hingegen schon! :P
 
Der Clou wären 4 neue Grafikkarten von AMD, auch wenn ich daran zweifel hätte, dass dies wirklich so kommt - aber träumen darf man ja, oder?

RX 6800 XT - 16 GB (1.000,- €) ~ 30% mehr Leistung wie RTX 2080 TI?
RX 6800 - 16 GB - etwas weniger Shader, geringerer GPU- & Speichertakt (800,- ) ~ 15% mehr Leistung wie RTX 2080 TI
RX 6700 XT - 12 GB (600,- €) ~ RTX 2080 TI Leistung?
RX 6700 - 12 GB - etwas weniger Shader, geringerer GPU- & Speichertakt (500,- €)

Umgelabelt + ggf. besserer Speicher-/GPU Takt wegen verbesserter Fertigung
RX 5700 XT -> RX 6600 XT (400,- €)
RX 5700 -> RX 6600 (330,- €)
usw.
 
Sollte Nvidia nur mit max 12 GB um Ecke kommen, könnten sich manche gezwungen fühlen zu warten ob von AMD nicht ein fast gleich schnelles Teil mit 16Gb zu haben ist. Hat AMD eine 16GB-Karte und Nvidia ncht, wird früher als manche denken vielleicht von der Geforce ein Update erscheinen welches auch 16 GB hat. - Sich wegen dem Spiecher eine Titan zu kaufen ist ja keine wirkliche Option für die meisten jedenfalls nicht. - Es sollte also niemand enttäuscht sein, der schnell eine Ampere mit 12 GB kauft, dass es die selbe Karte ein paar Monate später - geringfügig schneller und mit 16 GB gibt.

Da kann man ja fast nur hoffen, dass die Ampere Leaks nicht stimmen und es schon von Beginn weg 16GB Karten gibt.

Also bei NVidia sollte man schon fast froh sein, wenn die 3070 und 3080 zumindest 10GB bringen, 12 wär ja schon ein überaus peisintensives Upgrade, so wie NVidia bereits bei GDDR6 Speicher extra sl preitreiberisches Mittel als Vorwand verwenmdet hat, mal eben einen Megapreisaufschlag zu nehmen, wo es am Ende eigentliuch eher nur Centbeträge waren. Aber wer die Menschheit für Dumm verkaufen kann, macht es halt.
 
Hmm, also wenn das so kommt, würde ich zur 512bit-Variante greifen. Finde ja schon die 256bit bei der 5700XT etwas sportlich und wenn, dann möchte ich schon gleich eine doppelte Navi 10 reinstecken, damit sich das Upgrade auch ordentlich lohnt.
Was wäre so schlimm bei 384 Bit? AMD und Nvidia haben doch die letzten Jahre ihre Texturkompression gut verbessert.
 
Interessant wo diese Hellseher immer herkommen.
Die sitzen z.B. bei Herstellern oder haben Freunde da. Es kommen auch gut Informierte dazu, die bekannte Informationsbröckchen interpretieren. Oder es sind einfach nur Dummschwätzer. Und es liegt an uns, über solche Gerüchte zu reden, oder es zu lassen. Für mich hat das immer nur Unterhaltungswert.

Wenn PCGH getestet hat UND die Karten käuflich sind, werden sie relevant. Vorher ist alles nichts als Kaffeesatz.
 
Zuletzt bearbeitet von einem Moderator:
Sehr gerne, allerdings bringt mir der Speicher nix, wenn der Treiber spackt oder die Karte einfach mal "Blackscreened" so wie bei einigen 5700XT Varianten :( Ich möchte mich 100% auf meine Hardware verlassen können - immer.


So weitermachen mit Eurem Sandkastenkrieg AMD vs Nvidia... aber vorm Abendbrot Hände waschen. 18:55 kommt das Sandmännchen, dann is Schicho!
 
Was habt ihr nur alle mit eurem Hype um sowohl HBM als auch 512er SI? :schief:

Keine AMD-Karte in jüngster Erinnerung war ein durchschlagender Hit ... mit keiner von beiden Ausstattungen. Im Gegenteil, einige der größten Flops und Problemkinder waren darunter!

Neuerer GDDR6 alleine sollte genügend Bandbreite geben. Wozu also die Karten unsinnig aufblasen? Kostet nur mehr Stromverbrauch, höhere Abwärme und kompliziertere Platine. AMD muss die Karten so einfach wie möglich halten. Das reduziert potentielle Fehlerquellen!

Jedes weitere GB an VRAM kostet zusätzlich. Das müsst "ihr" am Ende bezahlen. Viel wichtiger wäre mir, wieviel Rohleistung die finalen Karten tatsächlich haben. Ob 12 oder 16 machen dann kaum einen Unterschied aus. Der Aufpreis hingegen schon! :P

Je nach Anwendung (Dass man das noch sagen muss...). Ich jedenfalls komme ganz gut mit der Rohleistung der GTX 1080 aus. Womit ich nicht auskomme, sind 8GB Grafikspeicher. Mit Texturmods und Downsampling kriege ich den ratzfatz voll, und das sogar mit relativ alten Spielen. Wenn meine nächste Graka nicht mindestens 16GB hat, verzichte ich also lieber, fast egal was die Rohleistung dann sagt.

Edit: Ich würde sogar ein Modell mit etwas weniger Rohleistung, dafür 24 GB (oder 32 GB:sabber:) Speicher kaufen. Jeder hat so seine Prioritäten.
Sehr gerne, allerdings bringt mir der Speicher nix, wenn der Treiber spackt oder die Karte einfach mal "Blackscreened" so wie bei einigen 5700XT Varianten :( Ich möchte mich 100% auf meine Hardware verlassen können - immer.


So weitermachen mit Eurem Sandkastenkrieg AMD vs Nvidia... aber vorm Abendbrot Hände waschen. 18:55 kommt das Sandmännchen, dann is Schicho!

Dann kannst du doch aber ganz ehrlich keine Hardware kaufen. Auf welche kannst du dich denn bitte immer zu 100% verlassen :D? Nur auf die, die du nicht hast. Jede Hardware zickt mal rum. Das liegt in der Natur der Sache. Um es genauer zu sagen an den unendlich vielen Kombinationsmöglichkeiten von Hard- und Software.

Würdest du wirklich diese angebliche 100% Marke halten wollen, dürftest du nichts, aber auch gar nichts einbauen oder installieren, dass auch nur irgendwo in der Dokumentation oder den Patchnotes "known issues" enthält. Damit wärst du immernoch nicht sicher, aber das wäre das Mindeste bei diesem Anspruch.

Ich hatte jedenfalls noch keine Hardware, die, um genau so zu funktionieren wie ich das will, nicht irgendwann mal Feintuning gebraucht hätte.

Als hätte (m)ein Nvidia Treiber noch nie Fehler produziert xD.
 
Zuletzt bearbeitet:
Zurück