AMD Big Navi: Angeblich Varianten mit 16 und 12 GiByte Grafikspeicher

16 GB? Hoffentlich nicht. Sonst muss ich die nächste Graka wieder über drei Jahre lang behalten. :ugly:

Jetzt im Ernst: es ist wirklich dämlich, aber es nervt mich tatsächlich, dass ich meine aktuelle Graka mittlerweile im dritten Jahr habe. Das ist soo langweilig! :nicken: Früher habe ich nach allerspätestens 24, meistens 18 Monaten eine neue Graka gekauft, weil dann schon wieder was wesentlich schnelleres auf dem Markt war. Als ich meine erste (damals) High-End-Grafikkarte gekauft habe (eine GTX 1080ti), hätte ich nicht erwartet, dass ich gewissermaßen als Nebenwirkung so lange bei dieser Karte bleiben würde. Was natürlich auch am überschaubaren Leistungssprung und den Mondpreisen der RTX-Serie liegt. First World Problems. :schief:
 
Ach herje noch solange warten. Und dann nö h auf die customs warten 😱 welcher hersteller behält die Garantie beim der Kühler Demontage? 🤷🏼*♂️ und hat damit schon jemand Erfahrungen gesammelt? Grüße ✌🏼️
 
Der Clou wären 4 neue Grafikkarten von AMD, auch wenn ich daran zweifel hätte, dass dies wirklich so kommt - aber träumen darf man ja, oder?

RX 6800 XT - 16 GB (1.000,- €) ~ 30% mehr Leistung wie RTX 2080 TI?
RX 6800 - 16 GB - etwas weniger Shader, geringerer GPU- & Speichertakt (800,- ) ~ 15% mehr Leistung wie RTX 2080 TI
RX 6700 XT - 12 GB (600,- €) ~ RTX 2080 TI Leistung?
RX 6700 - 12 GB - etwas weniger Shader, geringerer GPU- & Speichertakt (500,- €)

Umgelabelt + ggf. besserer Speicher-/GPU Takt wegen verbesserter Fertigung
RX 5700 XT -> RX 6600 XT (400,- €)
RX 5700 -> RX 6600 (330,- €)
usw.

RX 6800 XT - 16 GB (1.000,- €) ~ 33% mehr Speicher wie RTX 3080 TI?
 
Wartet doch einfach ab, bis die Karten raus sind. Dann werden PCGH und all die anderen da draußen wie die wilden testen. Ich werde mir euer Heftchen durchlesen und schlauer sein. Wir werden alle schlauer sein und uns peinlich für diesen flämigen Spekulationszirkus hier evtl. dann schämen.
Und wenn AMD NVidia wieder nicht schlägt und nur näher rankommt, davon geht die Welt auch nicht unter. Die haben all ihren Schmalz erstmal in die CPU gesteckt, was sich jetzt auszuzahlen beginnt. Wenn's da jetzt weiter so gut läuft, können sie Ingenieursschmalz von da abziehen und in bessere GPUs stecken.
Wobei ich aber immer noch der Meinung bin, daß wir uns sowohl bei CPU als auch bei GPU nah an einem Endpunkt der planaren Siliziumtechnologie bewegen. Ob nun 14nm, 10nm, 8nm, 7nm, 7nm+++++, 5nm... das sind nur noch graduelle Verbesserungen für das eine oder andere Prozent, aber keine signifikanten Schritte oder gar Sprünge.
 
Es ist aber wie du selbst schon beschreibst, ein Sprung wenn du von N7 kommst. Nämlich 10 und 20% höhere Effizienz. Glaubs mal, gerade für Nvidia wäre das absolut wichtig.

Warum? Selbst in den aktuellen Prozessen hat weder Pascal, noch Turing ein Effizienzproblem.

Wenn die Speicheranbindung kastriert wird das ist natürlich auch nicht optimal.

384 Bit SI wären für 12 GiB schnellen GDDR6 aber immer noch ausreichend.
 
Das mit RayTracing mag ein guter Grund für mehr RAM sein.

LOD ist sicher kein Grund. Auch in der Entfernung hoch aufgelöste Texturen zu verwenden führt nur zu unerträglichen Flicker und Schimmern. Klar, die Engines haben teilweise viel zu aggressives LOD (Konsolenports halt....) aber ganz ohne geht's nicht.

Und da ist der Speicher nicht das Problem.

Ok, also gern mehr Speicher, aber nicht wegen den Texturen!

Auf die Gefahr hin mich zu wiederholen: Das ist Geschmackssache. Mit Mods, ein paar Scripten und Spielereien in config und ini Dateien kriege ich in einigen (hauptsächlich ältere) Spielen maximale Texturqualität (je nach Spiel sind das auch 4K Texturen)in allen Entfernungen hin. Zusammen mit Reshade, Downsampling und Feintuning beim AA habe (besser sehe) ich da nirgendwo ein Flackern. Im Gegenteil, gerade als Fan hoher und höchster Auflösungen priorisiere ich Bildruhe vor fps. Also bitte nicht verallgemeinern, es geht ohne LOD. Das mag Aufwand bedeuten aber es geht. Mag auch sein, dass dies zuviel Aufwand für Normaluser ist aber:
1. Könnten sich auch die Spielentwickler den Aufwand machen. Fänd ich auch besser.
2. Geht es mir ja darum, eine GraKa zu haben mit der ich meinen Vorlieben fröhnen kann.
Wären meine Vorlieben FPS, hätte ich es zumindest einfacher. Ein paar Schatten runtetgedreht, in FHD gespielt und gut ist. Da würde mich auch kein Speicher jucken, denn alles was rauskommt bietet dafür genug. Dann würde auch mich eher die Rohleistung interessieren

Also: Geschmackssache, auch wenn sich einige scheinbar kaum vorstellen können, dass fremde, abweichende Vorlieben gleichwertig sein können. Sogar wenn man damit nicht det Mehrheit angehört.
 
Oder einfach abwarten, bis die BigNavi günstiger ist und dabei sparen. :D
Wobei es schon von der RX580 Nitro, auf die RX5700 XT Nitro SE ein großer Sprung ist.
Ich halte die RX 5700 ohne XT nach wie vor für die insgesamt bessere Karte. Sie ist etwas effizienter, nur wenig langsamer, wird je nach Modell nicht ganz so heiss und es gibt immer mal wieder Modelle für 320€ (299€ längere Zeit bei MF 12/2019).

Ich bin seit Vega vorsichtig geworden was Warte-Empfehlungen betrifft. :D
Man konnte Vega 56 zum Release bei Mindfactory für um die 400€ vorbestellen, dazu musste nur die Wartezeit in Kauf genommen werden und Polaris wurde durch die Miner längere Zeit auch teurer. :ugly:
Bis Vega zum Ende der Lebenszeit günstig verschleudert wurde, waren die Karten eigentlich nie richtig günstig - wenn überhaupt mal 350€.
 
Wenn die Speicheranbindung kastriert wird das ist natürlich auch nicht optimal.

[...] 384 Bit SI wären für 12 GiB schnellen GDDR6 aber immer noch ausreichend.

Bewusst provokativ ausgedrückt wäre das sogar sehr gut, denn gerade diese Downgrade-Möglichkeit ermöglicht es AMD erst einen derartigen Chip wirtschaftlich zu fertigen und damit überhaupt anzubieten (insbesondere mit ihrem kleineren Marktanteil und absehbaren Umsatzvolumen). Und genau diese Möglichkeit wird mit ein Grund sein, der derzeit gegen HBM spricht.
Mit der beträchtlich wachsenden Chipgröße wächst natürlicherweise die Fehlerrate pro einzelnem Chip, d. h. es wird mehr Ausschuss geben. Könnte dieser nicht verwertet werden, würde die Fertigung unverhältnismäßig teuer werden. Also behält man sich hier die Option vor, bei kompensierbaren Defekten (vorzugsweise in den Recheneinheiten, eher seltener in den Speichercontrollern *), ein kleines Modell mit bspw. X-8 CUs herauszubringen und man reduziert gleichzeitig die Zahl der Speichercontroller auf 16-4, was auch hier mögliche Defekte zulässt, sodass man einen Großteil dieser teildefekten Chips dennoch verkaufen kann, nur halt in einem niedrigeren Preis/Leistungs-Segment.
Und genau diese Downgrade-Möglichkeit des HighEnd-Chipdesigns wäre in Verbindung mit HBM deutlich eingeschränkt. HBM ist grundsätzlich teuerer und daher anscheinend kosten/nutzentechnisch immer noch Grenzwertig in einem HighEnd-Consumer-Chip. Mit der steigenden Fehlerrate, muss man jedoch auch teildefekte Chips mit weniger Leistung für einen günstigeren Preis vermarkten, ist hier dann jedoch gezwungen auch diese Kartenmodelle mit teuerem HBM auszuliefern ***), der dann in Relation zum sinkenden Verkaufspreis dieser Modelle noch einmal überproportional teuer wird aus fertigungstrechnischer Sicht.


Wie DKK007 bereits ausführte, wären 384 Bit für ein kleineres HighEnd-Kartenmodell, das demenetsprechend auch weniger Renderleistung haben wird, ausreichend, da hierbei der Bandbreitenbedarf natürlicherweise auch geringer ist.
Mit 16 Gbps wären das 768 GiB/s, also +72 % mehr Bandbreite als bei Navi 10 (und das sind selbst noch +25 % mehr als bei der aktuellen RTX 2080 Ti ;-)).


*) Beispielsweise nVidia's A100-Chip, der auf dem GA100 basiert, ist nicht umsonst so weit "runtergestrippt". Der GA100 hat 128 SMs (8192 CUDA Cores) und 12 HBM-512Bit-Controller auf dem Die. In der A100 aktiviert nVidia lediglich 108 SMs (6912 CUDA Cores) und 10 Speichercontroller, verwendet also nur fünf von sechs HBM-Stacks. Das Vorgehen ist schlicht der problematischen Fertigung dieses Riesenchips in einem so kleinen Node zuzuschreiben. Hier wird man zusammen mit TSMC hochgerechnet haben, mit welchen Defektraten man zu rechnen hat und dementsprechend hat man die Spezifikation des finalen Produktes an dieses erwartete Fertigungsergebnis angepasst.
Wenn TSMC und nVidia den Fertigungsablauf in den nächsten 6 - 12 Monaten ein wenig weiter optimiert haben, wird man sicherlich auch noch ein neues Produkt auf Basis dieses Designs sehen, so vielleicht eine A110 mit ggf. 116 aktivien SMs. Möglicherweise kann man auch alle Speichercontroller aktivieren und dann 48 GiB anbieten oder aber wenn sporadische Defekte in einem Controller mit einer zu hohen Häufigkeit bestehen bleiben, können sie bei den fünf HBM-Stacks bleiben und diese mit 12-Lagen-Chips aufwerten und so 60 GiB Kapazität anbieten. Läuft der Prozess besser und konnte man die Leckströme etwas senken, könnte auch ein höher taktendes Modell folgen, den die aktuelle A100/SXM4 ist mit "nur" 300 W spezifiziert. (Entsprechendes sah man bereits auch schon bei Volta. Erste Versionen lagen um die 300 bis 350 W, in dicht gepackten Racks wurden oftmals nur die 300 W-Versionen verwendet und in 2019 brachte nVidia dann gar noch eine 450 W-Variante heraus, die vornehmlich für ihre aktualsieirte DGX2 gedacht war.)

**) Den Bogen zum Consumer-Ampere gespannt: Soweit vorläufig bekannt wird nVidia diesmal (direkt vom Start weg) den GA102 für drei unterschiedlich leistungsstarke Kartenmodelle nutzen, also darauf basierend drei Chipvarianten spezifizieren, was schlicht der komplizierten Fertigung anzulasten ist. Offensichtlich lässt sich ein wachsender Ausschuss nicht vermeiden, sodass man sich hier gezwungen sieht, möglichst viele Chips zu verwerten.
Eine andere Alternative wäre für kleinere Chips ein komplett eigenständiges Chipdesign zu entwickeln, das grundsätzlich weniger Wafer-Fläche benötigt und damit effizienter und günstiger in der Fertigung wird. Das würde jedoch nichts an der Problematik des GA102 ändern, sodass man hier nun dieses Jahr wohl drei Varianten von diesem Chip ableiten muss.
(Darüber hinaus hat nVidia auch ein kleineres Chipdesign in der Entwicklung, dass jedoch erst später folgen wird und mittels dem kleinere Kartenmodelle abgedeckt werden. Der Chip soll erst etwas später im Jahr verfügbar werden, nVidia wird also in den nächsten Wochen ausschließlich mit lower und upper HighEnd-Modellen den Wechsel auf Ampere einleiten.)

***) Beispielsweise bei Vega 20 war die Situation eine völlig andere. Hier gibt es den Chip im Vollausbau mit 64 CUs und 32 GiB HBM (vormals MI60, jetzt Radeon Pro II [Duo]) und in einer teildeaktivierten Variante mit 60 CUs und 16 GiB (MI50) und aktuell auch 32 GiB (neue MI50, die die MI60 ersetzt). Der Knackpunkt hier ist jedoch, dass wir hier über Beschleunigerkarten sprechen, die grob für 5000 US$ und 10000 US$ verkauft werden/wurden, d. h. die Kosten für die HBM-Implementation spielen hier eine deutlich untergeordnete Rolle.
Während man in 2018 zu Vega 20 immer relativ stringent hörte, dass keine Consumer-Auskopplung geplant sei, folgte dann relativ unerwartet doch Anfang 2019 die Vorabankündigung der Radeon VII, vermutlich, weil man teildefekten Chips in einem anderen Marktsegment abstoßen musste. Bezüglich dieses Vertriebssegmentes und der notwendigen Preisanpassung passte die Kalkulation natürlich nicht mehr wirklich und die Karte wurde bereits ein halbes Jahr nach ihrem Erscheinen wieder EOL gesetzt.
Abschließend: Mittlerweile (ab Mai) verwendet AMD die 60 CU-Variante auch auf der Radeon Pro VII, hier nahezu ohne künstliche Einschränkungen, d. h. mit PCIe 4, IF-Link und voller FP64-Performance. Die Karte wird für nur 1900 US$ angeboten, was auch ihr spätes Erscheinen erklärt, denn zu Zeiten der MI60/50 hätte man einen solchen Preispunkt den Kunden gegenüber nicht rechtfertigen können, jedoch ist der erforderlich, um gegen nVidia's Quadro's zu konkurrieren. Mittlerweile also quasi die Dritt- oder Viertverwertung von Vega 20. (Im Workstationmarkt jedoch fast schon zu spät, denn Turing läuft bei nVidia gerade aus und Ampere kommt in Form neuer Quadros in wenigen Tagen. Wer jedoch viel FP64-Performance braucht, könnte hiermit immer noch ein Schnäppchen machen.)
 
Zuletzt bearbeitet:
Oder einfach abwarten, bis die BigNavi günstiger ist und dabei sparen. :D

Wobei es schon von der RX580 Nitro, auf die RX5700 XT Nitro SE ein großer Sprung ist.

In brandneuen Spielen mit Optimierungen für Navi ist die sogar doppelt so schnell. Horizon Zero Dawn im Benchmark-Test: GPU- sowie CPU-Benchmarks, Frametimes und ein Treibervergleich - ComputerBase
Ich werde mir wahrscheinlich die Non XT holen.
Weil die weniger Strom verbraucht und nicht so heiss wird.
Klar könnte ich die XT auch untertakten. Aber ich habe keine Lust da rumzufummeln, nachher ist was instabil.:D
Und viel langsamer ist die Non XT ja auch nicht.;)
 
Und genau diese Downgrade-Möglichkeit des HighEnd-Chipdesigns wäre in Verbindung mit HBM deutlich eingeschränkt. HBM ist grundsätzlich teuerer und daher anscheinend kosten/nutzentechnisch immer noch Grenzwertig in einem HighEnd-Consumer-Chip. Mit der steigenden Fehlerrate, muss man jedoch auch teildefekte Chips mit weniger Leistung für einen günstigeren Preis vermarkten, ist hier dann jedoch gezwungen auch diese Kartenmodelle mit teuerem HBM auszuliefern ***), der dann in Relation zum sinkenden Verkaufspreis dieser Modelle noch einmal überproportional teuer wird aus fertigungstrechnischer Sicht.

Was ja seinerzeit auch das Problem bei Fiji und Vega war.

Abschließend: Mittlerweile (ab Mai) verwendet AMD die 60 CU-Variante auch auf der Radeon Pro VII, hier nahezu ohne künstliche Einschränkungen, d. h. mit PCIe 4, IF-Link und voller FP64-Performance.

Meinst du Mai 2020?
Eventuell hat AMD ein neues Stepping gebracht, bei dem noch Fehler gefixt wurden.
 
Zuletzt bearbeitet:
Wenn man Leistung will, ist November eh zu spät. September gehts los. Wenn man warten kann oder es um Preis/Leistung oder so geht, dann kann man bis November warten.
AMD versauts aber mal wieder, zu später Termin.
 
[Radeon Pro VII] Meinst du Mai 2020?
Eventuell hat AMD ein neues Stepping gebracht, bei dem noch Fehler gefixt wurden.

Ja, wurde im Mai'20 rausgebracht, vermutlich weil die sich eh schon kaum verkaufende MI50 (die MI60 gibt es schon seit Ende letzten Jahres nicht mehr; AMD hat hier umgesattelt und verwendet die Chips nun für Apple) nun kaum noch abzusetzen ist, sodass man auf diese keine Rücksicht mehr nehmen muss.
Neues Stepping? Möglicherweise, aber in dem Kontext irrelevant. Die Radeon Pro VII hat den nahezu vollen Funktionsumfang der MI50 (wird also nicht wie auf der Radeon VII durch Soft/HW-Straps künstlich eingeschränkt). Das war einfach eine Frage des Productplacements. Die MI50/16 GiB dürfte so um die 4000 - 5000 US$ kosten. Da hätte man keine WS-Karte mit nahezu identischer Funktionalität für nur 1900 US$ rausbringen können ohne die MI50 zu kanibalisieren. Und für bspw. 3500 US$ konnte man die WS-Karte offensichtlich nicht konkurrenzfähig gegen nVidia's Quadro's platzieren, sodass man es bisher unterlassen hatte. Jetzt aber scheint der Absatz der MI50 keine nennenswerte Rolle mehr zu spielen, sodass man die WS-Karte bringen kann, mit dem gleichen Chip, jedoch zu einem deutlich niedrigeren Preis.

AMD hat halt noch CPU's und dann kommen auch noch die Konsolen.

Möglicherweise sind die Konsolen sogar der Hauptgrund für das späte erscheinen von RDNA2. Gegebenenfalls durfte AMD diese IP gar nicht früher auf den Markt bringen, damit man den Konsolen nicht schon Monate vor ihrem eigentlichen Launch die Show stielt, denn sobald die raus sind, werden natürlich alle anhand der (Raytracing-)Leistungswerte Rückschlüsse auf die Konsolen ziehen wollen und das alles schon im Vorfeld breittreten. Das eigenltiche Konsolen-Launchevent wäre damit um "einiges ärmer/unspektakulärer".
(Die RDNA2-HW-Entwickung der Konsolen wurde schon in 2018 abgeschlossen. Ob das jetzt auf dem PC kommende RDNA2 dazu nennenswerte Unterschiede, bzw. eine Weiterentwicklung darstellen wird, wird man abwarten müssen. Es gab dazu mal ein Gerücht, jedoch war das in vielfältiger Art auslegbar. Angesichts der Tatsache, dass für Ende 2021/Anfang 2022 RDNA3 auf dem Plan steht, würde ich eher sagen "nein", d. h. die grundsätzliche RDNA2-Architektur wird sich nicht nennenswert von den Knsolen unterscheiden, abgesehen von individuellen Spezialitäten, die sich Sony & MS haben in ihre SoCs einbauen lassen.)
 
Zuletzt bearbeitet:
Wobei doch PCIe4.0 beim Release der Radeon 7 nicht richtig funktionierte. Deswegen wurde die doch obwohl mit PCIe4.0 angekündigt dann nur mit PCIe3.0 released, so dass erst mit Navi die erste GPU mit PCIe4.0 kam.
 
PCIe 4.0 funktionierte nicht, weil AMD es absichtlich deaktiviert hatte auf der Karte . (Zudem gab es zu dem Zeitpunkt auch keine PCIe4-fähige Consumer-Plattform. )
Vega 20 beherrscht grundsätzlich PCIe 4.0 und wurde in Form der MI60 und MI50 im Nov.'18 entsprechend vorgestellt und veröffentlicht.
(Denkbar wäre, dass die Deaktivierung nur mittels SW-Strap erfolgte und AMD, das nun nachträglich "still und heimlich" freigegeben hat, gelesen habe ich davon jedoch nichts, abgesehen von einigen unbestätigten, vereinzelten Postings in Foren. Könnten auch Auslesefehler der jeweiligen Software sein, da Vega 20 grundsätzlich PCIe4 beherrscht, wenn es nicht geade deaktiviert wird ;-) Ohne verlässlichere Aussagen würde ich PCIe4 auf einer Radeon VII eher für ein Gerücht halten. AMD hat durch eine nachträglich "Freischaltung" nichts zu gewinnen, würde dagegen jedoch in sehr offensichtlicher Weise die künstliche (und unnötige) Beschneidung demonstrieren.)

Auf der CES 2019 erwähnte L.Su PCIe mit keinem einzigen Wort. Entsprechend thematisierten auch die meisten Medienvertreter dieses nicht in ihrer Berichterstattung. Lediglich hexus.net schrieb "and more features, including PCIe 4.0", was sie sich voraussichtlich aber eher selbst zusammengesponnen haben dürften.
Bspw. PCGH schrieb am 8.2.2019:
"Die Krux: Die FP64-Leistung kommt in Spielen nicht zum Einsatz, PCI-Express 4.0 wird mangels entsprechender Infrastruktur stillgelegt und Infinity-Fabric-Multi-GPU steht ebenfalls nicht im Datenblatt. Der HPC-Chip Vega 20 wird von AMD folglich in eine kleinere Konfektionsgröße gequetscht, um die hauseigenen Profi-Lösungen der Radeon-Instinct-Reihe nicht zu gefährden."
 
Zuletzt bearbeitet:
Zurück