AMD Big Navi: Angeblich Varianten mit 16 und 12 GiByte Grafikspeicher

Apropos, habe es wahrscheinlich überlesen, bekommt Ampere eigentlich PCIe4.0? Und bei BigNavi ist das ja sowieso Pflicht. Weiß man darüber schon was sicheres? Also vermuten kann ich selbst. :D
 
Apropos, habe es wahrscheinlich überlesen, bekommt Ampere eigentlich PCIe4.0? Und bei BigNavi ist das ja sowieso Pflicht. Weiß man darüber schon was sicheres? Also vermuten kann ich selbst. :D

Offizielles habe ich noch nichts dazu gelesen. Aber da die A100 PCIe4.0 unterstützt, wird das wohl auch bei den Consumerkarten der Fall sein.
 
Ampere mit PCIe4? - Davon kannst du zu 99,9 % ausgehen, so zumindest bei den größeren Modellen. Bei den sehr kleinen Updates könnte man hier mit Sparmaßnahmen rechnen (nur 3.0 oder nur 8 Lanes, wie bei AMD), aber sicher nicht bei den großen Modellen (auf Basis des GA102), die zudem auch in professionellen Quadro-Karten genutzt werden (und damit ist das quasi gesichert ;-)).


Btw (Nachtrag), weil ich es gerade bei Igor sehe: Wenn die voraussichtlichen Speicherbestückungen bei Ampere stimmen, dann haben sich etwaige "Speicherbefürchtungen" bei Ampere erledigt, denn angeblich soll der direkte RTX 2080 Ti-Nachfolger mit 24 GiB aufwarten und das nächst kleinere Modell (RTX 2080-Nachfolger) mit 20 GiB GDDR6. Angeblich soll es sogar (einen großen) RTX 2070-Nachfolger mit 16 GiB geben.

Zeitplan fuer NVIDIA Ampere'-'Grafikkarten samt einiger Spezifikationen '-' es wird ein heisser Herbst | igor sLAB
 
Zuletzt bearbeitet:
Dann bleiben aber die SIs wie angedacht bestehen und Nvidia packt einfach bloß doppelt so große Speicherchips drauf.
Eventuell als Reaktion auf BigNavi?

Laut WCCFTECH soll es aber auch Varianten mit halben Speicher geben. Also das was die Boardpartner früher selbst entscheiden konnten, bzw. bei AMD heute noch.
Nvidia-Roadmap.png

Spannend wird, wenn AMD in den Krieg des Grafikspeichers anschließend mit einsteigt und die Boardpartner noch Varianten mit doppeltem Speicher, also 24 und 32 GiB rausbringen dürfen. Das 384 bzw. 512 Bit SI gäbe es ja her. :devil:
 
Zuletzt bearbeitet:
Dass sich bei NV nichts mehr an der Breite des Speicherinterfaces ändern würde, war doch absehbar. Das, was Igor da zuvor veröffentlichte, klang durchaus rückversichert und war nicht einfach eine Abschätzung in die hohle Hand.

Die speichertechnisch kleineren Varianten, also mit 10 und 8 GiB, muss es ja zwangsweise geben, denn die Ausbaustufen mit 2 GiB-BGAs kosten auf jeden Fall etwas mehr, Konkurrenz durch AMD hin oder her, denn 1 GiB kosten um die 8 - 9 US$, d. h. das Topmodell von 12 auf 24 GiB "gepimpt", sind mal eben alleine zusätzlich rund 100 US$ im EK für die größeren BGAs. Die wird NV natürlich nicht aus purer Menschenfreundichkeit aus eigener Tasche bezahlen. ;-)

Den "Krieg des Grafikspeichers" könnte AMD damit schon verloren haben, denn NV ist mit dem etwas kleineren Speicherinterface und der von vornherein vorgesehenen Verwendung von sehr schnellen Speicherbausteinen etwas flexibler aufgestellt.
Beispielsweise wenn die 16 GiB@512 Bit bei AMD zutreffen, darf man eine Speicherverdopplung wohl nahezu als ausgeschlossen im Consumer-Segment annehmen, weil das kostentechnisch einfach zu teuer werden würde und der übermäßige Speicherausbau wird kaum nutzbringend verwendet werden können (im Mainstream/Gaming; aber vielleicht lässt sich ja eine Kooperation mit Cloud Imperium Games vereinbaren? ;-)).
Für eine markttechnisch sinnvolle (symmetrische) Speichervergrößerung müsste man das SI verkleinern, die Frage ist dann aber welche Bandbreite der HighEnd-BigNavi für seine volle Leistung minimal benötigt. Verkleinert man das SI zu sehr, sind voraussichtlich unweigerlich deutlich schnellere Speicherbausteine vonnöten und hier ist die Frage, ob AMD ein entsprechendes PHY überhaupt vorgesehen/implementiert hat und ob sie Zugriff auf entsprechende Stückzahlen ausreichend schneller Module haben (bzw. man absehen kann, dass die Boardpartner diese haben werden). Man wird sehen, augenscheinlich wird es aber in beiden Lagern "Speicher satt" geben.
 
Ampere mit PCIe4? - Davon kannst du zu 99,9 % ausgehen, so zumindest bei den größeren Modellen. Bei den sehr kleinen Updates könnte man hier mit Sparmaßnahmen rechnen (nur 3.0 oder nur 8 Lanes, wie bei AMD), aber sicher nicht bei den großen Modellen (auf Basis des GA102), die zudem auch in professionellen Quadro-Karten genutzt werden (und damit ist das quasi gesichert ;-)).


Btw (Nachtrag), weil ich es gerade bei Igor sehe: Wenn die voraussichtlichen Speicherbestückungen bei Ampere stimmen, dann haben sich etwaige "Speicherbefürchtungen" bei Ampere erledigt, denn angeblich soll der direkte RTX 2080 Ti-Nachfolger mit 24 GiB aufwarten und das nächst kleinere Modell (RTX 2080-Nachfolger) mit 20 GiB GDDR6. Angeblich soll es sogar (einen großen) RTX 2070-Nachfolger mit 16 GiB geben.

Zeitplan fuer NVIDIA Ampere'-'Grafikkarten samt einiger Spezifikationen '-' es wird ein heisser Herbst | igor sLAB

Glaub mir Igor hin / her bei NVIDIA wird es für die 3080ti / 3080 keine 24 / 20GB geben.
Und schon gar nicht mit GDDR6X / 19Gbps (whatever???)

Das es sich dabei lediglich um ein möchtegern Gerücht als Reaktion auf die voraussichtlich wieder einmal stattfindende Unterdimensionierung des Speicherausbaus
notabene für eine 1000€ + Karte handelt, sollte klar sein.

24GB / 19Gbps? Wie viel soll die Karte in ihrem antiquierten 8nm (10nm++) Prozess den ziehen (aufgerundet 400 Watt?)
Wie viel soll sie den Kosten 1999€?

NVIDIA befindet sich wirklich in einem Dilemma.
Auf der einten Seite zu geizig für 24GB und auf der anderen Seite sind die 12GB gerade in Hinsicht auf die kommenden Konsolen in etwa mit einer 2060 die nicht 6, sondern lediglich 4GB hätte zu vergleichen.
 
Glaub mir Igor hin / her bei NVIDIA wird es für die 3080ti / 3080 keine 24 / 20GB geben.
Und schon gar nicht mit GDDR6X / 19Gbps (whatever???)
Wird es, keine Angst. Die Platinen sind final und die Lötaugen für die Module auf der Rückseite sind sicher nicht zum Spaß drauf :P

Du darfst mich im September gern drauf festnageln oder Dich entschuldigen :)
 
Glaub mir Igor hin / her bei NVIDIA wird es für die 3080ti / 3080 keine 24 / 20GB geben.
Und schon gar nicht mit GDDR6X / 19Gbps (whatever???)

Das es sich dabei lediglich um ein möchtegern Gerücht als Reaktion auf die voraussichtlich wieder einmal stattfindende Unterdimensionierung des Speicherausbaus
notabene für eine 1000€ + Karte handelt, sollte klar sein.

24GB / 19Gbps? Wie viel soll die Karte in ihrem antiquierten 8nm (10nm++) Prozess den ziehen (aufgerundet 400 Watt?)
Wie viel soll sie den Kosten 1999€?

NVIDIA befindet sich wirklich in einem Dilemma.
Auf der einten Seite zu geizig für 24GB und auf der anderen Seite sind die 12GB gerade in Hinsicht auf die kommenden Konsolen in etwa mit einer 2060 die nicht 6, sondern lediglich 4GB hätte zu vergleichen.

Ist das hier eine Anhäufung von Gegengerüchten deinerseits?

a) Ist das kein Gerücht von Igor, sondern eine News von wccftech. Und entgegen den in den letzten 12 Wochen überlicherweise zitierten Leaks von irgendwelchen anonymen Twitter- oder Reddit-Accountnamen haben die diese Aufschlüselung von einer ihrer Quellen erhalten, was dem Ganzen damit schon einmal (zumndest ein wenig) mehr Gewicht verleiht.

b) Ist ein größerer Speicherausbau wenn dann insbesondere bei den großen Kartenmodellen wahrscheinlicher und nicht etwa umgekehrt.
Und bspw. 24 oder gar 48 GiB GDDR6 ist auch für NV nichts Neues. Wollten sie mit mehr Speicher auftrumpfen, bleibt ihnen aufgrund ihres SIs nichts anderes übrig als 24 GiB anzubieten (Konkurrenzdruck und/oder technische Notwendigkeit mit Blick auf Raytracing?).

c) Ist die Verwendung von sehr schnellen GDDR6-BGAs (deutlich) größer 16 Gbps schon (indirekt) bestätigt, denn andernfalls würde NV nicht einen solchen (kostenintensiven) Aufwand betreiben (lassen), sondern schlicht wie bisher bestücken und die höhere Marge dankend mitnehmen.
Beispielsweise 16 Gbps-Bausteine lassen sich wohl noch recht einfach nach herkömmlichem Schema verbauen (so zu sehen an der RTX 2080 Super im letzten Jahr). Für noch mehr Pro-Pin-Geschwindigkeit braucht es jedoch angepasste Verfahren. Die Leiterbahnen müssen verkürzt werden, die BGAs rücken näher an die GPU und offensichtlich muss man nun das Backdrill-Verfahren auf dem PCB verwenden um die Signalintegrität aufrecht zu erhalten. NV hat zu diesem Zweck den Boardpartnern "Trockenübungen" mit Bestandshardware ab 1Q20 "verordnet". In Summe alles Maßnahmen, die Kostentreiber sind und daher nicht freiwillig umgesetzt werden.
Ob es am Ende tatsächlich etwas um die 20 Gbps werden oder "nur" 18 Gbps, wird man abwarten müssen. Letzteres stellt bei den großen Kartenmodellen aber wohl gesichert das Minimum dar und man darf annehmen, dass es schon "etwas" mehr werden wird, denn der Zugewinn von leicht und günstig zu verbauenden 16 Gbps-BGAs hin zu den mit deutlichen Aufwendungen und Kosten verbundenen 18-Gbps-BGAs beträgt gerade mal +13 %, d. h. Kosten und Nutzen stehen hier noch in einem vergleichsweise schlechten Verhältnis, sodass man Alternativen hierzu in Betracht ziehen würde.

d) Ist deine "möchtegern Gerücht"-Theorie völlig sinnbefreit. NV's Launch steht unmittelbar bevor und zudem wird Ampere vor RDNA2 veröffentlicht werden, d. h. das wäre ein vollkommen wirkungsloses Vorhaben, da das Gerücht in drei, vier, Wochen keinen mehr interessieren wird, weil dann die tatsächlichen Specs auf dem Tisch liegen.
Würde AMD deutlich vor NV veröffentlichen, könnte man deiner Theorie ja noch irgendwas abgewinnen, aber so ... Und AMD wird offensichtlich erst ein oder gar zwei Monate nach NV veröffentlichen.
Darüber hinaus, würde deine Theorie stimmen und den von dir implizierten Zweck haben, hätte sie das Potential genau das Gegenteil zu bewirken, was man gemeinhin von so einer Maßnahme erwarten würde. Das Gerücht käme also von einer NV-nahen Quelle oder indirekt von NV selbst und soll gerüchteweise die bevorstehenden Karten aufwerten. Kämen die dann jedoch nur wenige Wochen später tatsächlich nur mit Standardspeicherkapazitäten, wäre die Enttäuschung gleich doppelt so hoch und würde potentielle Kunden gar noch eher in Richtung des Konkurrenten treiben - ergo eine unplausible Theorie.

e) Wenn NV ein wesentliches Kaufargument ihres Konkurrenten aushebeln will, haben sie mit dieser Sandwich-Taktik eine sinnvolle Wahl getroffen (wenn sie denn so eintreffen wird). Die AMD-Produkte werden vollständig vom NV-Portfolio eingerahmt. Mit dem, was die Tabelle in Aussicht stellt, wird es in jede erdenkliche Blickrichtung ein Alternativprodukt von NV geben; mehr kann sich Marketing und Vertrieb nicht wünschen. ;-)

f) Bezüglich der vermeintlichen 8nm-Fertigung wird es übrigens nicht besser, wenn man es nur oft genug wiederholt. ;-) Es bleibt nach wie vor ein unbestätigtes Gerücht und man weiß nach wie vor nicht wo der GA102 gefertigt werden wird.
Zudem hat die GPU-Fertigung mit der Speicherbestückung nahezu gar nichts zu tun. Die Breiten der Interfaces sind gesetzt, so oder so, d. h. es ist nur die Frage ob 1 GiB-BGAs oder 2 GiB-BGAs verbaut werden. Und im 24 GiB-Fall würden die größeren Bausteine in Summe nur um die 8 W auf das Power Budget aufschlagen.

g) Und in welchem Dilemma sollte sich NV befinden?
Aussagen bzw. Bewertunge wie "die sind geizig" sind in der Regel eher unbedarften Konsumenten zuzuschreiben die ihrer Gemütslage Luft machen, denn diese Aussagen reflektieren in keinster Weise die wirtschaflichen (technisch wie vertrieblich) komplexen Erwägungen, die hinter solch einem Produktportfolio stehen und einen wesentlichen Eckpfeiler des wirtschaftlichen Erfolgs eines solchen Unternehmens ausmachen.

h) Darüber hinaus können die Konsolen effektiv auch nicht mit mehr als bestenfalls 12 GiB VRAM aufwarten, da diese nur 16 GiB insgesamt besitzen, die auf das OS und Hintergrunddienste (auf der Xbox bspw. bereits 2,5 GiB), das laufende Spiel sowie den Videospeicher aufzuteilen sind.

Warte doch einfach ab, bevor zu hier ziellos gegenargumentierst und falls nVidia am Ende blöderweise doch das hier in Aussicht gestellte liefern sollte, kannst du zumindest sicher sein, dass du bei einem Punkt immer einen Grund zum Meckern finden wirst: dem Preis. :-D
(Denn bei grob vergleichbaren Produkten muss AMD bei der gegebenen Marktsituation zwangsweise günstiger als NV sein, also kannst du dir sicher sein, dass dir das "Argument" nicht genommen werden kann. ;-))
 
Zuletzt bearbeitet:
Bin mal gespannt was die dann kosten die neuen Ampere Grafikkarten.

Denke von 600-1500€. Es sei denn AMD kontert gut.

Gesendet von meinem D6603 mit Tapatalk
 
Aus Kundensicht wird AMD sicherlich einen positiven Effekt haben, aber auch die wollen Geld verdienen und insgesamt ihre Marge erhöhen. "Wunder" sollte man da nicht erwarten.
 
Zuletzt bearbeitet:
Wäre nicht ausgeschlossen. Derart schnelle OC-BGAs (GDDR6X gibt es offiziell noch nicht als Spezifikation) dürften noch rar sein, d. h. eine 2 GiB-Fertigung ist möglicherweise noch gar nicht angelaufen für derart schnelle BGAs, also werden wie bei der Quadro RXT 8000 zwei BGAs an einen PHY angeschlossen. (Die Bandbreite ändert sich dadurch übrigens nicht).
Würde auch den höheren Energiebedarf z. T. erklären. Die RTX 2080 Ti kommt mit um die 22 W aus, mit den deutlich schnelleren 24 GiB wären das alleine schon rd. 60 W nur für die BGAs.

Interessant mit Blick auf HBM: Ein solches Layout ist zweifelsfrei (mitsamt der zusätzlichen Aufwendungen) nicht günstig und dennoch wird hier bewusst kein HBM beim GA102 verwendet. Die Chipausbeute und die gestaffelten Downgrade-Möglichkeiten scheinen ein gewichtiges Gegenargument darzustellen, das die wachsenden Kosten (sowie technischen Hindernisse) für den größer dimensionierten GDDR6-Speicher dennoch kompensiert, sodass weiterhin GDDR6 verwendet wird.
 
Zuletzt bearbeitet:
Wobei die Frage sein wird, wie hoch der Aufpreis zwischen den Modellen mit 8/10/12 zu denen mit 16/20/24 GiB wird. Besonders, wenn man dann möglicherweise auch auf einer Preisstufe zur größeren Karte mit kleinen Speicher steht.
Also die 3070 16 GiB ähnlich viel kostet wie die 3080 10 GiB.

Da ist dann die Frage, ob man mehr Leistung oder mehr Speicher haben will.
 
Also werden es nicht wie von mir angenommen doppelt so große Speicherchips, sondern doppelt so viele Speicherchips?
Dann müsste man auch nur eine Variante DDR6-Speicher im großen Rahmen einkaufen.
Also die 3070 16 GiB ähnlich viel kostet wie die 3080 10 GiB.
Da ist dann die Frage, ob man mehr Leistung oder mehr Speicher haben will.
Das gab es zeitweise schon einmal bei Kepler, wenn ich mich recht entsinne: Entweder man nahm eine GTX 780 3 GB oder eine GTX 770 4 GB.
Ich denke Nvidia wird mit der 16 GB Variante der "3070" noch warten, so sieht es laut Leak auch derzeit aus.
Im Ernstfall erscheint dieses Modell gar nicht oder sehr spät als kleine Marketing-Bombe. Letzten Endes wird es auch von der Konkurrenz durch AMD abhängen und ggf. der Lieferbarkeit von GA102.
Ich freu mich schon auf die Diskussionen. :ugly:
"Nvidia bietet dieses Mal mehr Speicher und ist zukunftssicherer".
"Dafür sind die AMD-Modelle mit 12 GB bezahlbar und bieten deutlich mehr Speicher und Zukunftssicherheit als die Nvidia-Modelle mit 8 oder 10 GB."
Ich glaube ich muss Popcorn horten, auf jeden Fall ist es derzeit Hardware betreffend recht spannend. :D
 
Und auch Zen3 kommt für Leute, die mit den neuen GPUs einen neuen Rechner bauen wollen genau zum richtigen Zeitpunkt.
 
Wohl war, im schlimmsten Fall liegt die kleinste Big Navi 21 mit weniger Shadern und 12 GB VRAM nur zwischen "RTX 3070" und "3080", punktet dafür aber mit neuer CPU und GPU "aus einer Hand". Das würde auch Besitzer von B550 und X570 Mainboards als potenzielle Aufrüster betreffen. Auf B450 und X470 trifft das zu, wenn entsprechende BIOS-Updates erscheinen.

Glaskugel-EDIT
Ich glaube, dass Nvidia dieses Mal die Modelle mit mehr Speicher nicht nur preislich, sondern zum Wohle des Marketings auch betreffend der Namensgebung vom Rest trennt.
So könnte die "RTX 3080 20 GB" "3090" heissen und die Ti-Variante mit 24 GB könnte man eine Klasse aufwerten und 3090 Ti nennen. Damit wäre auch eine weitere Erhöhung des Kaufpreises verbunden.
Somit bekommen die Kunden mehr Speicher und die Einnahmen steigen entsprechend. Das 16 GB Modell der angesprochenen 3070 könnte wie gehabt das "Ti"- oder "Super"-Kürzel tragen.
 
Zuletzt bearbeitet:
Bloß muss Nvidia dann auch rechtfertigen, wenn die 3080 12 GiB weniger Speicher hat, als die 3070 ti/S 16 GiB.

Wäre ähnlich wie mit der RX5600 XT 6 GiB, die zwischen der RX5500 8 GiB und der RX5700 8 GiB liegt.

Eine Lösung gibt es für das Problem nicht wirklich, wenn man Karten mit verschiedenen Speichergrößen anbieten will.
 
Wird es, keine Angst. Die Platinen sind final und die Lötaugen für die Module auf der Rückseite sind sicher nicht zum Spaß drauf :P

Du darfst mich im September gern drauf festnageln oder Dich entschuldigen :)

Bei der Titan Ampere werden es wohl mindestens 24GB werden das will ich nicht abstreiten.
Aber 20GB bei der 3080 und 24GB bei der 3090/3080ti sind absolut fern von allem was als realistisch erscheinen könnte.

Und das die 3070ti (PG142-0) zu einem späteren Zeitpunkt eventuell mit 16GB erscheinen könnte glaub ich auch erst wenn ich es mit eigenen Augen sehen.

Die Geiz ist geil Mentalität die NVIDIA die letzten Jahre gefahren ist, ist anscheinend spurlos an euch vorbei gegangen.
Und jetzt soll NVIDIA auf einmal klotzen statt wie normalerweise kleckern. Never ever kann ich da nur dazu sagen.

Ich frage mich gerade wieso ich anscheinend der Einzige bin der dieses Gerücht nicht für glaubwürdig hält.

Ach ja, das mit dem festnageln gestaltete sich für mich schwierig da ich gerade eine Sehnenscheidenentzündung am Daumen habe, aber wenn es dir nichts ausmacht
würde ich stattdessen einfach einen Handtacker dafür verwenden.
 
Wäre ähnlich wie mit der RX5600 XT 6 GiB, die zwischen der RX5500 8 GiB und der RX5700 8 GiB liegt.
Eine Lösung gibt es für das Problem nicht wirklich, wenn man Karten mit verschiedenen Speichergrößen anbieten will.
Das stimmt, die RX 5600 XT schmeckt mir persönlich auch überhaupt nicht.
Ich halte eine RX 5700 LE oder 5600 XT mit 8 GB nur 12 Gbps schnellem Speicher und weiter abgesenktem Chiptakt noch immer für die theoretisch wesentlich bessere Karte. Die wäre bestimmt auch recht effizient gewesen.
Wenn bei der theoretischen RTX 3070 ein paar wenige Shader-Cluster für höhere Yield-Raten deaktiviert sind, könnte man die 3070 16 GB später auch namentlich als Vollausbau besser abtrennen - etwa als RTX 3075. Wahrscheinlich wird sie einfach "super". :D
 
Zurück