Nvidia Ampere: Neue Gerüchte um 24/20/10 GiByte Speicher für GA102

Die 3090 hat nur 12GB RAM, geleakt von Micron:

Gaming-Grafikkarte: Micron bestaetigt Nvidia GeForce RTX 3090 mit GDDR6X-RAM | heise online

Demnach kann man jetzt schon mal die gesamte Produktpalette von NVidia in die Tonne treten, bevor die überhaupt da ist.

Danke für den Link. Das PDF von Micron gibt jedoch nur eine Range von 19 - 21 Gbps an, d. h. es wird tatsächlich sehr schneller Speicher, wie schnell genau wird man weiterhin abwarten müssen (jedoch min. 912 GiB/s).

Bezüglich deiner Einschätzung zur vermeintlichen Produktpalette ist jedoch damit noch nicht wirklich was verlässliches gesagt. Das PDF dient im wesentlichen dazu Micron's Speicher zu erklären und zu bewerben und die konkreten Produktdaten sind hier in erster Linie als Beispiele bzw. Platzhalter zu sehen.
Beispielsweise heißt die kritische Zeile in der Tabelle hier "Configuration (Example)", mehr nicht. Für die Titan RTX werden 12 Chips und 12 GiB GDDR6 insgesamt ausgewiesen, was nicht zutrifft, da die Titan 24 GiB VRAM hat. Den Beispielcharakter streicht auch heraus, dass die gleiche Spalte auch für die RX 5700 XT gilt, die zweifelsfrei kein 384 Bit-Interface besitzt und auch nichts mit 12 GiB anfangen kann.
05 sm_.gif

Ebenso sollte man die vermeintliche "3090"-Spalte nur als Beispiel verstehen, mehr nicht. Die Platinen sind bestätigt und ebenso die 24 GiB-Variante, die derzeit die einzige mit einem 384 Bit-Interface zu sein scheint.
Zusätzlich ist es unwahrscheinlich, dass Micron konkrete Produktnamen vor den Bordpartnern kennt, die bis vor wenigen Tagen noch gar nichts bzgl. der konkreten Modellbezeichnungen wussten, weil sich hier nVidia derart bedeckt hält und wenn nVidia bereit ist die Namen zu veröfentichen, steht Micron zweifelsfrei als letzter auf der Liste der zu informierenden Partner, weil die das gar nicht tangiert.
05 sm_.gif
Der in dem PDF stehende Name war wahrs. nicht mehr als ein Platzhalter oder ein best guess von dem Verfasser des PDFs, ebenso wie die Konfiguration (vorerst) nur als Beispiel zu verstehen ist.

Einfach mal abwarten ...

*) Bspw. die ganz rechte Spalte zum "Expected AI Accelerator" ist ebenso fehlerhaft, da hier sechs HBM2E-Stacks ausgewiesen werden, die angegebene Kapazität von 16 - 32 GiB aber nicht dazu passt, bzw. gar unmöglich zu realisieren ist.
05 sm_.gif


D.h. der Tapeout muss mehrere Monate vor dem März geschehen sein - und die Karte (fast) schon verfügbar. AMD selbst spricht aber nur noch von "late this year". [...]

Es geht hier ums Ingenieurwesen und nicht um eine Kunst, d. h. die Entwickung ist ein vorausgeplanter und mit vielen Simulationen begleiteter Prozess, der vorab schon sehr konkret skizziert, welche Leistungswert man voraussichtlich erreichen können wird. Hier kann man nicht Millionen von US$ in eine Entwicklung investieren um dann erst im Nachhinein (also bspw. beim Tapeout) tatsächlich feststellen zu können, was bei dem Entwickungsversuch herausgekommen ist ... und wenn man Pecht hat ... ;-)
Darüber hinaus hat AMD die grundsätzliche RDNA2-Entwickung bereits in 2018 abgeschlossen, die Konsolen-SoCs hatten ihr Tapeout allerspätestens in 1Q19, d. h. man kennt und arbeitet bei AMD schon lage mit funktionierendem RDNA2, dann Navi 10 als Auskopplung und damit gesammelte Erfahrungen mit dem N7P und auch die potentiell infrage kommenden Fertigungsprozesse sind schon seit Mitte 2019 produktiv, also in diesem Fall sogar überaus gute/einfache Voraussetzungen für eine brauchbare Abschätzung.

Ich habe auch nirgends behauptet, dass 80 CUs bestätigt sind. ;-) Allgemein geht man aktuell hier und da und in diversen Leaks von um die 80 CUs aus. Und auch das "hochtaktend" scheinen viele zu erwarten, vielleicht angetrieben durch die PS5, wobei ich das eher für unwahrscheinlich halte, was ja auch schon (indirekt) in einem meiner letzten Posts stand.
Darüber hinaus kann sich AMD jedoch auch nicht viel weniger CUs erlauben, wenn sie tatsächlich im HighEnd mitspielen wollen, denn bereits der TU102 hatte 72 SMs und die Renderleistung pro SM/CU ist nur noch begrenzt steigerbar, d. h. hier hilft im Wesentlichen nur eine Skalierug (mehr SMs/CUs) oder ein höherer Takt. Sieht man sich die Defektrate beim GA100 an, würde ich annehmen, dass der GA102 wahrs. zwischen 80 - 90 SMs haben wird. Wie viele dann für das Consumer-Topmodell deaktiviert werden um die notwendige Ausbeute zu erreichen, wird man abwarten müssen.
 
Zuletzt bearbeitet:
Ich muss dich leider enttäuschen, du hast reinen Chip- + VRAMverbrauch berechnet. Das alles kommt auf ein Board mit Spannungswandlern, der Verbrauch heißt dann TGP. Hier mehr dazu:
Was ist der TGP einer Grafikkarte und wie unterscheidet er sich vom TDP? | ITIGIC

Bei dem Takt, wenn er konstant bleibt, würde AMD mit mindestens 330W fahren, wahrscheinlich höher. Ob AMD or Nvidia jemanden einen Gefallen tun, ist mir Schnuppe. Logischerweise machen sie das nicht, weil sie ihre Ware an den Mann bringen müssen. Ich bleibe dabei, bei der Anzahl Shadern und dem hohen Takt, den du propagierst, wird die Big Navi nie und nimmer sparsam. Nvidia wird denselben weg gehen, aber aus dem Grund der unterlegenen Fertigungstechnik.
Die XBOX hat kein Board mit Spannungswandlern?
ich rede ja auch nicht von sparsam sondern von ca. 300W!
Und wie hoch soll den der Gesamtverbrauch der Xbox ausfallen?
Anscheinend kommt sie mit einem 315W Netzteil (Wirkungsgrad 80-90%?) = 252 - 284W
Jetzt kommen noch Sicherheitsreserven hinzu (min. 10% besser 20%) 202W - 227W (80% Wirkungsgrad) / 227W - 256W (90% Wirkungsgrad)

Also selbst wenn das Netzteil einen Wirkungsgrad von 90% hat und die Sicherheitsmarge nur 10% betragen sollte kommt man auf ca. 256W davon geht der Verbrauch für eine 8 Kern CPU + beschnittener I/O Part, Blu-Ray Laufwerk, SSD ab daher meine 200W (worst case)

Je nach dem könnte sie auch nur 180W verbrauchen. Irgendwelche Widersprüche Milchmädchenrechnung hin oder her die max. 200W sind einfach Fakt.

Das macht nicht nur AMD so, sondern alle Hardwarehersteller.
Hab ich ja auch nicht anders behauptet und NVIDIA eine vergleichbare Designoptimierung zugestanden, nur eben kommt der schlechtere Prozess am Ende noch hinzu und da müssen wir halt noch sehen inwieweit dieser der Konkurrenz hinterherhinken wird.


Das bezweifle ich stark. Der Grund ist, RDNA1 in 7nm verbraucht mehr als Turing bei gleicher Leistung. Ampere wird auf 10nm verkleinert, während RDNA2 bei 7nm bleibt.
Im besten Fall nach deiner Argumentation 5% (Ich könnte dagegen Argumentieren und sagen sie liegen gleichauf, wie ich es schon so oft gemacht habe. Aber damit diese ewig andauernder Diskussion endlich ein Ende findet
ist halt Turing 5% Effizienter. Wir reden hier auch nicht über RDNA1 und wie gut dieser 10nm ++ / 8nm--- Prozess ist und wie hoch die dabei resultierenden Taktraten sind werden wir noch sehen.
Aufgrund RDNA1 auf RDNA2 schließen zu wollen und dem anderen der anhand eines RDNA2 Derivats aseine Prognose abgibt eine Milchmädchenrechnung unterstellen zu wollen aber selbst nur Apfel mit Birnen vergleicht guter Witz. :hail:


512Bit kostet auch Strom, deine Ausführungen sind Milchmädchenrechnungen.
Klar kosten 512Bit / 80CU auch Strom aber im Verhältnis zu den 320Bit / 52CU eben nicht überproportional.
 
Zuletzt bearbeitet:
Das Produktmanagement ist zwangsweise immer dabei, ohne die geht es i. d. R. nicht sinnvoll, also völlig normal. Und natürlich kann mal irgendwie was aus dem Ruder laufen, die Planung schlecht sein, die Konkurrenz falsch eingeschätzt worden sein, etc. und dann muss man gegensteuern um zu retten versuchen, was man von dem laufenden Projekt (sowie den getätigten Investitionen) noch retten kann. Auch nichts wirklich Neues, oder?

Ursprünglicher Dreh- und Angelpunkt war, dass du dir überlegtest, wie AMD soweit im Vorfeld eine Aussage wie "+50 % Perf/Watt-Zugewinn für RDNA2" in den Raum stellen konnte und ich habe dir bereits zuvor mehrere Teilaspekte genannt.
Und wie schon gesagt, wenn du es dir einfach machen möchtest: RDNA2-Hardware läuft bei AMD seit Anfang 2019, d. h. hier brauchte man gar nicht zu spekulieren sondern konnte direkt vergleichen gegen Navi 10/RDNA. Und auch ohne diesen Idealfall mein Hinweis bzgl. dem Ingenieurwesen, dessen Aufgabe es ist, solide, reproduzierbare und klar vorhersehbare Ergenisse mittels etablierter Standardverfahren zu liefern und daher auch meine stark vereinfachte Abgrenzung zum "Kunsthandwerk".
Kein Halbleiterhersteller entwickelt bspw. auf blauen Dunst eine neue Mikroarchitektur und lässt sich überraschen was da am Ende wohl herauskommen mag. Das wird im Detail durchgeplant, simuliert und vorausberechnet. Schwerwiegende Probleme treten natürlich immer auf, insbesondere bei solch hochkomplexer Technik (siehe Intel's 10nm, AMDs AGESA-Chaos, nVidia's Problemcocktail mit der Fertigung von Turing in 2018), aber auch hier sind die in der Summe eher die Ausnahmen als die Regel.

"RDNA2-Release vor Ampere" - Meines Wissens nach gab es niemals eine derartige Aussage und es gab eigentlich noch nicht einmal ernsthafte Anhaltspunkte, dass man das annehmen konnte. Da war eher der Wunsch Vater des Gedanken.
Ab 2018 mit DXR und Turing hat AMD weitestgehend versucht sich im Hintergrund zu halten und sich nur bei expliziten Fragen zu Raytracing kurzangebunden geäußert und dass extrem vage und vertröstend. Daran hat sich lange Zeit nichts geändert und dann kam Mitte 2019 Navi 10 als "Lückenfüller" ohne Raytracing und die Vertröstungen gingen weiter. Zwischendurch keimten mal kurze Hoffnungsschimmer auf treiberunterstütztes Raytracing a la Pascal auf, die aber auch nicht erfüllt wurden und dann begann sich herauszukristalisieren, dass das, was für den PC angedacht ist, eigentlich die IP ist, die man für Sony/Microsoft entwickelt hat. Dann folgte 2020 und es hieß im Laufe des Jahres und dann als nächste "Präzisierung" dann "late this year", also zum Jahresende hin.

Das war schlussendlich eine Kombination aus Wunschdenken der Fans und bei AMD höchstwarscheinlich ein "wir können/dürfen nicht eher, aber das können wir euch natürlich nicht sagen und erst recht nicht [ausgehend von Ende 2018], dass ihr alle noch ganze 2 Jahre auf Raytracing-Hardware von uns warten müsst ..." ;-)

Dagegen die etwa 80 CUs für ein großes RDNA2-Modell sind kein reines Wunschdenken, sondern eine handfeste Notwendigkeit, wenn AMD tatsächlich im HighEnd wieder mitspielen und mit nVidia konkurrieren möchte. Die einzige Alternative bei signifikant weniger CUs (und weiterhin HighEnd-Ambitionen) wäre ein sehr hoher Takt, jedoch würde ich annehmen, dass eine höhere CU-Zahl bei mäßig hohem Takt die effizientere Lösung ist. (Im Grenzbereich, je höher der Takt, desto höher die Spannung, desto höher die Leckströme, desto höher die Verluste.)

Und dass sich AMD konkret hier bzgl. der anvisierten Leistungszielsetzung vertut, erscheint mir eher unwahrscheinlich, denn die liegt eigentlich sehr klar auf dem Tisch. Der Knackpunkt ist vielmehr, dass AMD das mit ihrem Budget und sonstigen Ressourcen und Zielsetzungen in Einklang bringen muss und daher gehe ich mal bspw. davon aus, dass etwas wie nVidia's Titan weiterhin konkurrenzlos sein wird, weil AMD derartigen Aufwendungen dann doch nicht betreiben wird mit ihrem deutlich kleineren Marktanteil; so etwas rentiert sich für die einfach noch nicht. *)

Aber grundsätzlich hast du natürlich recht; hier und da haben die sich mit ihrer Planung durchaus mal verschätzte **), jedoch haben das wohl letzten Endes alle Firmen, die etwas länger im Markt unterwegs sind. In einem Großteil der Fälle wird man davon als Außenstehender voraussichtlich nicht einmal etwas mitbekommen, da am Ende nur die unvermeidbaren Worst Case Szenarien es bis in den Markt (bzw. an das Ohr der Konsumenten) schaffen.

*) Beispielsweise fehlt ihnen hier noch weitestgehend eine nennenswerte Mitverwertungsmöglichkeit entsprechender GPU-Designs im professionellen Markt, denn auch hier dürfte der Marktanteil ihre Radeon Pro's deutlich geringer sein, verglichen mit den Quadro's.
Beispielsweise mit Abschluss des Apple-Deals für die Pro Vega II (Duo) hat AMD die Instinct MI60 eingestellt, was durchaus tief blicken lässt bzgl. der Marktakzeptanz der MI60.

**) Oder aber es sieht von Außen danach aus, während man intern aber durchaus strikt im Plan und erfolgreich gearbeitet hat und nur nicht offen nach außen kommunizierte, dass die Projektzielsetzungen intern eigentlich etwas anders gelagert waren, als es bspw. das Marketing ggf. für das jeweilig adressierte Marktsegment nach außen trägt.
 
Zuletzt bearbeitet:
Fakt wird sein wenn Nvidia für die 3080 nur 10 GB verbaut und AMD seine mit 16gb raushaut wird es AMD werden
Ich denke das Big Navi und die 3080 vom Preis her gleich sein werden

Auch wenn Big Navi leicht schwächer wäre ist es dann trotzdem für mich in wqhd einfach die attraktivere Karte


Beispiel
Sprich 3080 10 GB 100% Leistung
Big Navi 16 GB 92% Leistung

Dann wird's Big Navi


Spekulation meinerseits

3060 8 GB
3060 super 8 GB ( später)
3070 10 GB
3070 super 10 GB ( später)
3080 10 GB
3080 super 10 GB ( später )
3090 12 GB
3090 ti/super 16gb ( später)
Rtx 3000 Titan 24 GB
Rtx 3000 Titan x 32gb/48gb ( später )

Nach meiner Meinung nach geizt Nvidia weiter mit vram und lässt mehr springen bei bei der 3090 ti/super und Titan x ... Lässt es sich dann aber auch fürstlich bezahlen
 
Zuletzt bearbeitet:
Fakt wird sein wenn Nvidia für die 3080 nur 10 GB verbaut und AMD seine mit 16gb raushaut wird es AMD werden
Ich denke das Big Navi und die 3080 vom Preis her gleich sein werden

Auch wenn Big Navi leicht schwächer wäre ist es dann trotzdem für mich in wqhd einfach die attraktivere Karte


Beispiel
Sprich 3080 10 GB 100% Leistung
Big Navi 16 GB 92% Leistung

Dann wird's Big Navi


Spekulation meinerseits

3060 8 GB
3060 super 8 GB ( später)
3070 10 GB
3070 super 10 GB ( später)
3080 10 GB
3080 super 10 GB ( später )
3090 12 GB
3090 ti/super 16gb ( später)
Rtx 3000 Titan 24 GB
Rtx 3000 Titan x 32gb/48gb ( später )

Nach meiner Meinung nach geizt Nvidia weiter mit vram und lässt mehr springen bei bei der 3090 ti/super und Titan x ... Lässt es sich dann aber auch fürstlich bezahlen

Wenn Du spekulierst spekuliere wenigstens realistisch:


3060 6 GB 192bit
3070 8GB 256Bit
3080 10 GB 320 Bit
3090 12 GB 384 Bit

dazu ne Titan mit 24GB und 384Bit
 
Wenn Du spekulierst spekuliere wenigstens realistisch:


3060 6 GB 192bit
3070 8GB 256Bit
3080 10 GB 320 Bit
3090 12 GB 384 Bit

dazu ne Titan mit 24GB und 384Bit

Joa sehe aber wie bei den letzten paar Mal das die 70er genauso viel Speicher wie die 80er

Ich denke das wie ich es geschrieben habe schon sehr nahe dran ist
 
Quatsch wer wirklich glaubt AMD komme nach der darf aufwachen. Die kämpfen Heute noch mit der 1080TI und auf einmal gleich 2 Gens übersprungen ganz bestimmt. Wenn sie die 2080TI auch nur einholen ist das schon gut dafür brauchten sie ja sonst viel länger gut RDNA Bonus aber viel mehr wird es nicht und 30% ist nicht viel mehr. Nv packt diesmal wieder den Hammer aus wie Maxwell auf Pascal was ja auch Zeit wird nach den scheiß Turings.

Toll nen Haufen FPS mehr für die gleiche Optik weil nicht viel mehr vram
Heißt wenn dein Spiel mit 120 FPS läuft und du nun 180 hast dafür kaufst du dir eine 800 Eur Karte ?
Der Takt und die ipc ist lange nicht mehr das wichtigste für Leute auf full HD und wqhd
Die wenigsten werden in 4 k zocken
Langsam muss mehr Speicher her
Und nicht nur 2 GB
 
Da muss ich C_19 absolut zustimmen. Ich hab gesterm RDR2 laufen lassen und dann wieder Horizon. Es ist wirklich traurig. was man da bei Horizon gemacht hat. Ein so tolles Spiel (in meinen Augen viel besser als RDR2), aber technisch liegen da Welten dazwischen.

Inzwischen muss ich mich denen anschließen, die den Port als total misslingen bezeichnen. Das Spiel ist zwar spielbar und macht immer noch viel Spaß, aber es ist eine Schande, es könnte technisch so viel besser sein. Es ist meines Erachtens vieeeel schlimmer als das viel kritisierte Batman AK, mit dem ich persönlich nie Probleme hatte.

Aber selbst mit einer 2080Ti, 64GB RAM, ner 3950x und GSync bekommt man nach einer (nicht allzulangen) Weile permanente, regelmäßige Ruckler. So was hab ich noch nicht erlebt. Nur ein Neustart des Spiels behebt das bei mir.
 
Quatsch wer wirklich glaubt AMD komme nach der darf aufwachen. Die kämpfen Heute noch mit der 1080TI und auf einmal gleich 2 Gens übersprungen ganz bestimmt. Wenn sie die 2080TI auch nur einholen ist das schon gut dafür brauchten sie ja sonst viel länger gut RDNA Bonus aber viel mehr wird es nicht und 30% ist nicht viel mehr. Nv packt diesmal wieder den Hammer aus wie Maxwell auf Pascal was ja auch Zeit wird nach den scheiß Turings.
Wenn Schaffe das sagt:O
 
Da muss ich C_19 absolut zustimmen. Ich hab gesterm RDR2 laufen lassen und dann wieder Horizon. Es ist wirklich traurig. was man da bei Horizon gemacht hat. Ein so tolles Spiel (in meinen Augen viel besser als RDR2), aber technisch liegen da Welten dazwischen.

Inzwischen muss ich mich denen anschließen, die den Port als total misslingen bezeichnen. Das Spiel ist zwar spielbar und macht immer noch viel Spaß, aber es ist eine Schande, es könnte technisch so viel besser sein. Es ist meines Erachtens vieeeel schlimmer als das viel kritisierte Batman AK, mit dem ich persönlich nie Probleme hatte.

Aber selbst mit einer 2080Ti, 64GB RAM, ner 3950x und GSync bekommt man nach einer (nicht allzulangen) Weile permanente, regelmäßige Ruckler. So was hab ich noch nicht erlebt. Nur ein Neustart des Spiels behebt das bei mir.

Bist du sicher dass es nur am Spiel liegt? Ich hab meine Radeon VII einem Freund geliehen (nur für dieses Spiel) der normalerweise eine Vega 56 hat. Der berichtete von einem Absturz des Spiels, kurz nach Start und seitdem läuft es scheinbar durch ohne Theater. Mit der 56 hatte er angeblich auch keine großartigen Probleme, nur eben grundsätzlich niedrigere framerates.

Hast du mal deinen Treiber komplett neu installiert? Also alten runter, Neustart, neuen drauf? Wenn die Ruckler mit der Zeit schlimmer werden, klingt das im ersten Moment nach Speicherüberlauf, oder Temperaturproblemen. Beides solltest du dann aber bemerkt haben, weshalb ich das ausschließen würde. Ich kann mir nur vorstellen dass der Treiber das was falsch adressiert / verwaltet.
 
Zurück