Nvidia Ampere - Neuer Leak zu Modellen und VRAM-Ausstattung

Die Rede war bei mir von der beidseitigen Bestückung des PCBs, die nVidia aktuell ausschließlich auf der Quadro RTX 8000 nutzt. Dies wird also möglicherweise die PCBs für 24, 20 und 16 GiB betreffen. (Möglicherweise gibt es die schnellen GDDR6-BGAs derzeit nur in 1 GiB-Größe.)

Dass die Platinen beidseitig bestückt sind, steht doch gar nicht zur Debatte. Deswegen können einzelne Plätze dennoch unbestückt bleiben. Und das war meine Aussage, nicht mehr und nicht weniger.

(Offenbar rede ich extrem unverständlich oder man macht sich mal wieder nicht die Mühe, zu lesen...)

Es ging darum, dass man, indem man den VRAM asymmetrisch anbindet, beliebige Kapazitäten, mit beliebigen Speicherinterfaces herstellen kann, darum geht es.

Damit verliert man ziemlich sicher Peformance und hat weitere Komponenten, die das Layout verkomplizieren und Leistung (Strom) kosten. Ich glaube nicht, dass das in Frage kommt.
 
Kann mir jemand sagen ob es Sinn macht die Grafikkarten direkt zum launch zu kaufen (wird es dann schon direkt Partnerkarten von MSI etc geben ?) oder macht es mehr Sinn 1-2 Monate zu warten bis sich die Preise eingependelt haben (oder sind die Karten dann vergriffen und nich teurer?)?

Wenn man das erscheinen von Pascal und Turin zugrunde legt, dann ja.

Die ersten 3 Monate sind die Karten extrem schwer lieferbar und nur in geringen Dosen zu haben. Bis die Partnerkarten erscheinen dauert es auch 3 Monate, plus dann ebenfalls knapp 3 Monate schlechte Verfügbarkeit.

Die Preise sinken relativ wenig. Die RTX 2080Ti hat in der FE 1350€ gekostet, heute (knapp 2 Jahre später) gehen die billigsten Modell für etwas über 1050€ über den Ladentisch, zwischenzeitlich gab es sie auch für leicht unter 1000€. Das ist jetzt nicht so der Hit. Wobei AMD diesmal gute Karten hat, ein Preiskrieg kann nicht ausgeschlossen werden.

Meine Meinung:
Wenn du es schaffst dir eine Karte am Anfang zu sichern (da muß man schnell sein), dann hol dir eine und schau danach nicht zurück, bzw. was sie dann kostet (eine der besten Möglichkeiten sich unglücklich zu machen).

Damit verliert man ziemlich sicher Peformance und hat weitere Komponenten, die das Layout verkomplizieren und Leistung (Strom) kosten. Ich glaube nicht, dass das in Frage kommt.

Es dürfte eher die negative Presse sein. Seit der GTX 970 ist das ganze etwas verbrannt. Leistungstechnisch ist das nicht so schlimm, zumindest für Nvidia, wie man an der GTX 970 sehen konnte. Das ganze schlägt erst dann durch, wenn Spiele verfügbar sind, die den VRAM ordentlich füllen können, im Idealfall ist dann schon die nächste Generation lange in den Läden.

Ich vermute, sie werden es irgendwann mit den kleineren Karten, wie der GTX 660(Ti) 2GB, versuchen und sich dann immer weiter hocharbeiten. Ich hoffe mal nicht das es kommt, aber die Versuchung dürfte, für Nvidia, wohl irgendwann zu groß sein.

Wobei AMD, mit der X-Box Series X, ähnliches macht.
 
Dass die Platinen beidseitig bestückt sind, steht doch gar nicht zur Debatte. Deswegen können einzelne Plätze dennoch unbestückt bleiben. Und das war meine Aussage, nicht mehr und nicht weniger. [...]

Deine ursprüngliche Aussage war das mögliche Vorkommen einer 11-Controller-Chipvariante, die technisch durchaus möglich ist, wie ich ja bereits selbst schrieb (und wie die letzten beiden Ti-Modelle es vormachten ;-)), aber halt eben in diesem konkreten Fall recht gut ausgeschlossen werden kann, weil es hier nicht ins Portfolio passt, da es offensichtlich 12er-, 10er- und 8er-Chipvarianten geben wird.
Igor hat die Breiten der Speicherinterfaces schon vor längerer Zeit als "sehr gut belastbar" (wenn nicht gar als bestätigt) herausgegeben und zudem sind auch die hier aufgeführten PCBs alle bekannt und bestätigt.
Mein ursprünglicher, zusätzlicher Hinweis zur teilweisen doppelseitigen Bestückung war lediglich eine ergänzende Information, da hier vielfach die Idee von 24 GiB als absurd abgetan wird.
So oder so passte deine Antwort

Auf den 2080Ti Platinen sind auch immer Lötpunkte für alle VRAM Chips vorhanden (also für 12GB), nur ist einer davon immer unbestückt. Das sagt also nichts aus.

aber nicht auf den Punkt, den ich angesprochen habe, nämlich dass 11 Controller, also 11/22 GiB nicht ins Portfolio passen und daher sehr unwahrscheinlich sind (ich würde hier eher gar von "ausgeschlossen sind" reden).
Dass nVidia hier nicht für jedes Kartenmodell ein individualisiertes PCB verwendet, düfte man wohl getrost voraussetzen. Dementsprechend bleiben hier und dort zwangsweise einige BGA-Lötstellen unbelegt, wie bspw. die eine auf der RTX 2080 Ti und die zwei auf der RTX 2060. Das war aber schlicht nicht der Punkt und belegt auch nichts.


Wird es, keine Angst. Die Platinen sind final und die Lötaugen für die [BGA-]Module auf der Rückseite sind sicher nicht zum Spaß drauf :P

Du darfst mich im September gern drauf festnageln oder Dich entschuldigen :)
 
Zuletzt bearbeitet:
Es dürfte eher die negative Presse sein. Seit der GTX 970 ist das ganze etwas verbrannt. Leistungstechnisch ist das nicht so schlimm, zumindest für Nvidia, wie man an der GTX 970 sehen konnte. Das ganze schlägt erst dann durch, wenn Spiele verfügbar sind, die den VRAM ordentlich füllen können, im Idealfall ist dann schon die nächste Generation lange in den Läden.

Bei der 970 war auch ein Cache Modul deaktiviert. Es war also prinzipiell die selbe Lösung wie bei der 2080Ti - nur dass man bei der 970 das RAM drangelassen hat, aber eben mit halber Cache- und Transfer-Geschwindigkeit. Bei der 2080Ti fehlt das Cache-Modul und das dazugehörige RAM, weswegen die Performance unangetastet bleibt.

Dass die Lötpunkte drauf sind sagt wie gesagt GAR nichts. Die sind bei jeder 2080Ti vollbestückt (also für 12 GB!) drauf!
 
Na da weis man ja grob was die Karten so mitbringen. Aber wird eh erst Ende des Jahres eh ich schaue was in frage kommt.
Will sehen was AMD so in der Schublade hat, Tests beider Hersteller abwarten und dann ein passendes Modell wählen.
Läuft doch nichts weg und zum Release zu hetzen eine zu bekommen, ach warum, die gibts 6 Monate später auch noch in besseren Versionen.
 
Wenn man das erscheinen von Pascal und Turin zugrunde legt, dann ja.

Die ersten 3 Monate sind die Karten extrem schwer lieferbar und nur in geringen Dosen zu haben. Bis die Partnerkarten erscheinen dauert es auch 3 Monate, plus dann ebenfalls knapp 3 Monate schlechte Verfügbarkeit.

Die Preise sinken relativ wenig. Die RTX 2080Ti hat in der FE 1350€ gekostet, heute (knapp 2 Jahre später) gehen die billigsten Modell für etwas über 1050€ über den Ladentisch, zwischenzeitlich gab es sie auch für leicht unter 1000€. Das ist jetzt nicht so der Hit. Wobei AMD diesmal gute Karten hat, ein Preiskrieg kann nicht ausgeschlossen werden.

Meine Meinung:
Wenn du es schaffst dir eine Karte am Anfang zu sichern (da muß man schnell sein), dann hol dir eine und schau danach nicht zurück, bzw. was sie dann kostet (eine der besten Möglichkeiten sich unglücklich zu machen).



Es dürfte eher die negative Presse sein. Seit der GTX 970 ist das ganze etwas verbrannt. Leistungstechnisch ist das nicht so schlimm, zumindest für Nvidia, wie man an der GTX 970 sehen konnte. Das ganze schlägt erst dann durch, wenn Spiele verfügbar sind, die den VRAM ordentlich füllen können, im Idealfall ist dann schon die nächste Generation lange in den Läden.

Ich vermute, sie werden es irgendwann mit den kleineren Karten, wie der GTX 660(Ti) 2GB, versuchen und sich dann immer weiter hocharbeiten. Ich hoffe mal nicht das es kommt, aber die Versuchung dürfte, für Nvidia, wohl irgendwann zu groß sein.

Wobei AMD, mit der X-Box Series X, ähnliches macht.

Danke, vermutlich wirds die FE Karten aber wieder nur bei Nvidia direkt geben und nicht bei Händlern wie mindfactory etc ? Hätte dann nämlich einen ganzneuen PC gebaut und alles in 1 Rutsch bestellt.
 
Klingt zu gut um wahr zu sein. So viel VRAM ist nicht billig, die Kosten würde man an den Kunden weitergeben. Das Lineup insgesamt wäre dann unverhältnismäßig teuer. Zudem erhöht sich die Komplexität/Ausfallrate der Karten, was nochmals als Kosten auf den Preis draufgeschlagen werden muss.
I call it bullshit..
 
Na super, aber der 3080 Super wird es für mich als 4k-Gamer erst interessant, alles darunter ist eher Kompromiss. Wenn Nvidia aber so viel VRAM verbauen will, dann wissen die etwas, was wir noch nicht wissen, nämlich, dass die Spiele mit der kommenden Generation deutlich mehr Speicher benötigen werden. Plötzlich sind 8-10 GB für 1080p ausreichend und für 4K muss es 16GB+ sein.
 
Na super, aber der 3080 Super wird es für mich als 4k-Gamer erst interessant, alles darunter ist eher Kompromiss. Wenn Nvidia aber so viel VRAM verbauen will, dann wissen die etwas, was wir noch nicht wissen, nämlich, dass die Spiele mit der kommenden Generation deutlich mehr Speicher benötigen werden. Plötzlich sind 8-10 GB für 1080p ausreichend und für 4K muss es 16GB+ sein.

Ich würde sagen, das hängt davon ab, ob du mit Texturen auf Hoch auskommst oder ob es die Ultra 8K Texturen sein müssen.

Viele neuere Spiele zeigen in den Grafikoptionen doch mittlerweile sogar an, wie sich der VRAM-Verbrauch verändert, wenn man diese oder jene Einstellung ändert.
 
Solange AMD nicht wieder irgendwas massiv vermasselt wie z.B. die Blackscreen-Problematik bei Navi wird meine nächste Karte rot werden. Nvidia hat diese Generation einfach mal wieder den Vogel abgeschossen. RTX für alle in die größeren Chips klatschen, horrende Preise dafür nehmen und dann kein/kaum RTX-Futter liefern, und wenn dann fast unspielbar. Seine verlogenen Versprechen kann sich Lederjacke in die Haare schmieren. RTX off ist angesagt.
 
sethdiabolos,

doch wir wissen das auch. ich zb weiss es, wieviel Horizon Zero Dawn bei 3440x1440 und max dateils an vram meines vega 2 belegt, und zwar sagenhafte 12,5gb vram durchgehend !!!

und es leuft stabil bei ca 60 fps durchgehend und absolut ruckelfrei dank 16gb vram hbm2 ;)

aber mit Horizon Zero Dawn emfohlen mit 16gb vram ist erst der anfang und zu gleich wird es sehr schnell verkrüppeln, wenn man richtung 4k+ ausgeht !

es ist also ein absolut logischer schritt das nv ihre neuen ampere mit ausreichende vram austatten muss, damit die grafik power nicht durch vram krüppel zum verhängnis wird.

ich will garnicht wissen was cyberpunk 2077 usw zb bei 2160p bzw bei satte 8 millionen pixel auflösung und inkl ray tracing an vram belegen wird:ugly:
 
Muss nich sein, BxBender.
Zocke gerade mit ner 1660 super.

Is schon echt nicht übel, was die so drauf hat, für Full HD und aber auch teilweise noch für WQHD.
Muss ja nicht immer alles "ultra" sein. Gerade nicht in der Einstiegsklasse.

Die 6GB Ram sind aber schon bedrohlich voll, ab und an.
Aber wie gesagt ... wenn man echt auf den Preis gucken muss und gern auch mal was runterschraubt, an Grafikdetails, is das echt easy.

Es geht also auch unter 200€ für ne GPU(neu) auszugeben, in diesem Preisbereich.

PS: Zum Artikel: Also wenn die 3080Ti echt 24GB kriegen sollte, ist die gekauft. :) :daumen:
So ganz kann ich das bei Speicherknauser Nvidia noch nicht glauben. Wäre ja fast zu schön, um wahr zu sein.
 
Nvidia hat der GTX 1080Ti 11GB spendiert. Das war vor 4 Jahren und die GTX 1080Ti nur etwas mehr als die Hälfte gekostet.

24GB wären im Gegenteil längst überfällig.

Das stimmt wohl. Bei meiner 2080Ti mit ihrem 11GB Krüppelspeicher ruckeln sich 99% aller AAA Spiele den A... weg, weil dauernd der VRAM überläuft. Die 24GB sind in der Tat überfälligst.
 
16GB auf der angeblichen RTX3070 oder 20GB auf der RTX3080, wie PCGH sie nennt (ausgedacht), sind völliger Overkill.
Einerseits meckern so viele über drohenden, knappen Speicher und jetzt sind 16 oder 20 GiB "völliger Overkill". Wie sie es machen, sie machen es falsch. ;-) Aber es zwingt dich ja keiner die zu kaufen, es gibt ja auch 8- und 10 GiB-Modelle und schlussendlich zwingt dich noch nicht einmal jemand nVidia zu kaufen.
Du verstehst mich falsch.
Ich will ne Karte mit 12-16GB, aber ich zweifle stark an, dass man 16GB bei einer 70er bzw 20GB bei einer 80er bekommen wird.
Wer 16GB, 20GB oder 24GB haben möchte der wird sich auf 1200-1800€ und mehr einstellen dürfen.

Ich werde dieses Jahr wahrscheinlich ganz oben kaufen, wenn sich das Schlachtschiff leistungsmäßig lohnend abhebt (+20% zum nächsttieferen Modell) und man es noch als Consumer-Modell rechtfertigen kann, sprich auch Mehrleistung beim Gaming bei rumkommt und nicht nur VRAM für Anwendungen, die ich nicht nutze.

Was ich sagte war lediglich, dass hier wieder völlig random suggeriert wird, dass die Mittelklasse-Modelle viel Speicher bekommen. Das glaube ich weniger.
Hier werden aus einer Tabelle, völlig falsche Schlüsse gezogen.
Eher bekommen die Mittelklasse-Modelle normalen Speicher (8-12GB), die Oberklasse-Modelle guten Speicher (12-16GB) und die neuen Oberstklasse-Modelle (vermutlich 3090) dann 20-24GB.

Das macht einfach Sinn.
Das erklärt den massiven Speicherboost.
 
Die 60erund 70er Modelle sind Mittelklasse ,die 70erTi und die 80er Oberklasse die 80er Super oder Ti und die 90er sind dann die Oberstklasse. passt doch.
 
Klingt so als würden meine Speicherwünsche doch noch erfüllt... eine 3080 mit 20 GB - würde mir jedenfals besser gefallen als eine 3080 mit 10GB. Der Unterschied zwischen den beiden Varianten darf schon ein schöner Sprung schein. Wenn ich 10GB zusätzlichen Speicher für sinnvoll erachte, bin ich bereit dafür ein gewisses Verständins aufzubringen, dass der Preis deutlich höher sein wird. Bin jedenfalls neugierig was Nvidia für 10GB zusätzlichen Speicher für angemessen hält.

Ich gehöre zu jenen die eine 3080 mit 10GB jedenfalls für ein nutzloses Produkt halten würden. Besonders mit der Aussicht darauf, bei RT auf kaum etwas verzichten zu wollen und das kann mit weinger als 16GB technisch eigentlich gar nicht gelingen. Wenn ich also sparen wollen würde, und mir die 3080 mit 20GB zu teuer ist, würd ich auf eine 3070 mit 16GB warten.

Ich vermute, dass mir die Karte mit 24 GB und dem "höchsten Preis" zu teuer sein wird.

Und endlich können dann Leute die RT für ein überflüssiges Feature halten sich dann eine billigere Karte kaufen mit dem halben Speicher... und RT stets deaktivieren. Ist also durchaus sinnvoll Karten mit unterschiedlicher Spiecherbestückung auf den Markt zu bringen. - Hab das schon mal vor einigen Monaten erwähnt unf wäre darüber nicht unglücklich wenn Nvidia die Einsicht über diese Notwendigkeit mit mir teilte.
 
bin echt mal auf die Preise gespannt, vor allem auf die 3080ti
die neue Titan wird vermutlich preislich auf einem neuen Level sein
 
Zurück