Geforce RTX 3080 Ti und RTX 3070 Ti: Bleibt Speicher Nvidias "Achillesferse"?

Welcher Teil soll das sein?
RE2 hat meines Wissens nach ein Problem mit der Anzeige des VRAMs, da wurden bei mir auch teilweise 7-8GB im Mainscreen angezeigt, lt. anderer Monitoringtools waren aber nur 3,5-4 belegt.

Wenn er viele Games nicht starten kann mit 8GB, sollte man ihm vieleicht Adminrechte auf dem PC geben, weil Games die mit 8GB nicht starten sind mir nicht bekannt.
Chatstar hasst Nvidia und tritt das hier ganz gern breit. Seine Aussage ist natürlich unsinn.
 
Ja. Dafür gibt es ja die RTX3090. :D Welche Karte kostet denn bitte 1500€? Die RTX3080 kostet(e) offiziell nur mickrige 699€ und hat mit 10GB eigentlich genug für die meisten Spiele in WQHD und 4K. Dass die Preise so explodiert sind ist ja nicht allein Nvidias Schuld, sondern auch die von Corona und dem Mining-Boom.
Selbst in einer Welt, in der man die Nvidias zur UVP oder knapp darüber bekäme, wäre deren Speicherausbau nicht angemessen. Die UVP der 3080Ti wird bei mindestens 800 bis 900 Euro liegen; brauchbare Customs lägen also auch ohne Miner-, Scalper- und Corona-Zuschlag schon bei 1000 oder mehr Euro. Dafür kann man nun wirklich mehr als 12 GB verlangen - die's bei der 3060 ja auch bereits für kaum mehr als ein Drittel dieser UVP gibt, GDDR6 oder 6X hin oder her. "Eigentlich genug für die meisten Spiele" - wobei dann auch noch die Frage bleibt, für welchen Zeitraum das gilt - ist ein Anspruch, den man (oder zumindest ich) in diesen Preisregionen eigentlich weit hinter mir lassen möchte.
 
"Mehr Speicher wäre zwar wünschenswert, ist aber insbesondere bei GDDR6X teuer und setzt mehr Leistung um."

Also ob der GDDR6x nun soviel schneller ist als ein normaler GDDR6, bzw. wie sich das in Spielen auswirkt, ist die Frage. Wenn überhaupt, dann bist da wahrscheinlich in niedrigen einstelligen FPS Bereich. Aber als Verteuerungsargument darf es mit Sicherheit herhalten. Ist ja so ne Art Gepflogenheit, alle paar Jahr wieder kommt entweder AMD oder Nvidia daher und schwatzen was von nem "neuen tollen" oder "super anderen" VRam, der dann halt "teurer" sei, traurig, trauig, liebe Kunden. Geschwätz was man solange durchzieht, wie es eben die Kunden freßen, die brauchen das dann auch.

Mich ödet das an. Ständig das selbe PR Gesabbel um seine Produkte unnötig zu verteuern, denn der Speicher ist generell, vor allem bei den Massen die da einkaufen, viel viel viel billiger als das was dann bei uns herauskommt, wenn man dann mal etwas mit mehr Speicher kauft. Die übliche Verarsche halt.
 
Bei Resident Eval sind schon im load screen die 8 GB Voll Kumpel kann viele Games gar nicht erst starten!
8GB ist für eine neue Karte ein NO GO!!

Mit 8GB lassen sich viele Spiele erst gar nicht starten ?

Märchenstunde oder wie

Welches Spiel sollen bitte mit **nur** 8GB nicht starten in Standard Auslieferzustand ?

hört sich eher nach Unfähigkeit des Benutzers an ?

8GB belegt ist nicht gleich nutzen/brauchen !
 
"Mehr Speicher wäre zwar wünschenswert, ist aber insbesondere bei GDDR6X teuer und setzt mehr Leistung um."

Also ob der GDDR6x nun soviel schneller ist als ein normaler GDDR6, bzw. wie sich das in Spielen auswirkt, ist die Frage. Wenn überhaupt, dann bist da wahrscheinlich in niedrigen einstelligen FPS Bereich. Aber als Verteuerungsargument darf es mit Sicherheit herhalten. Ist ja so ne Art Gepflogenheit, alle paar Jahr wieder kommt entweder AMD oder Nvidia daher und schwatzen was von nem "neuen tollen" oder "super anderen" VRam, der dann halt "teurer" sei, traurig, trauig, liebe Kunden. Geschwätz was man solange durchzieht, wie es eben die Kunden freßen, die brauchen das dann auch.

Mich ödet das an. Ständig das selbe PR Gesabbel um seine Produkte unnötig zu verteuern, denn der Speicher ist generell, vor allem bei den Massen die da einkaufen, viel viel viel billiger als das was dann bei uns herauskommt, wenn man dann mal etwas mit mehr Speicher kauft. Die übliche Verarsche halt.

GDDR6XGDDR6GDDR5XHBM2
B/W Per Pin21 Gbps14 Gbps11.4 Gbps1.7 Gbps
Chip capacity1 GB (8 Gb)1 GB (8 Gb)1 GB (8 Gb)4 GB (32 Gb)
No. Chips/KGSDs1212123
B/W Per Chip/Stack84 GB/s56 GB/s45.6 GB/s217.6 GB/s
Bus Width384-bit384-bit352-bit3072-bit
Total B/W1008 GB/s672 GB/s548 GB/s652.8 GB/s
DRAM Voltage1.35 V1.35 V1.35 V1.2 V
Data RateQDRQDRDDRDDR
SignalingPAM4BinaryBinaryBinary

So ist nunmal der Fortschritt, irgendwann kommt eben ein neuer Standard. PCI-E 5.0 und DDR 5 sind ja auch schon in den Startlöchern. Aber bei Deiner Argumentation reichen ja anscheinend auch SD-RAM und Single-Core CPU's...

Edit: Sobald RTX IO / MS DirectStorage verfügbar wird könnte sich das Thema "zu kleiner Speicher" auch einfach erledigt haben. Dann kann von einer NVME SSD direkt in den VRAM geschrieben werden ohne CPU Verarbeitung als Flaschenhals. Da würde sich dann die Bandbreite von GDDR6X auszahlen, "Nachladeruckler" gibt es dann nicht mehr.
 
Zuletzt bearbeitet von einem Moderator:
Als kleine Ergänzung: Auf der RTX 3080 verwendet nVidia 19 Gbps, auf der RTX 3090 19,5 GB/s, also 76 respektive 78 GiB/s pro BGA. Was man auf der RTX 3080 Ti gedenkt zu verwenden, ist aktuell unbekannt.
AMDs-Topmodelle verwenden Standard-GDDR6 mit 16 Gbps, also 64 GiB/s pro BGA.
Die nVidia-Karten erreich also 760 respektive 936 GiB/s Speicherbandbreite, die AMD-Modelle bestenfalls 512 GiB/s, was auch die Notwendigkeit für deren L3-Cache erklärt, denn andernfalls würde der Speicher die CUs massiv ausbremsen. Die beschränkte/kende Größe des L3 von nur 128 MiB sieht man bei den Topmodellen aber schon in 4K, da hier die Skalierungskurve etwas stärker abflacht, da die Cache-HitRate in der hohen Auflösung deutlich abfällt (d. h. es müssen zu viele Speicheranfragen auf den langsameren GDDR6 durchgereicht werden, gleich doppelt schlecht, weil auch noch zusätzliche Latenz durch den vorausgehenden Cache-Miss entsteht).

Anmerkung zu dem beispielhaften HBM in deiner Tabelle. Derart langsame Module würde wohl heute keiner mehr verbauen. Beispielsweise nVidia ist beim A100 noch mit (mittlerweile) sehr konservativen 2,4 Gbps-Modulen unterwegs, weil deren Design 5 (bzw. 6) HBM-Stacks nutzen kann und damit mehr als genug Bandbreite besitzt.
Beispielsweise im Juli 2020 erklärte SK Hynix die angelaufene Massenfertigung ihres HBM2E mit 3,6 Gbps (rd. 461 GiB/s), d. h. in 2022 erscheinende Produkte könnten diese bereits nutzen. Ob es jedoch Kosten/Nutzentechnisch zumindest im HighEnd für Consumer-GPUs bei der NextGen ausreichend gut aussehen wird für eine Implementation, wird man weiterhin abwarten müssen.
 
Zuletzt bearbeitet:
Nvidia geizt schon immer mit Speicher.
War bei der 700er Reihe nicht anders. Bei der 900er genau so. Die 1000er fand ich ausgewogen zu der Zeit damals.
Na ja auch egal. Man bekommt eh keine Grafikkarte zu humanen Preisen nach wie vor.
 
Ich. Die 8 GB der RTX 2080 waren für Gears 5 mit HD Texturen zu wenig in 5120x1440. Erst der Wechsel auf die 2080 Ti schaffte Abhilfe, der VRAM Verbrauch pendelte sich bei 9 GB ein.
Jop also wer es nicht schafft 8gb voll zu bekommen macht auf jeden was falsch o.O

In full HD auf Mittel spielen dann labern von vram reicht oder wie :p
 
Na was soll das schon kosten? Wenn. Man es richtig übertreibt kosten nvidia 4gb mehr vll wieviel? 20?
Probier es für 4 OC-GiB von Micron mal eher mit +45 bis +60 €. Und zudem müssen PCB, Kühlung und das PowerEnvelop der GPU darauf ausgelegt sein. Da spielen viele Faktoren ineinander und am Ende der Liste steht dann immer noch die Frage nach den verfügbaren Mengen, die Micron zurzeit liefern kann, denn die kann wiederum leicht die produzierbare Kartenanzahl beschränken und damit die Wirtschaftlichkeit einschränken, sodass es ggf. erst mal angeraten ist ein 12 GiB-Modell anstatt ein 20 GiB-Modell zu bringen? **)

Und schlussendlich macht es einen erheblichen Unterschied, welchen Preispunkt du oder vereinzelte andere Enthusiasten breit sind für ein entsprechend gepimptes Modell zu zahlen (manch einer würde wg. +100 € vielleicht nur mit den Schultern zucken, wenn dafür die Speichermenge stimmt), der Markt insgesamt *) schaut jedoch deutlich anders auf derartige Produkte und da kann es schon einen großen Unterschied bzgl. der Attraktivität ausmachen ob man auf das Modell pauschal bspw. 50 € draufschlagen muss.

*) Und damit der Kreis an Käufern, der für den eigentlichen Umsatz sorgt, denn die paar wenigen, denen der Preis "quasi egal" ist, nehmen die Hersteller zwar dankend mit, jedoch können die alleine eine derartige Produktentwicklung nicht finanzieren.
Und am Ende des Tages obliegt es zudem auch jedem Hersteller für sich selbst zu bestimmen mit welcher Marge man fertigen möchte bzw. welche Ziele man verfolgt. Wenn einem das als Konsument nicht passt (oder dessen Portfolio die eigenen Bedürfnisse nicht in ausreichendem Maße abdeckt), dann lässt man den betreffenden Hersteller halt (temporär) einfach links liegen und wendet sich der Konkurrenz zu ... schlicht und einfach.

**) Zudem ist das mit den 12 vs. 20 GiB auch nicht ganz so einfach mit vermeintlichem "Geiz" erklärbar, denn einerseits bedingt das elektrische/thermische Unterschiede und andererseits ist es nun so, dass die Ti, zumindest gemäß kolportierten Werten, nahezu einem 3090-SM-Ausbau entspricht, d. h. diese Karte wird einen höheren Speicherbandbreitenbedarf haben, was widerum zu einem 384 Bit-SI führt und das kann man nur sinnvoll mit 12 oder 24 GiB belegen.
Wenn nVidia es marktstrategisch für vorteilhaft/notwendig ansieht der Ti auch ein deutliches Leistungsplus zu bescheren ("deutlich" soweit möglich, denn bis zur 3090 ist nicht allzu viel Luft), dann braucht man auch zwangsweise das breite SI und daraus resultiert ebenso unmittlebar eine sinnvolle Speicherbeschränkung auf 12 GiB.

Etwas anderes wäre eine einfache RTX 3080 mit einer 20 GiB-Option gewesen, möglicherweise ist man bei nVidia aber der Meinung eine Ti (= noch ein wenig mehr Leistung) verkauft sich vorerst besser als nur ein gleichwertiges Modell mit nur mehr Speicher.
Eine 20 GiB-3080 kommt vielleicht im 2HJ21, wenn Micron 16 Gb-BGAs ihres OC-Speichers in ausreichender Stückzahl liefern kann?
 
Zuletzt bearbeitet:
SS4 hat doch meines Wissens nach nur diese Verhalten wenn DX 12 genutzt wird? Mit DX11 lief das Game auf meiner 5700XT wunderbar flüssig.
Das war nur ein Beispiel (und nein, auch auf dx11 kann ich die höchste Texturstufe nicht mal auswählen weil daa Spiel sagt 8gb nein danke).


Es hilft auch nicht immer die schuldigen zu suchen und zu sagen jaaa schlecht optimiert und haste nicht gesehen. Ist ja schön wenns so ist aber davon ändert sich mein Problem nicht. Auch wenn win Spiel wenns besser programmiert wäre vielleicht supwr mit 8gb laufen würde statt auf 10gb zu ruckeln - es iat nunmal nicht besser programmiert und die 8 oder 10gb sind dann halt zu wenig. Man kanns wutentbrannt auf den Hersteller schieben aber am Ende löst trotzdem nur eine Karte mit mehr Speicher das Problem. :ka:
 
In full HD auf Mittel spielen dann labern von vram reicht oder wie :p
Was soll ich auch mit 16GB VRam, wenn die Leistung nicht mal für FHD reicht :P.

MC.png
 
Es hilft auch nicht immer die schuldigen zu suchen und zu sagen jaaa schlecht optimiert und haste nicht gesehen. Ist ja schön wenns so ist aber davon ändert sich mein Problem nicht. Auch wenn win Spiel wenns besser programmiert wäre vielleicht supwr mit 8gb laufen würde statt auf 10gb zu ruckeln - es iat nunmal nicht besser programmiert und die 8 oder 10gb sind dann halt zu wenig. Man kanns wutentbrannt auf den Hersteller schieben aber am Ende löst trotzdem nur eine Karte mit mehr Speicher das Problem. :ka:
Diese Argumentation kenne ich, ich arbeite bei einem großen deutschen Cloud Dienstleister. Man kann natürlich immer mehr Hardware gegen die Probleme werfen, am Ende bringt das aber keinem wirklich etwas auf längere Sicht (höhere Kosten für den Konsumenten, mehr Energieverbrauch, die ursächliche Problematik bleibt bestehen).

Mehr CPU's oder RAM lindern nur die akuten Schmerzen, die Probleme treten aber immer wieder auf. Und irgendwann skaliert die Software einfach nicht mehr mit mehr Hardware. Da muss dann die Software umgebaut werden. Das trifft auf jegliche Art von Software zu. Die Single-Thread Software-Entwicklungen der Vergangenheit sind ja, zum Glück, größtenteils wirklich nur noch Vergangenheit.

Wie ich oben bereits erwähnte, mit RTX IO / MS DirectStorage könnte die Speicher Thematik in Zukunft vielleicht einfach obsolet werden. Wenn das Streaming schnell genug ist für 4K Texturen in real-time dann braucht man vielleicht sogar weniger VRAM als jetzt.
 
Immer diese unnötigen Diskussionen ob der RAM reicht das ist doch seht abhängig von den Ansprüchen.
Jemand der in spielen 100+ fps haben will wird auf fhd nie Problem mit einer rtx 3060ti aufwärts bekommen, wenn aber jemand auf Grafik Qualität wert legt und dem dann 40-60 fps reichen wird früher oder später der ram ausgehen.

Als Beispiele habe in meine 2 rechender eine gtx 1080 mit 8 gb RAM.
Da passt gpu und ram perfekt zusammen.
Hatte in den Letzen Jahre 3-4 spiele die 7gb+ belegt haben (ich weiß belegen und brauchen ist ein unterschied) bei spielbaren fps, wenn ich die Einstellungen so ändere das der bedarf über 8 gb ging , kam es meistens zu nachladerucklern oder nachladenden Texturen.
Auf der gtx 1080 kein Problem da mit den Einstellungen die fps eh zum spielen zu niedrige waren.
Deshalb würde ich mir nie eine karte mit der Leistung einer rtx3060ti / rx 6700 mit 8 gb kaufen.
Ist aber nur Miene persönliche Meinung und jeder darf gern eine andere haben.
 
Ansonsten muss man schon ein bisschen Cherrypicking betreiben um deutlich über 9GB zu kommen bei WQHD oder auch oftmals 4K.

Ich habe die Tage beim Dead Island spielen plötzlich massive VRAM-Ruckler gehabt. UHD 350 Fps Ultra und plötzlich Dips auf 30 Fps runter. Ja, da war ein Jpg-Bild in der Windows-Vorschau offen und belegte aus irgendeinem Grund 9 GB VRAM. :ugly:
Ich. Die 8 GB der RTX 2080 waren für Gears 5 mit HD Texturen zu wenig in 5120x1440. Erst der Wechsel auf die 2080 Ti schaffte Abhilfe, der VRAM Verbrauch pendelte sich bei 9 GB ein.


Wie hast Du das geschafft? Ich habe das Game die Tage erst angeschmissen und bei mir belegt es immer um die 7,1-7,5GB mit allem auf Anschlag (inkl. HD-Textures).
 
Zuletzt bearbeitet:
Wie hast Du das geschafft?
Einfach alle Regler nach rechts? In Akt 2 wurde es richtig böse, hatte alle paar Sekunden starke Ruckler weil geswapt werden musste.

Ich lasse beim Zocken für gewöhnlich immer Chrome und den Rest im Hintergrund laufen. Dadurch werden auch bedingt der hohen Auflösung allein vom Desktop schon knapp über 1 GB VRAM bei mir belegt.
 
Diese Argumentation kenne ich, ich arbeite bei einem großen deutschen Cloud Dienstleister. Man kann natürlich immer mehr Hardware gegen die Probleme werfen, am Ende bringt das aber keinem wirklich etwas auf längere Sicht (höhere Kosten für den Konsumenten, mehr Energieverbrauch, die ursächliche Problematik bleibt bestehen).
Klar - nur als Endkunde haste eben einfach keine andere Option.
Dass die Lösung einfach dickere Hardware draufzuwerfen eine sehr beschissene ist ist klar, nur haste halt keine andere in dem Fall. Du kannst entweder die fette hardware einsetzen und das Spiel (in den Settings) spielen oder es sein lassen und es läuft nicht (wie gewünscht). Alle anderen "Lösungen" wie den Hersteller verschreien, sich über schlechte Optimierung aufregen, irgendwelche Boykottaufrufe und was weiß ich alles löst halt das problem nicht sondern erzeugt nur unnötig Blutdruck. :haha:
 
Ich spiele gelegentlich in 4K und habe jetzt eine Asus TUF 3080. Eine 3080ti mit 12 GB sond schon mal 20% mehr VRAM die ich gerne nehme und dies sollte dann erstmal für dieses Jahr ausreichen. Aktuelle sehe ich kaum etwas, dass in 4K mehr als 12GB benötigt um Nachladeruckter zu vermeiden.
 
Zurück