Zu wenig Videospeicher für Spiele: Da war ich wohl etwas voreilig - Ein Kommentar von Raffael Vötter

Far Cry 6? RTX 3070 erreicht in UHD mit Raytracing an der Testszene 6,8 Average-Fps. ;) Die RTX 3080/10G liegt bei 17,7 Fps.

MfG
Raff
Wie bei Allen Diskussionsthemen, mögen sie Corona, Klimawandel oder eben VRAM heißen, findet sich immer das eine Beispiel, der eine Experte, das Argument von dem jede Seite meint, dass es ihre Wahrheit zu der einzig "Richtigen" macht. Ich sehe mich da wohl auf der "Schlafschaf" Seite, die eher der "gängigen" Meinung zugeneigt ist bzw. sich an der Regel und nicht an Ausnahmen orientiert.
 
Genügend VRAM ist keine "rhetorische Frage". Es ist das Ende forenfüllenden unendlichen Gelabers obs nun reicht oder nicht!
Schreibt jemand, der immer noch eine 3GB-780-Ti nutzt, obwohl es seitdem nun wirklich genug Gelegenheiten gab, auf günstige 8GB-Grafikkarten aufzurüsten.
 
@ COHEN: Ja -sehr ärgerlich - das ich so blöd war mir son Murks mit 3 GB zu kaufen und das damit unterstützte. Preis: 350,--€
Unendliche Diskussionen - schon damals ://extreme.pcgameshardware.de/threads/gtx780-6gb-oder-gtx780-ti.340044/page-2
Statt der XFX die ich schon im Kalkül hatte - mit der könnte ich wohl immer noch zocken?
Damals 400 €.
Aktuell: dass für 8-10 GB VRAM deutlich über 1000 Euro bezahlt werden müssen (SHABOO), so dass sich an dem Elend nix geändert hat nur die Preise.
 
Falls du noch auf der Suche nach einem Speicherfresser bist kann ich dir The Division 2 empfehlen.
Spiele das aktuell wieder und bin froh das ich mich für eine 6700XT entschieden habe und nicht für die 3060 ti :ugly:

Sehe absolut kein Problem mit den 8GB Vram meiner 5700xt und Eyefinityauflösung von 5760x1080 in Devision2 mit hohem Settings. :ugly:

TD2 Vram.jpg


TD2 8GB Vram reicht.jpg
 
Da gibt es schnell andere Prioritäten...
Das kann ich bestätigen, dennoch erfreuen mich die selten gewordenen Abende, wo ich doch mal zocken kann. Mein relativ alter Ryzen 2700 leistet aber noch gute Dienste in mir gefallenden AAA-Titeln (Borderlands 3, Division 2), wenn es nicht immer über 100 fps sein müssen.
Generell muss ich sagen, dass es oft nicht nötig ist viel VRAM zu haben, aber man hat so auch oft den längeren Atem.

@xDave78
Wie den vorherigen Themen-Seiten entnehmbar ist, ist es eben nicht nur das eine Spiel. Für die abgerufenen Preise sind allen voran die 3060 Ti, 3070 und 3070 Ti speicherseitig grottenschlecht ausgestattet. ;):kaffee:
Ich denke es wurde so kommuniziert, dass es Ausnahmen sind, die immer mehr zur Regel werden.
 
Zuletzt bearbeitet:
Jetzt ist Ihre Meinung gefragt zu Zu wenig Videospeicher für Spiele: Da war ich wohl etwas voreilig - Ein Kommentar von Raffael Vötter
Dabei sollte man nur eines bedenken, heute ist der Standard bei neuen Monitoren 4k, 8k steht aber vor der Tür. Und dann werden auch 16GB aber so richtig knapp. Seit 2017 ist z.B. dieser Monitor auf dem Markt und die Preise werden fallen, genau wie sie für 4k Monitor gefallen sind,
 
Der Großteil wird nicht in 8K zocken, zumindest in absehbarer Zeit. Man muss nur mal schauen in welcher Auflösung heute noch vom großen Durchschnitt gespielt wird. Da ist selbst 4k/UHD noch weit weg. Wer sich für hohe Auflösungen interessiert, kauft in der Regel auch high End. Klar FSR und DLSS helfen schon sehr gut zum steigern der FPS aber bisher finde ich Einstellungen wie FSR/DLSS Performance von der Qualität schon sehr unterirdisch.
Man muss auch bereit sein das Geld für einen PC und Monitor aus zugeben die sich im high end bewegen. Nvidia ist schlau. Sie machen den VRam so knapp das man relativ schnell wieder neu kaufen muss, wenn man nicht am Regler drehen will. Und ob die 3070 mit 12gb besser gewesen wäre, ist streitbar. Reicht die Leistung nicht aus dann hilft auch kein Vram. Wenn das Spiel schlecht optimiert ist, dann vllt schon.
 
Und wenns wirklich die Wahl gäbe den "Markt" entscheiden zu lassen das ich für ne RTX 3080 Ti mit 16 Gig-VRAM 200,-- Ocken mehr zahle, ok. Dann kann sich Jensen das Genie zum Frühstück ne Tasse Kaffee mehr leisten aber nervt mit dem Blödsinn nicht dauernd rum. Deshalb bleibt AMD die erste Wahl sagt die Marktwirtschaft!
"Der Markt" kauft deutlich mehr NV als AMD.


Der Großteil wird nicht in 8K zocken, zumindest in absehbarer Zeit. Man muss nur mal schauen in welcher Auflösung heute noch vom großen Durchschnitt gespielt wird. Da ist selbst 4k/UHD noch weit weg. Wer sich für hohe Auflösungen interessiert, kauft in der Regel auch high End. Klar FSR und DLSS helfen schon sehr gut zum steigern der FPS aber bisher finde ich Einstellungen wie FSR/DLSS Performance von der Qualität schon sehr unterirdisch.
Man muss auch bereit sein das Geld für einen PC und Monitor aus zugeben die sich im high end bewegen. Nvidia ist schlau. Sie machen den VRam so knapp das man relativ schnell wieder neu kaufen muss, wenn man nicht am Regler drehen will. Und ob die 3070 mit 12gb besser gewesen wäre, ist streitbar. Reicht die Leistung nicht aus dann hilft auch kein Vram. Wenn das Spiel schlecht optimiert ist, dann vllt schon.
So sieht es aus. Käufer einer 3070 zocken eher in FullHD / WQHD als 4K, und dafür reichen 8GB eben locker aus.
 
Nein, ich denke mir das nur aus. :ugly: ;) Man weiß nicht genau, wie Nvidia das macht, aber da kommt bei gleicher Kapazität einfach mehr rum, die Mangelsymptome treten später ein. Vermutlich wegen einer zackigeren Eviction Policy und so. 16 GiByte sind aber zweifellos besser als 12 GiByte, so viel kann Nvidia nicht herausholen.


Keine Sorge, ich bleibe auch weiterhin einer der schärfsten Kritiker speicherseitig unterbestückter Grafikkarten. Es kam nur eben nicht so dicke, wie's noch vor 1,5 Jahren aussah (siehe Text), und das wollte ich mal erläutern, quasi als "Update". Ich bin sehr gespannt, wann die "Kanten-Karten" öfter aus den Latschen kippen. Möglicherweise schon Ende dieses Jahres.

MfG
Raff
Das mir den Nvidia GB und Amd GB finde ich ne interessante Aussage - Danke

Kannst du trotzdem sagen wieviel VRAM Anforderung DLSS ca einspart ?

Beispiel wie in eurem Heft wo die Aussage war das Warzone die 6GB Knacken kann wenn die Texturen zu hoch eingestellt sind.
Sinkt die Anforderung stark genug durch DLSS Q z.b. ?
 
Sehe absolut kein Problem mit den 8GB Vram meiner 5700xt und Eyefinityauflösung von 5760x1080 in Devision2 mit hohem Settings.
Es ist die Frage, wann man etwas als Problem ansieht. Die Diskussion findet ja irgenwo zwischen "gar nicht spielbar" und "wenig Puffer für eine Karte dieses Preises" statt. Mit 8GB bist du natürlich weit von "nicht spielbar" entfernt, aber schon im Bereich "Frametimes leiden/ Streaming reduziert vereinzelt Texturauflösung". Wie du das bewertest, ist deine Sache.

Edit:
Reicht die Leistung nicht aus dann hilft auch kein Vram.
Andersherum wird ein Schuh draus, denn VRAM ist durch nichts zu ersetzen und höhere Texturauflösung kostet keine Leistung.

Wenn das Spiel schlecht optimiert ist, dann vllt schon.
Das hat nicht zwingend mit schlechter Optimierung zu tun und letztlich hast du darauf keinen Einfluss, du musst damit leben.

Edit2:
10GB sind kacke und 12 safe...
Verstehe ich nicht. Sind nur 2GB mehr ;)
Die Leute mögen gerne einfache, absolute Aussagen. Dass sie die angesprochene, aktuelle Tatsache schon mit dem nächsten "unoptimierten" Titel ändern kann, wird ausgeblendet.

Vorboten, joah, wie alt ist Minecraft RTX? Und wann braucht das so massiv viel VRAM? Quasi nur wenn man die Chunks bis auf Anschlag stellt, und bei diesen hohen RT Anforderungen ist alles außer einer 3090 eh überfordert.

Natürlich könnte es "irgendwann" soweit sein dass 8 GB für WQHD nicht mehr ausreichen, oder 10 GB für 4K. Aber aktuell sind das Ausnahmen, nicht die Regel. Bis es soweit ist könnte genau so gut DirectStorage/Sampler Feedback Streaming dafür sorgen dass deutlich weniger VRAM benötigt wird.
Die Diskussion ist mindestents so als wie 3D Spiele und trotz aller Techniken zur Reduktion von Speichernutzung war eines sicher, Karten mit größerem VRAM sind ganz einfach länger nutzbar.
 
Zuletzt bearbeitet:
Fakt ist mehr Speicher ist immer gut zu haben. Aber mit 8GB kannst du heute und auch mittelfristig alles super spielen.

Die wenigsten Leute nutzen 4K Auflösungen und knallen alles auf Anschlag. Hab mit meiner 3080 jetzt noch nix gesehen, wo ich mit meiner WQHD Auflösung irgendwo Leistungs- oder Grafikabstriche machen müsste. Wobei ich aktuell in meiner knappen Zeit fast nur noch die PS5 anwerfe. Hat für mich aktuell einfach die interessanteren Titel. Am PC Spiel ich mal ne Runde CS oder AoE4.
 
Bisher komm ich mit der RTX 3080 in 4K super aus.
Bei anspruchsvollen Titeln ist es eher die generelle Performance die keine 60FPS zulässt.

Glaube bei den nächsten Titeln muss ich dann eh Details reduzieren und dann ist es auch ok die Texturen eine Stufe runter zu stellen oder die Schatten. :-)
 
Hmm hatte vorher ne 3070 und jetzt ne 6700XT.
Der größere VRAM hat bis jetzt 0 Vorteile.
Einzig RSR hat was gebracht, da die Rohleistung einfach fehlt.
Und das geht seit jahren so.
 
Ich habe das selbe Problem. Siants row 3 the third aus dem Jahre 2013. Damals mit ner Gtx 570 1,25 GB auf hochskalierte wqhd bei Windows 7 gezockt. Flüssig war es soweit ja sehr wohl gewesen. Vor ein paar Monaten wieder gezockt mit ner Gtx 1050 ti 4 GB bei Windows 10. Die fps schwanken sehr stark besonders drausen. Und das sogar unter 720p ohne AA und ein paar grafikeinstellungen runter gestellt. Im Durchschnitt schafft die nicht mehr als 50 fps. Mein bester Kumpel hat ne rtx 2080 ti und bei ihm ist alles gleichmäßig flüssig. Aber gut er hat Windows 7 noch am laufen.
Es gibt nur zwei Möglichkeiten die sein könnten aber gpu Speicher ist ausgeschlossen bei rund 1 GB von 4 GB vram Verbrauch.
Also ist die Gtx 1050 ti schlechter als ne Gtx 570 1,25 GB? Wohl kaum das die gpu schlechter ist bei der rohleistung. Es sei denn der gpu Chip ist wirklich zu schlecht oder das game mag kein Windows 10.

Diese beiden Optionen habe ich zur Auswahl. Teste das noch mit nen Gtx 1650. Sollte das ebenso das selbe Verhalten haben, dann ist es ganz sicher Windows 10 dran schuld.
So einen Fall habe ich echt noch nie gehabt. Und ich spare mir das Testen in 800x640 zu testen. Und die 8 % CPU last sagt auch eindeutig das was mit bzw um die gpu was nicht stimmt.

Ich finde es schade das es so wenig Optionen gibt alte games flüssig zum laufen zu kriegen. Und wage zu bezweifeln das es in Zukunft besser laufen wird.

Und ne neue gpu ist echt hart das man unter 300 € keine bessere gpu als ne Gtx 1050 ti mehr bekommt. Das heißt wohl augen zu und durch und auch warten auf bessere gpus.
Ich habe das selbe Problem. Siants row 3 the third aus dem Jahre 2013. Damals mit ner Gtx 570 1,25 GB auf hochskalierte wqhd bei Windows 7 gezockt. Flüssig war es soweit ja sehr wohl gewesen. Vor ein paar Monaten wieder gezockt mit ner Gtx 1050 ti 4 GB bei Windows 10. Die fps schwanken sehr stark besonders drausen. Und das sogar unter 720p ohne AA und ein paar grafikeinstellungen runter gestellt. Im Durchschnitt schafft die nicht mehr als 50 fps. Mein bester Kumpel hat ne rtx 2080 ti und bei ihm ist alles gleichmäßig flüssig. Aber gut er hat Windows 7 noch am laufen.
Es gibt nur zwei Möglichkeiten die sein könnten aber gpu Speicher ist ausgeschlossen bei rund 1 GB von 4 GB vram Verbrauch.
Also ist die Gtx 1050 ti schlechter als ne Gtx 570 1,25 GB? Wohl kaum das die gpu schlechter ist bei der rohleistung. Es sei denn der gpu Chip ist wirklich zu schlecht oder das game mag kein Windows 10.

Diese beiden Optionen habe ich zur Auswahl. Teste das noch mit nen Gtx 1650. Sollte das ebenso das selbe Verhalten haben, dann ist es ganz sicher Windows 10 dran schuld.
So einen Fall habe ich echt noch nie gehabt. Und ich spare mir das Testen in 800x640 zu testen. Und die 8 % CPU last sagt auch eindeutig das was mit bzw um die gpu was nicht stimmt.

Ich finde es schade das es so wenig Optionen gibt alte games flüssig zum laufen zu kriegen. Und wage zu bezweifeln das es in Zukunft besser laufen wird.

Und ne neue gpu ist echt hart das man unter 300 € keine bessere gpu als ne Gtx 1050 ti mehr bekommt. Das heißt wohl augen zu und durch und auch warten auf bessere gpus.
 
Hmm hatte vorher ne 3070 und jetzt ne 6700XT.
Der größere VRAM hat bis jetzt 0 Vorteile.
Einzig RSR hat was gebracht, da die Rohleistung einfach fehlt.
Und das geht seit jahren so.
Ich hoffe du hast nicht wirklich wegen dem Speicher gewechselt?
GPU-Leistung und Featureset hast du damit ja definitiv etwas zurück geschraubt.
 
Dabei sollte man nur eines bedenken, heute ist der Standard bei neuen Monitoren 4k, 8k steht aber vor der Tür.[/URL]
Derzeit werden 2317 Monitore angeboten, davon nur 291 Modelle mit mindestens UHD-Auflösung, also 12,6%.

Bei den neuen Monitoren (gelistet seit 2021) sind es 885 Monitore, davon nur 138 Modelle mit mindestens UHD-Auflösung, also 15,6%:

Bis UHD-Monitore im PC-Bereich Standard werden, dauert es noch ein paar Jährchen.

Zudem nutzen immer mehr Spiele dynamische Auflösungen und auch die Skalierungsverfahren sind deutlich besser geworden. Selbst wenn man sich einen hochauflösendes Display kauft, muss man es nicht zwingend nativ füttern, auch niedrigere Renderauflösungen sehen gut aus.
 
Tja Vram kosten aber nicht viel deutlich mehr RT Cores (NV) oder auf AMD seiten deutlich mehr allgemeine Recheneinheiten kosten allerdings maßgeblich Geld.
Schon seit GDDR5 ist das eigentlich nicht mehr so, was sich in den letzten zwei Jahren auch noch massiv zugespitzt hat. Vram ist immens teuer geworden und lag eine lange Zeit bei ~12-14$ pro Gb, auch die Kosten für Board, VRM's etc. sind teurer geworden und bleiben immer noch hoch. Wafer-Silicon ist da im Vergleich billig, bei der 6700XT beispielsweise dürfte der Vram mal locker doppelt so teuer sein wie der Chip, eher mehr.
Wenn Nvidia bei der 3070 selber für jedes Gb mindestens 10$ zahlen muss, zahlen wir als Endverbraucher in etwa das doppelte (wenn alle beteiligten die gleichen Margen bekommen), eine 12Gb Version (Speicherinterface mal ignoriert) wäre dann etwa 80€ teurer in der UVP und damit im Markt nicht konkurrenzfähig (Deswegen gibt es auch keine 6500XT 8Gb (oder 3080 20GB), der Preis würde lächerlich stark nach oben gehen und das ohne Performancezuwachs, ist mit GDDR6 einfach nicht umsetzbar zur Zeit).
AMD hat hier das deutlich bessere Konzept für die Marktlage, da sie durch den Infinity-Cache kosten für das Board und indirekt durch größere Fläche auch für die Kühlung senken und auf den verhältnismäßig noch günstigen Wafer umlegen. Das kombiniert mit einer geringeren Marge führt dazu, dass man bei AMD im Moment deutlich mehr Hardware für sein Geld bekommt.

Die 3060 (und mit Abstrichen auch die 3090) ist mMn ein gutes Beispiel, das mehr Vram nicht immer besser ist. In der Performanceklasse muss man einfach viel zu viel Geld für Speicher bezahlen, der jetzt gar nicht genutzt wird und es auch in der Zukunft schwer haben wird, einen echten Usecase im Gaming zu finden. Mit 8Gb und anderem Interface könnte die Karte ~60€ günstiger sein und wäre dann preislich viel näher an der 6600 und gleich ein viel besseres Produkt.
Eigentlich aber auch egal was diese Gen so passiert ist, selbst jetzt sind alle Karten noch viel zu teuer im Vergleich zu ihren Vorgängern und die nächsten Karten stehen schon in den Startlöchern. Mal sehen was da so passiert, mit Sicherheit werden sich aber wieder einige Modelle finden, wo man über den Vram diskutieren kann ;)
 
Hoffentlich lernt man daraus.
Man sollte nicht zu aggressiv eine Richtung einschlagen.
Es haben sehr viele behauptet, dass 8GB ausreichen.
Der Speicher wurde auch entsprechend der Leistung der GPU dimensioniert.

Doom und verkorkste Releases haben dagegengehalten. :D

Ach und mehr Speicher hat nVidia hauptsächlich gebracht um gegen AMD aufzuholen. Vor allem für die Verkaufszahlen. Eine 3060 mit 12GB braucht keiner wirklich. Die macht auch schon bei Spielen schlapp, die noch nicht einmal 8GB benötigen.
 
Zurück