News Umfrage: 8 oder 12 GiB VRAM sind im Mainstream nicht mehr genug - Problem für 4070 Super?

4K ist aber kein Mainstream!
Mainstream ist immer noch FHD. Und dort reichen 8-12 GB VRAM noch aus. Je nach Spiel zwar manchmal hart an der Grenze der 8 GB, Aber es reicht noch aus.
Mainstream? Was hat das damit zu tun? Eine 4070 Super ist auch kein Mainstream, das sind <400€ Karten auf Steam.
Keiner der nur in FHD spielt kauft sich eine >600€ Karte, wie du schon selber sagst.

Die Frage ist ob 12GB auf einer 4070 Super ausreicht.
Und um die Leistung der Karte vollständig nutzen zu können, braucht diese 16GB VRAM.
Eine 4070 Super ist schneller als eine 3090 (mit 24GB), welche von Nvidia als "8k" beworben wurde...
Es gibt jetzt schon Fälle, bei denen 12GB in 1440p nicht ausreicht und mehr Fälle in 4k.
Von FHD war nie keine Rede!

Mittlerweile sieht es optimal so aus:
1080p 8-12GB VRAM
1440p 12-16GB VRAM
4k 16->24GB VRAM
RT und FG brauchen beide mittlerweile mehr VRAM.

Man muss zusätzlich GANZ wichtige Sachen ansprechen.
- JEDE Karte kann grundsätzlich in 4k spielen solange sie genug VRAM hat.
Dafür wird DLSS genutzt.
Z.b. DLSS Performance rendert in 1080p, gibt aber ein 4k Bild aus ABER braucht soviel VRAM wie 4k.

- Der VRAM Verbrauch ist oft auch dynamisch.
Man kann zu wenig haben, dann laden oft Texturen nach, man merkt aber keine Ruckler. Das wäre nur optisch blöd.
In anderen selteren Fällen brechen die FPS ein oder das Spiel stürzt komplett ab.
Meistens kann man aber die Grafikeinstellungen runterschrauben damit es dann läuft.

Aber jedem das seine. Es gibt Leute die spielen auf niedrigsten Details für möglichst hohe FPS und es gibt Leute die die beste Grafik wollen, denen aber noch 30FPS reicht.
Schau dir die PS5 an, die nutzt 12 GB VRAM
16GB, aber 2,5GB sind fürs OS reserviert. Also 13,5GB :D
 
Das lustige ist ja Nvidia hatte ja schon eine 12 Gb Karte in den unteren Preisbereichen. Also ab 300 Euro ca. Aus wirtschaftlichen Gründen wurde scheinbar bei dieser Gen darauf verzichtet. Man kann ja auch 540p spielen, da gibt es sicher keine Vram Probleme. :-)

Das wird ziemlich sicher mit der nächsten Gen wieder anders. Vielleicht sehen wir dann auch endlich die ersten Karten mit 12 GB Vram ab 200 Euro. Wer weiß, Zeit wird es. 8GB gibt es ja schon fast 8 Jahre in der unteren Mittelklasse. Klar wird der Speicher heute effiktiver genutzt und ist auch deutlich schneller geworden, Speicher kann nur durch mehr Speicher ersetzt werden.:-)

Alles über 400 Euro sollte dann dementsprechend 16 GB Vram haben.
 
Das lustige ist ja Nvidia hatte ja schon eine 12 Gb Karte in den unteren Preisbereichen. Also ab 300 Euro ca. Aus wirtschaftlichen Gründen wurde scheinbar bei dieser Gen darauf verzichtet.
Die 3060 mit ihren 12 GB war bei Ampere genauso eine Ausnahme wie die 4060Ti mit 16 GB bei Ada. Die gab und gibt es nur, weil man den Aufwand der Anpassung des Speicherinterfaces für eine 8/10-GB-3060 und eine 10/12-GB-4060 Ti gescheut hat. Die sind aber nicht repräsentativ für die generelle Modellpolitik und -palette von Nvidia. Die lautet - mit Ausnahme der 90er-Modelle - nach wie vor eher "nur so viel VRAM wie gerade nötig". Das wird sich auch erst dann ändern, wenn bzw. falls man von Intel und AMD stärker unter Druck gesetzt wird.

Andererseits hat sich meiner Erinnerung nach niemals jemand ernsthaft über die 8 GB einer 3070 beschwert, und nun sollen bei einer 4070 plötzlich 16 GB Minimum sein. Schon ein wenig albern.
 
Ich hatte die letzten Jahre 11GB (1080 Ti) und seit 2022 habe ich 12GB (3080 Ti) und noch nie Probleme mit zu wenig VRAM. Ich spiele meistens in 1440p, je nach Hardware-Hunger auch in 4k und das stets flüssig. Wenn dann mangelt es mir manchmal eher an GPU-Power aber nicht an deren Speicher.

Für die nächste Karte die ich mir anschaffen werde und bis dahin kann es je nachdem auch noch 2-3 Jahre dauern, dürfen es dann schon 16GB+ sein.
 
Ich hatte vorher eine Karte mit 8GB. Klar sind alle Spiele darauf gelaufen. Jetzt habe ich eine mit 16GB und da sieht man auf einmal das sich manche Spiele gerne mehr Speicher nehmen, wenn er da ist. Ich muss dazu sagen in WQHD-Auflösung.
Allerdings mehr als 12GB in WQHD braucht kauf ein Spiel. Ich würde mal sagen die paar was sich da mehr nehmen laufen auch mit 12GB noch immer gut.

Allerdings spiele die große Mehrheit noch auf HD. Also da wird 8 GB noch immer reichen.
 
Ich bin mit meiner nativen Auflösung von 3840x1600 durchaus in die 8GB meiner ehemaligen 5700 XT gerannt. Man hat es dann an den Mikrorucklern gemerkt und das war einfach nur lästig, egal wie gut die durchschnittlichen FPS waren. Mit den 16GB meiner jetzigen Grafikkarte komme ich sehr gut klar.

Würde ich nur in 1080p spielen (z.B. per HTPC oder Streaming per TV), würde ich wahrscheinlich auch nur eine 8GB Karte nehmen.

Wo genau die 4070 Super hinfällt, wird man sehen. Für die 4070 Ti waren die 12GB jedoch auch schon knapp bemessen. Angesichts dessen, dass es eine 800+€ Grafikkarte ist, sogar einfach nur lächerlich. Aber das Problem ist ja eigentlich, es gibt genug Idioten, die sich trotzdem gerne verarschen lassen oder es einfach nicht besser wissen. Denjenigen, die sich nicht gut genug damit auskennen, denen mache ich keine Vorwürfe. Aber wissentlich so einen unverhältnismäßigen Müll zu kaufen ist halt schon...
 
Andererseits hat sich meiner Erinnerung nach niemals jemand ernsthaft über die 8 GB einer 3070 beschwert, und nun sollen bei einer 4070 plötzlich 16 GB Minimum sein. Schon ein wenig albern.
Viele Spieler bemerken es nicht einmal, sie konzentrieren sich hauptsächlich auf die FPS. Wenn die Texturen schlecht sind, wird das Spiel sofort kritisiert. Nehmen wir zum Beispiel Forspoken, genau das ist passiert. Steve von Hardware Unboxed hat genau das beschrieben, als er von der 3070 zur 6800 wechselte. Er hat plötzlich verstanden und als Theorie geäußert, dass dies einer der Gründe für die negative Kritik an Forspoken war..unter anderem.

Ja, Forspoken war kein herausragendes Spiel, aber der Punkt, den ich machen möchte, ist, dass vielen Spielern nicht bewusst ist, wofür VRAM überhaupt benötigt wird. Sie schauen stur auf die FPS und das war’s. Alles andere wird dann immer auf das ‘unoptimierte’ Spiel geschoben, das schlecht ist.

Oder Hogwarts Legacy, oder Last of Us oder Jedi Survivor. Haste genug VRAM, haste meistens keine Probleme.
 
Stand heute reichen 12 GB ja auch für das Meiste. Im Mainstream finde ich das auch passend.
Aber wenn man sich heute eine Karte für über 500€ oder 600€ kauft, darf die schon 16GB haben.

Bei dem Preis kann man schon etwas mehr als "reicht gerade noch" erwarten.
 
Ist halt ne Frage, welche Auflösungen man spielen will. Die meisten Mid-Range karten sind vor allem in FullHD oder WQHD gut. 8 GB sind für solche Karten "ausreichend".
Gerade wenn man noch modden will, würde ich zu 12 o. 16 GB greifen, wenn man das Geld hat.
Leider sind höhere Auflösungen* besseren Grafikkarten vorbehalten - die sollten die Hersteller immer mit min 16 GB ausrüsten.

*) natürlich gibts esport- und Klassiker-Titel, die auch auf schwächeren Karten in hoher Auflösung laufen. Solche Games meinte ich hier nicht.
 
.

Das sollte also durchaus ausreichend sein. Dazu kommt auch noch, dass Nvidia GPUs mittlerweile ca. 20% effizienter mit dem VRAM umgehen, als AMD Karten und entsprechend erst etwas später performance durch VRAM Mangel verlieren. Die 12 GB sind also in etwa äquivalent zu 14 GB bei AMD.
(.
Quelle?
Also ich hab im letzten Test hier gelesen das 8 GB bei Nvidia 8.5 bei AMD sind und 9 GByte bei Intel...
Woher hast du die Zahl 20 %? Bitte Quelle
Nebenbei ist sogar deine übertriebene Angabe von 12 zu 14 nicht mal 20%.. Mathe?
 
Ich habe eine 3080ti und spiele 1440p. Ich habe bisher nur 1-2 mal auch nur die Nähe zu den 12 Gb gesehen bisher, und daswaren zum Teil unoptimierte Demos.
Von daher mache ich mir noch keine Sorgen für den Moment.

Was Mich eher ärgert, das die 4080 s nicht mehr als 16 GB Speicher hat.....

Das halte ich in dieser Klasse für fast ein bisschen wenig.
 
Nein für FHD reichen 8 GB nicht mehr aus
Re4
Hogvarts
Last of us
Und bei Cyberpunkg grenzwertig

Nur ein paar Beispiele

Habe auch ein paar Beispiele .

Du kannst uns sicher Erklären wieso im hier Verlinkten PCGH Hogvarts Bench zum Beispiel die Intel Arc A 770 mit 8GB und 16GB in FHD gleich schnell sind !?


Und wieso die Nvidia RTX 3070 8GB die Amd Rx 6700xt 12GB um gut 11% schlägt ,wenn deiner fachmänischen Meinung nach 8GB in FHD nicht mehr ausreichen .

Erfahrungsgemäss sind Grafikkarten deren Vram tatsächlich nicht mehr ausreicht dann in der Regel eh zu langsam .

Viel hilft eben nicht immer viel :D
 
Vergesst mal die Steam-Statistik, die sagt uns nicht wirklich, was die meisten Leute nutzen. Es ist schon ewig her, dass ich da mal was zu meiner Hardware gefragt wurde. Keine Ahnung, wie das getriggertw ird und woher die Zahlen kommen.
Ich wurde auch noch nie für eine Wahlumfrage gefragt und dennoch kommen die Ergebnisse einigermaßen mit der Realität hin. Die Statistik mag nicht perfekt sein ist aber ein rehct guter Indikator
Viele Spieler bemerken es nicht einmal, sie konzentrieren sich hauptsächlich auf die FPS. Wenn die Texturen schlecht sind, wird das Spiel sofort kritisiert. Nehmen wir zum Beispiel Forspoken, genau das ist passiert. Steve von Hardware Unboxed hat genau das beschrieben, als er von der 3070 zur 6800 wechselte. Er hat plötzlich verstanden und als Theorie geäußert, dass dies einer der Gründe für die negative Kritik an Forspoken war..unter anderem.

Ja, Forspoken war kein herausragendes Spiel, aber der Punkt, den ich machen möchte, ist, dass vielen Spielern nicht bewusst ist, wofür VRAM überhaupt benötigt wird. Sie schauen stur auf die FPS und das war’s. Alles andere wird dann immer auf das ‘unoptimierte’ Spiel geschoben, das schlecht ist.

Oder Hogwarts Legacy, oder Last of Us oder Jedi Survivor. Haste genug VRAM, haste meistens keine Probleme.
Auch wenn der VRAM nicht ausreicht muss man sich durchaus fragen warum die Spiele so viel Speicher benötigen. Andere Spiele kriegen es bei ähnlicher Optik ja ohne hin. Das mehr Speicher zwar besser ist wenns eng wird ist nichts neues aber hier sind nunmal auch Entwickler gefordert das die Ressourcen effizient genutzt werden.
Habe auch ein paar Beispiele .

Du kannst uns sicher Erklären wieso im hier Verlinkten PCGH Hogvarts Bench zum Beispiel die Intel Arc A 770 mit 8GB und 16GB in FHD gleich schnell sind !?


Und wieso die Nvidia RTX 3070 8GB die Amd Rx 6700xt 12GB um gut 11% schlägt ,wenn deiner fachmänischen Meinung nach 8GB in FHD nicht mehr ausreichen .

Erfahrungsgemäss sind Grafikkarten deren Vram tatsächlich nicht mehr ausreicht dann in der Regel eh zu langsam .

Viel hilft eben nicht immer viel :D
Weil in den meisten Fällen dann eben mehr gestreamt wird und du deshalb kein FPS einbruch hast sondern stattdessen Texturmatsch. Das siehst du in solchen Benches dann nicht mehr.
 
Panikmache. Mainstream ist ganz bestimmt nicht 4k, RT on und alles auf Anschlag. Es gibt hier und da Ausnahmen und die gab es schon immer. Und zu guter letzt sind Grafikkarten nicht für die Ewigkeit gebaut. Man will auch was verkaufen. 12GB werden erstmal reichen für den Mainstream
 
Zuletzt bearbeitet:
Viele Spieler bemerken es nicht einmal, sie konzentrieren sich hauptsächlich auf die FPS. Wenn die Texturen schlecht sind, wird das Spiel sofort kritisiert. Nehmen wir zum Beispiel Forspoken, genau das ist passiert. Steve von Hardware Unboxed hat genau das beschrieben, als er von der 3070 zur 6800 wechselte. Er hat plötzlich verstanden und als Theorie geäußert, dass dies einer der Gründe für die negative Kritik an Forspoken war..unter anderem.
Solch ein Texturstreaming Problem kommt oft in Openworld Titeln vor.
Als aktuellstes Beispiel das Avatar Spiel.
Laut TPU reserviert es sich 11GB in 1080p low und 12GB in 1080p Ultra.
Aber in den getesteten FPS ziegt sich davon nichts, selbst bei 8GB Karten.
Aber das sagt nichts darüber aus, wie es sich im Spiel auswirkt: Matschige Texturen, aufploppende Assets, etc.

Last of Us hatte ein ähnliches Problem, das auch Digital Foundry unter die Lupe nahm.

In Alan Wake 2 bricht nur die FPS ein, in Resident Evil 4 Remake mit RT stürzte das Spiel zum Release ab.

Und wieso die Nvidia RTX 3070 8GB die Amd Rx 6700xt 12GB um gut 11% schlägt ,wenn deiner fachmänischen Meinung nach 8GB in FHD nicht mehr ausreichen .
Weil ein Balken nicht alles aussagt. :D
Im PCGH Performancechart ist die 3070 in 1080p 8% vor der 6700XT, da passen die 11% also rein...
Aber wie gesagt, das sagt nichts über aufploppende Assets/Texturen im Spiel aus.

Man kann einfach kein komplettes Openworld Spiel in dem VRAM laden, da wird immer nur ein Teil geladen.
Ist der VRAM zu klein, wird weniger geladen und man könnte die Auswirkungen sehen, wenn man sich, vorallem schnell, durch die Gegend bewegt.
Als weitere Faktoren gibt es die Geschwindigkeit vom VRAM oder die Bandbreite/PCIe-Lanes der Karte.
Und es gibt noch Directstorage, was vorallem auf Konsolen genutzt wird.
Alles sind Faktoren die über solch Texturstreaming entscheiden können.

Das ist tatsächlich etwas, was mich in vielen Spielen ankotzt.
Ich habe eine 4090 mit 24GB VRAM und genug Dampf, aber wie oft sehe ich, vorallem in Indie-Titeln, 5 Meter vor mir wie die Texturen oder Schatten von Hochauflösend in Matchig wechseln. Meist wie in einem Zylinder um mich herum.
Besonder schlimm ist es wenn man sich bewegt und auf magische Weise Gras 10 Meter vor einem erscheint, obwohl man 100 Meter weit sehen kann...
Dann kommen UE5 Spiele raus, die dank Nanite das Problem ansich nicht mehr haben, aber dafür ist die Performance für die Tonne. :D
 
Quelle?
Also ich hab im letzten Test hier gelesen das 8 GB bei Nvidia 8.5 bei AMD sind und 9 GByte bei Intel...
Woher hast du die Zahl 20 %? Bitte Quelle
Nebenbei ist sogar deine übertriebene Angabe von 12 zu 14 nicht mal 20%.. Mathe?


Hier das Video.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Es schwankt natürlich von Spiel zu Spiel und eine 100%ige Aussage kann man auch nicht machen, da sowohl AMD als auch Nvidia bei VRAM Mangel natürlich versuchen weniger zu allokieren und bei genug VRAM mehr allokieren. Das heißt perfekt rausmessen ist nicht möglich. Man kann sich nur annähern.

Aber beim Robocop Beispiel sieht man das ganze recht gut, weil bei AMD der Unterschied in der Allokierung zwischen einer 8 und einer 12 GB Karte hier am geringsten ist und die 8 GB Karte bereits volläuft.

Bei 14:29 braucht die Nvidia 8 GB Karte 7274 MB und die 8GB AMD Karte 7994 MB. Die AMD Karte ist im VRAM Limit, was sich bei der Performance bemerkbar macht. Die Nvidia Karte ist 12% schneller während sie ohne VRAM Limit nur 2% schneller wäre (sieht man später im Video)

Bei 14:58 sieht man wie es auf Karten mit mehr VRAM aussieht. Die AMD Karte mit 12 GB belegt hier 8569 MB.
Das sind gerade mal 575 MB mehr als auf der 8 GB Karte. Es war der 8 GB AMD Karte also nicht möglich mit den 8 GB auszukommen, obwohl nur 575 MB hätten eingespart werden müssen z.B. durch agressiveres VRAM management, whatever.

Auf der anderen Seite sieht man, dass Nvidia nur rund 7260 MB auf der 8 GB Karte belegt und 7784 MB auf der 16 GB Karte. Nvidia braucht also selbst bei genügend vorhandenem VRAM weniger als AMD und kann bei der 8 GB Karte sogar nochmal 524 MB einsparen, obwohl das noch gar nicht zwingend notwendig wäre.


Jedenfalls sieht man hier recht deutlich den Unterschied. während AMD 8596 MB auf der 12 GB karte belegt und 8 GB bereits zu wenig sind, braucht Nvidia auf der 8 GB Karte nur 7260 MB.

AMD braucht hier also 18,4% mehr VRAM.
Sorry, dass ich "ca." und "in etwa" verwendet habe. Ist doch egal, ob 16,66% (bezogen auf 12 vs 14 GB) oder "in etwa" 20%. So genau kann mans eh nicht bestimmen und als grober Richtwert wird es wohl reichen.

Zumal man hier nichtmal weiß, wie viel VRAM auf Seiten Nvidia noch eingespart werden könnten, wenn die Karte tatsächlich im VRAM limit wäre. Das VRAM Management arbeitet schließlich noch nicht so agressiv wie es könnte, wenn der VRAM noch nicht voll ist (7260 MB ist eben noch nicht voll).


Ich finde das durchaus signifikant, aber in der Praxis ist es dann auch eher weniger relevant, da AMD meistens 12 statt 8 GB bzw. 16 statt 12 GB bietet. Das ist deutlich mehr als der Unterschied beim VRAM Management. Zeigt aber auch, dass der zusätzliche VRAM bei AMD ein Vorteil gegenüber Nvidia ist, aber auch nicht überbewertet werden sollte. Die Karten brauchen eben grundsätzlich mehr VRAM.
 
Zuletzt bearbeitet von einem Moderator:
Hier das Video.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Es schwankt natürlich von Spiel zu Spiel und eine 100%ige Aussage kann man auch nicht machen, da sowohl AMD als auch Nvidia bei VRAM Mangel natürlich versuchen weniger zu allokieren und bei genug VRAM mehr allokieren. Das heißt perfekt rausmessen ist nicht möglich. Man kann sich nur annähern.

Aber beim Robocop Beispiel sieht man das ganze recht gut, weil bei AMD der Unterschied in der Allokierung zwischen einer 8 und einer 12 GB Karte hier am geringsten ist und die 8 GB Karte bereits volläuft.

Bei 14:29 braucht die Nvidia 8 GB Karte 7274 MB und die 8GB AMD Karte 7994 MB. Die AMD Karte ist im VRAM Limit, was sich bei der Performance bemerkbar macht. Die Nvidia Karte ist 12% schneller während sie ohne VRAM Limit nur 2% schneller wäre (sieht man später im Video)

Bei 14:58 sieht man wie es auf Karten mit mehr VRAM aussieht. Die AMD Karte mit 12 GB belegt hier 8569 MB.
Das sind gerade mal 575 MB mehr als auf der 8 GB Karte. Es war der 8 GB AMD Karte also nicht möglich mit den 8 GB auszukommen, obwohl nur 575 MB hätten eingespart werden müssen z.B. durch agressiveres VRAM management, whatever.

Auf der anderen Seite sieht man, dass Nvidia nur rund 7260 MB auf der 8 GB Karte belegt und 7784 MB auf der 16 GB Karte. Nvidia braucht also selbst bei genügend vorhandenem VRAM weniger als AMD und kann bei der 8 GB Karte sogar nochmal 524 MB einsparen, obwohl das noch gar nicht zwingend notwendig wäre.


Jedenfalls sieht man hier recht deutlich den Unterschied. während AMD 8596 MB auf der 12 GB karte belegt und 8 GB bereits zu wenig sind, braucht Nvidia auf der 8 GB Karte nur 7260 MB.

AMD braucht hier also 18,4% mehr VRAM.
Sorry, dass ich "ca." und "in etwa" verwendet habe. Ist doch egal, ob 16,66% (bezogen auf 12 vs 14 GB) oder "in etwa" 20%. So genau kann mans eh nicht bestimmen und als grober Richtwert wird es wohl reichen.

Zumal man hier nichtmal weiß, wie viel VRAM auf Seiten Nvidia noch eingespart werden könnten, wenn die Karte tatsächlich im VRAM limit wäre. Das VRAM Management arbeitet schließlich noch nicht so agressiv wie es könnte, wenn der VRAM noch nicht voll ist (7260 MB ist eben noch nicht voll).


Ich finde das durchaus signifikant, aber in der Praxis ist es dann auch eher weniger relevant, da AMD meistens 12 statt 8 GB bzw. 16 statt 12 GB bietet. Das ist deutlich mehr als der Unterschied beim VRAM Management. Zeigt aber auch, dass der zusätzliche VRAM bei AMD ein Vorteil gegenüber Nvidia ist, aber auch nicht überbewertet werden sollte. Die Karten brauchen eben grundsätzlich mehr VRAM.
Noch einmal, du hast 20% behauptet, wo kommt diese Zahl vor?
Habe auch ein paar Beispiele .

Du kannst uns sicher Erklären wieso im hier Verlinkten PCGH Hogvarts Bench zum Beispiel die Intel Arc A 770 mit 8GB und 16GB in FHD gleich schnell sind !?


Und wieso die Nvidia RTX 3070 8GB die Amd Rx 6700xt 12GB um gut 11% schlägt ,wenn deiner fachmänischen Meinung nach 8GB in FHD nicht mehr ausreichen .

Erfahrungsgemäss sind Grafikkarten deren Vram tatsächlich nicht mehr ausreicht dann in der Regel eh zu langsam .

Viel hilft eben nicht immer viel :D
Schwachsinn, Horvats wird nicht langsamer, es gibt Textur matsch. FPS ist nicht alles
 
Denn das Problem ist meiner Meinung nach nicht die Hardware, sondern vor allem die Software.
Jein, denn in eine gegebene Menge Speicher bekommt man halt auch nur eine a)bestimmte Menge Bildauflösung X b) z.B. Menge Polygone und c) Texturqualität ohne "tricksen" zu müssen... was auch immer eine Frage der Pixelgröße des Darstellungsgerätes dann ist, weil 4k sehen auf 27" halt deutlich "schärfer" usw. aus als auf 32", 34" usw.

Die VRAM-Knauserei bei v.a. NV dient m.E. auch insbesondere 2 Zwecken:
- Up-Selling, sprich wer faktisch mehr VRAM-Bedarf hat oder "zukunftsicherer" planen/kaufen will, muss deutlich höher investieren
- geplante Obsoleszenz, wenn dann wg. neuen Spielen, besserem Monitor, VR etc. Ersatz gebraucht wird, obwohl vllt? die rohe Rechenleistung der GPU noch locker ausreichen würde, wie z.B. speziell die aktuelle 4070-er Modelle genau da ihre m.E. gravierende Lücke haben und dort das P/L Verhältnis besonders schlecht wird...

AMD wiederum kaschiert mit mehr VRAM die teils fehlende Rohleistung der GPUs ...

Für uns Kunden bleibt's damit bei Loose-Loose...
 
Zurück