Wer von uns beiden wird es wohl besser wissen?
Ich, der sich mit einer GTX 670 durschlägt oder du? Ich kann dir sagen, dass die 2GB eigentlich immer der Grund sind, warum ich ein Spiel nicht spielen kann oder die Details massiv runter drehen muß.
Leider bist du nicht der einzige Spieler, der unter derart veralteter Hardware leidet. Gerade die alten GTX 660 und 670 findet man noch in vielen Rechnen.
Dabei muss man die Einstellungen immer bis fast zur Unkenntlichkeit runter drehen. Der VRAM ist nur ein Teilschuldiger. Kurz gesagt, Kepler geht die Luft aus. Die Architektur ist inzwischen zu alt.
Die Karte bräuchte einfach mehr RAM. Mit 4GB würden absolut alle Spiele drauf laufen.
Das dachte ich auch bei meinen GTX 960ern (2vs4GB VRAM), aber oh wunder oh wunder, nur die min-FPS gehen leicht hoch. Die Karte wird dadurch nicht magisch schneller, weil die GPU bereits im Limit ist.
Was mir mehr geholfen hat, war eine bessere CPU und SSD oder sogar Nvme.
Und zum Thema alle Spiele drauf laufen:
-Eben nicht!
Grafik zwischen 20 bis 40 FPS ist für mich nicht laufen, außer du formulierst das als "geradeso". Da ist eher ein Update fällig und wenn es nur eine Einsteiger-GPU wie die GTX 1060 3GB, oder die RX 470 4GB ist. Die hätten sowohl wesentlich mehr Leistung als auch mehr VRAM.
Aus heutiger Sicht muß ich einfach sagen, dass die R9 7950 klar die bessere Wahl gewesen wäre, ihre 3GB hätten mich wesentlich weiter gebracht.
Vergiss die uralten Karten alle!
Selbst eine GTX 970 oder ähnliche Karten laufen heute am Limit. Sie haben hier und da Achtungserfolge, mehr aber auch nicht!
Inzwischen glaube ich sogar, der langsame GDDR5-Speicher ist oftmals der Grund.
Du hast einfach eine völlig falsche Vorstellung. Wenn etwas nichtmehr in den VRAM passt, dann muß es im normalen RAM gelagert werden. Das resultiert dann in Leistungsverlusten von 90% und mehr. Heutige Spiele wirken dem entgegen, indem sie automatisch die Texturdetails reduzieren.
Das ist jedoch ein Problem der Spieleentwickler.
Je besser der Titel optimiert ist, dest besser läuft er auch auf z.B. Mittelklassekarten. Nur wenn halt wieder die Pfuscher vom Dienst kommen und die Texturen unkomprimiert im Rohformat in den VRAM legen, da würde selbst eine RTX 3090 in die Knie gehen.
Mehr Kapazität löst die Faulheit der Programmierer nicht, sondern verschlimmert das Problem nur!
Texturdetails kosten, wie gesagt, wenig GPU Leistung, weshalb man sie immer hochdrehen sollte, wenn man kann.
Bei Texturdetails stimmt das zu 100%. Allerdings sollt man nie die maximale Stufe nehemen, da dort die Ressourcen hoffnungslos verbraten werden. Eine Stufe darunter hat optische in der Regel kaum Qualitätsverlust, aber die Leistung ist im Vergleich höher.
Früher war das auch bei Schatten und Beleuchtungseffekten so. Mittlerweile sind diese aber GPU-Leistungsfresser und nicht mehr nur vom VRAM abhängig.
Du scheinst wenig Ahnung zu haben. Die Fury X Besitzer sind, mit Rise of the Tombraider, schon wenige Monate nach Erscheinen ihrer Karte, an Grenzen gestoßen. Die Besitzer einer GTX 980Ti und R9 390(X) hatten dagegen keine Probleme. Noch heute ist man mit der GTX 980Ti und R9 3090(X) ganz gut unterwegs, während die Fury X ihre 4GB zu spüren bekommt. Deine Behauptung, es würde vorher die Rohleistung ausgehen, ist einfach nicht haltbar.
Die Fury (X) war eine Marketingtäuschung ohne Ende. AMD hatte suggeriert sie könnten mit dem HBM-Speicher die Nachteile auffangen, was hoffnungslos misslang.
Was Fiji im übrigen ausbremst ist ein gnadenloses CPU-Limit. Mit etwas mehr Zeit wäre die Fury-Reihe sicher ein Monster geworden. Glücklicherweise ist sie in derselben Stagnationsgruppe wie alles nach Maxwell / Hawaii.
Die Karten beherrschen DX 11, das kannst du drehen und wenden, wie du willst. Es gibt kein "vernünftiges" DX 11, sondern nur DX 11. Bei DX 12 sieht es, dank den Featureleveln, etwas anders aus.
Direct X11 war seinerzeit kein bißchen besser als DX12. Das Support-Chaos ging über viele Jahre von pre DX11 Karten bis hin zu Version 11.3. Volle Unterstütztung gab es erst zum Schluss und da ist man teilweise sogar auf Windows 10 und DX12-Features umgeschwenkt.
Mit uralten Karten hast du das zum Beispiel nicht.
Das "irgendwann" kann man aber rausschieben, am besten, mit viel VRAM. Bis Raytracing Pflicht wird, dürften wohl noch 5 Jahre oder mehr vergehen.
Bis dahin wird deine Karte aber vom Leistungslevel stetig nach unten durchgereicht. "irgendwann" wird sie dann bei normaler Entwicklung (duh!) auch von den unteren Klassen der Nachfolger überholt.
Diese haben dann für gewöhnlich:
-bessere & modernere Technik
-Schnelleren VRAM
-weniger Verbrauch(?)
Wenn ordentlich Geld auf den Tisch lege, dann erwarte ich das auch. Hier im Forum zocken die meisten nur in Ultradetails. Das erklärt dann auch Dinge wie "mit Karte XY" oder 8GB kann man nicht zocken.
Ich denke die meisten Forenhelden sind sowieso entweder ahnungslose Poser oder blinde Fanboys. Die üblichen Pauschalaussagen lassen mich zu keinem anderen Schluss kommen.
Was mich halt stört, ist die Schafsherdenmentalität. Einer schreit den Unsinn vor und alle anderen blöken hinterher. So etwas wie Anwendungsszenarien und wer-hat-angemessene Hardware für die jeweiligen Einstellungen findest du fast nicht mehr. Daher mein fieser Verweis auf "Vollidioten".
Eine RTX 3070Ti sollte eigentlich alles auf Ultra schaffen und wenn, dann liegt es an den 8GB VRAM (nur bei Raytracing muß DLSS mithelfen). Bis meine GTX 980Ti abgeraucht ist, hat sie auch noch alles in Ultra geschafft, das ich gezockt haben (FC New Dawn und Anno 1800).
Jain!
Im Prinzip ist eine RTX 3070 oder Ti nichts als die jetzige gehobene Mittelklasse. Ich weiß die jetzige Situation im Hardwaremarkt sagt etwas anderes, aber das ist nun einmal die Wahrheit.
Auch die fast gleich starke 2080 Ti aus der letzten Generation hat nicht "alles" auf Ultra geschafft. Wieso sollte das der Nachfolger auf gleichem Niveau plötzlich tun?
Neue Spiele werden anspruchsvoller. Was heute noch 4k schafft, rutscht morgen auf 1440p ab. Die 3070er Reihe ist ein Opfer hiervon. Mehr VRAM ist nur ein Pflaster auf die Wunder, nicht die Lösung.
-> Damit gleicht man höchsten die üblich miesen Konsolenports aus. Mehr nicht, so leid mir das tut!
Mit anderen Worten, du nimmst eine wesentlich schlechtere Karte, damit du gezwungen bist, früh aufzurüsten. Kann man machen, ich und extrem viele andere, wollen aber etwas länger etwas von ihrer Hardware haben. Da ist ein üppiger VRAM eben wichtig.
Schlechter ist die falsche Bezeichnung!
Manche Käufer wägen halt vorher ab. Rendiert es sich wirklich 100-200€ mehr zu investieren auf eine garantielose Hoffnung? Was wenn die nächste Generation plötzlich viel schneller ist oder das absolute Killerfeature hat.
Dann ärgern sich Teuer-Käufer jedes mal zu Tode und flamen nonstop die Foren und Kommentarspalten zu.
Des Öfteren vererben die "Billig-Käufer" auch ihre Hardware and Freunde oder Familie, die dann wiederum die Grafikkarten bis zum Ultimo verwenden. Geht nur momentan nicht und eine 16GB 3070 Ti macht das auch nicht besser.
Nein, sie erhöht den Preis wahrscheinlich eher für alle. Dagegen bin ich absolut!