Special 16 gegen 12 GiByte VRAM: Geforce RTX 4070 Ti Super vs. RTX 4070 Ti

Definition von "Polemik"

... trifft gewiss nicht auf den Test zu. Messung ungleich Meinung.
Wie schaut es dann in spielbaren Bereichen in QHD mit dem Speicherbedarf aus, oder kauft heutzutage jeder eine 4070Super und betreibt sie in 4K mit maxed out Settings? Was leisten andere Karten? Das ist doch kein Test, das ist das Herauspicken von ein paar Werten und dann bisschen Text dazu um den Propellern Zucker zu geben. Eine einzige Einstellung würde das ganze schon wieder deutlich entschärfen, nur macht man damit eben keine Klicks.
 
Das ist nicht gewollt, man will absichtlich, dass sich die User gegenseitig in die Haare geraten und die Meinung einnehmen, wenn eine Karte egal bei welchen FPS irgendwo in 4K mal schlechte Frametimes wegen Speichermangel bekommt, gleich sämtliche anderen Vorteile ad acta gelegt werden, völlig egal ob das Karten der Konkurrenz bei den Anforderungen dann besser performen würden, oder ob andere Einstellungen auch in Frage kommen als max.
Asu welchem Grund sollte sowas gemacht werden.. (Ich bleibe eher bei den unterschiedlichen Blickwinkeln und Meinungen und die Tatsache das kaum einer richtig ließt, oder zuhört)
Orchestriert aus der Redaktion. Die Kommentare sind immer nur so gut, wie die Informationen aus den vorliegenden Tests und die sind eindeutig polemisch und wenig differenziert.
Genauso wie neue RT Titel in einigen Fällen AMD Karten die Grenzen aufzeigen, so zeigen neue Titel in einigen Fällen 12GB Karten die Grenze auf.

Selbst 16GB werden laut CB schon mal eng, demnach ist alles unter der 4090 ein Kompromiss. Welchen man eigehen will, muss jeder selbst entscheiden. Je nach Gewichtung, kann da aber nie bei raus kommen, das es das eine Flasch gibt.

So kann es je nach Gewichtung gute Gründe für eine 7900XT geben, aber auch genau so gute Gründe für eine 4070ti als Beispiel.

Deswegen kann man nur eine 24GB Karte mit guten Gewissen kaufen. V-ram ist alles.

Deswegen AMD kaufen, bei denen ist alles besser.
Das ist leider schon gefühlt der Unterton im Forum... Aber auch das kann sich ändern, wenn man das nächste mal selber wieder eine Karte von AMD im Rechner hat, weil man dann vielleicht auch wieder ander Argumente hört, wiedergibt, oder sich der Blickwinkel verändert hat.


Ich persönlich rede ja gerne vom RT On Beispiel, weil es meiner Vorliebe entspricht. Das kann auch keiner anders sehen, weil da geht es nur um meine Sichtweise! Ich bin auch nicht der Einzige der das So angeht. Aber natürlich ist das auch nicht zwingend der Großteil der Leute. Das ist mir klar.

Pauschal geht nicht. Weder ist 7900XT pauschal die richtige Empfehlung, noch die 4070ti...
Ja ja, vor einigen Jahren hat man auch behauptet 4GB VRAM reichen für FHD aus, schauen wir uns heute FHD an, da reichen nicht einmal mehr 6GB.
Nicht einmal mehr flächendeckend 8GB!
 
Wirklich notwendig ist es heute nicht, aber wenn man so eine karte 4-5jahre nutzen will, dann kann es schon eng werden

HD speicher wird immer billiger, also werden die texturen immer hochauflösender und benötigen dann natürlich auch mehr VRAM
dazu kommt noch hochskalieren und zwischenbilder. wenn das immer besser funktioniert, dann wird man auch in höherer auflösung spielen bzw kann es sein, dass man dadurch die karte noch länger nutzen kann

ich spiele war thunder auf linux und war überrascht, dass ich nach 2-3 maps 10GB vram nutzung hatte. ich nehme mal an, dass die vorherigen maps noch in speicher lagen, weil genug vorhanden ist, aber das hilft auch der ladezeit und schont die SSD

auf jeden fall gehe ich davon aus, dass die neuen techniken schnell verbessert werden und zum einsatz kommen und dann wird man sich mit nvidia karten doch etwas ärgern, weil dort am vram gespart wurde
 
Das ist doch kein Test, das ist das Herauspicken von ein paar Werten [...]
Und genau das war die Idee. Steht ja auch alles explizit so im Artikel. Die Standard-Benchmarks mit 20+10 Spielen in 4 Auflösungen gab's ein paar Tage vorher. Ich sehe das Problem nicht, ehrlich. Hätten wir geschrieben "Ab jetzt gehören 12-GiByte-Grafikkarten auf den Müll!", ohne weiteren Text, wäre das etwas anderes. :D

MfG
Raff
 
Mehr Info ist zwar gut, aber hier herrscht Fokus.
Ja, soviel Fokus, dass unbedingt jeder die 16GB Karte wollte, obwohl die 12er mit wenigen Kniffen in diesen Extrem-Szenario halt genauso performt.:ka:Erwähnt man aber einfach nicht.Nur ist dann halt die Luft raus.
Es gibt bei euch nicht mal die Möglichkeiten ordentlich nach Hardware Tests zu filtern. Will ich einen Test aus 2023 zu Hardware YX lesen, ist der in dem Chaos nicht auffindbar.
 
Raff das ist alles vergebende Mühe.
war es bei 8Gib Karten und ist es auch bei 12 Gib Karten.

Wenn dann in 2 jahren die Ersten Threads hier im Forum sind weiß man bescheid oder wenn mal wieder bei einem Neuen Spiel gemerkt wird über den VRAM verbrauch.

Klar, ist eine 4070Ti immer noch eine Gute Karte. Sie ist aber leider nicht perfekt-

Und btw. ob eine Karte eine WQHD karte ist oder UHD karte entscheidet erstmal nicht der Hersteller sondern der verbraucher.
Jedenfalls kann ich bei meiner Nv karte die Auflösung frei wählen.
Und wer knapp 900€ für eine Karte ausgibt, gibt vlt auch 600-700€ für einen Monitore aus.
Ist jedenfalls denkbar.
Ja, soviel Fokus, dass unbedingt jeder die 16GB Karte wollte, obwohl die 12er mit wenigen Kniffen in diesen Extrem-Szenario halt genauso performt.:ka:Erwähnt man aber einfach nicht.Nur ist dann halt die Luft raus.
Es gibt bei euch nicht mal die Möglichkeiten ordentlich nach Hardware Tests zu filtern. Will ich einen Test aus 2023 zu Hardware YX lesen, ist der in dem Chaos nicht auffindbar.
Hmm ob du 12Gib Karten verteidigst weil du selber eine hast ?
Naja egal.
Das Argument kann ich auch bringen mit einer AMD Karte mit schwächere RT Performance, dann stelle ich da halt einfach ein paar Settings runter.

Es bleibt damit Nvidia geizt mit Speicher, und AMD ist im Raytracing gut 1 Gen hinten dran.

Wobei ich sage für eine 550€ Karte ist 12Gib jedenfalls noch ok aber die 4070ti kostet knapp 800€ da erwarte ich eigentlich mehr.
 
Da muss man sich überhaupt nicht anstrengen.
Einfach 4K nativ laufen lassen.
Und dann mit 5 FPS auf der Radeon spielen und sich auf die 24GB einen abwedeln? :lol:
Ein Tester kann nichts dafür, wie gut Leute die Tests verstehen.
Der Test ist exakt richtig so wie er gemacht wurde.
Der Test bildet Extremfälle in 4K bei maximalen Settings ab. Das ist das was du dort siehst.
Mit einer AMD Karte könntest du das so mit RT und allem gar nicht in dieser FPS Höhe spielen können, ergo bringt dir der Speicher dort auch nichts.

Das ist also nur ein reiner Vergleich zwischen 4070Ti 12GB und 4070 Ti Super 16GB und zeigt im Endeffekt nicht einmal, dass der Griff zur 16GB Variante besonders nötig ist, weil 4K maximale Details, die so kaum jemand, auf seiner 12GB Karte nutzen wird auch von der FPS Höhe problematisch sind. Ergo spielt er in viel niedrigerer Auflösung mit mehr FPS und hat dann gar keine Probleme, oder er schiebt den Regler nicht ganz nach rechts und voila, Problem behoben.

Ich könnte genauso eine Überschrift wählen und sagen: Griff zur 16GB Variante für den Aufpreis kaum sinnvoll und dann die 3 Beispiele nennen und erklären ab welchen Settings und Auflösungen es zu Problemen kommt.
Das will man aber nicht. Man spielt das spiel "Panik" und möchte diese unwahren Aussagen von Propellern von Firma XY im Forum haben, die zu einfach gestrickt sind um eine Differenzierung vornehmen zu können.
An der 4070TiS sieht man gut, das <16GB in dieser Leistungsklasse im Jahr 2024 nichts mehr zu suchen hat. Die Frametimes sprechen für sich und die Games mit ähnlichen Anforderungen werden zunehmen.
Schau dir den ersten Beitrag und den danach an. Eine völlig deplatzierte Aussage, die auch unwahr ist und nicht den Testergebnissen entspricht. PCGH Raff liked aber den Kommentar. Wenige Fälle in 4K mit allem auf ultra schließen heutzutage 12GB Karten in der Leistungsklasse völlig aus. Was ein Quatsch. Dann muss ich ja meine 4070 Super mit ihren bisher 5 bis 10GB Verbrauch schon 2025 wegschmeißen müssen. Und so schnell wird da auch nichts zunehmen.

Die letzte Zunahme fand mit den Konsolen Ende 2020 statt. Vor 2027 wird das allermeiste noch völlig problemlos mit 12GB Karten spielbar sein.
 
Zuletzt bearbeitet:
Raff das ist alles vergebende Mühe.
war es bei 8Gib Karten und ist es auch bei 12 Gib Karten.
Das ist nicht wirklich worum es ging! ;) Es ging auch nicht um Entgleisungen einzelner... Aber hier im Thread ist wie immer ein 12GB ist Schrott gebashe gemacht worden. (Etwas extrem formuliert)
Wenn dann in 2 jahren die Ersten Threads hier im Forum sind weiß man bescheid oder wenn mal wieder bei einem Neuen Spiel gemerkt wird über den VRAM verbrauch.
Absolut keiner bezweifelt das 16GB besser sind, als 12GB.
Klar, ist eine 4070Ti immer noch eine Gute Karte. Sie ist aber leider nicht perfekt-
Hat keine behauptet. Die ist aber nach wie vor nicht mal pauschal schlechter als eine 7900XT. Das hängt nämlich auch am User. Was dieser haben möchte und zu welchen Kompromissen dieser bereit ist.
Und btw. ob eine Karte eine WQHD karte ist oder UHD karte entscheidet erstmal nicht der Hersteller sondern der verbraucher.
Jupp, meine Karte arbeitet auch in 4k neuerdings und das sogar deutlich besser als ich gedacht hätte.
Jedenfalls kann ich bei meiner Nv karte die Auflösung frei wählen.
Genau wie Settings, die alle nunmal bedienen müssen, je nach eingesetztem Budget und Ziel Framerate.
Und wer knapp 900€ für eine Karte ausgibt, gibt vlt auch 600-700€ für einen Monitore aus.
Ist jedenfalls denkbar.

Auf jeden Fall.
 
Klasse Analyse, kann man jedem an den Kopf werfen, der die 12 GB rechtfertigen will.
Naja, ich glaube in dieser Form hat niemand 12 GB gerechtfertigt.

WQHD statt UHD wäre hier deutlich praxistauglicher gewesen; selbst unter den größten Nvidia-Verfechtern kann ich mich an keinen erinnern, der eine 12-GB-70er-Karte als zukunftstaugliche UHD-Karte gefeiert hätte. Das war und ist überhaupt nicht die Zielgruppe. Hier trotzdem UHD zu verwenden, nur um den Speicher möglichst schnell zum Überlaufen zu bekommen, ist jetzt schon etwas billig.
 
Naja, ich glaube in dieser Form hat niemand 12 GB gerechtfertigt.

WQHD statt UHD wäre hier deutlich praxistauglicher gewesen; selbst unter den größten Nvidia-Verfechtern kann ich mich an keinen erinnern, der eine 12-GB-70er-Karte als zukunftstaugliche UHD-Karte gefeiert hätte. Das war und ist überhaupt nicht die Zielgruppe. Hier trotzdem UHD zu verwenden, nur um den Speicher möglichst schnell zum Überlaufen zu bekommen, ist jetzt schon etwas billig.
Ich habe die für WQHD gekauft und nach spontanem und unerwartetem Wechsel auf 4k konnte ich feststellen, das die dort besser läuft als ich ursprünglich dachte.
 
Ich sehe schon, die Settings hätten einen expliziten Absatz gebraucht, da die Info in den Frametime-Grafiken untergeht. Intern ist jedes der drei Beispiele weit von UHD entfernt. :) Merke ich mir für das nächste Mal (auch wenn ich es befremdlich finde, dass niemand so teuren Grafikkarten UHD zutraut).

MfG
Raff
 
Pauschale Aussagen sind fast nie richtig. :-)
Klar, deshalb kann man nun jedem diesen "Test" hier an den Kopf werfen, der eine 12GB Karte empfiehlt.
Völlig undifferenziert und deplatziert mit 3 ausgewählten Kirschen in 4K mit max Settings inkl. RT+FG.
Du likest pauschale Falschaussagen und machst reißerische Tests. Das war die letzte PCGH die ich käuflich erworben habe.
Screenshot 2024-01-30 152053.png
 
Klar, deshalb kann man nun jedem diesen "Test" hier an den Kopf werfen, der eine 12GB Karte empfiehlt.
Völlig undifferenziert und deplatziert mit 3 ausgewählten Kirschen in 4K mit max Settings inkl. RT+FG.
Du likest pauschale Falschaussagen und machst reißerische Tests. Das war die letzte PCGH die ich käuflich erworben habe.
Es tut mir leid, wenn du das Gefühl hast, das falsche Produkt erworben zu haben, doch das ändert nichts an den tagesaktuellen Daten, die du in dieser Form nur bei uns bekommst. Es ist definitiv doof gelaufen, dass kurz nach dem Release der RTX 4070 Ti, die wir als gut, wenngleich teuer bewertet haben, diverse VRAM-Fresser erschienen. Deswegen die ganze Liste/Tabelle und die drei Frametime-Beispiele mithilfe des guten alten "Lalala, wenn ich die Augen zumache ..." abzutun, ist aber keine Lösung. Wir informieren ganz bewusst über Grenzfälle, die stets Wegweiser sind. Was heute eng ist, reißt morgen. Mit der Information geht jeder anders um.

MfG
Raff
 
Man nehme eine Karte die vom Hersteller als WQHD Karte beworben wurde Ballere sie in UHD mit allem auf Anschlag rechts zu und kommt zur Erkenntnis das der Speicher überläuft. :stupid:
 
Das war die letzte PCGH die ich käuflich erworben habe.
Mit dem gesparten Geld kannst du dir weitere 12GB Vram Karten kaufen. Wieso gehst du jetzt Raff so an, die Wahrheit und der Fehlkauf tun wohl weh? Es gab genug Warnungen vor den 12GB Vram-Krüppeln, selber Schuld.
Unglaublich was für Soldaten Nvidia in Foren hat, die sie bis aufs Blut verteidigen :D
 
Asu welchem Grund sollte sowas gemacht werden.. (Ich bleibe eher bei den unterschiedlichen Blickwinkeln und Meinungen und die Tatsache das kaum einer richtig ließt, oder zuhört)

Genauso wie neue RT Titel in einigen Fällen AMD Karten die Grenzen aufzeigen, so zeigen neue Titel in einigen Fällen 12GB Karten die Grenze auf.

Selbst 16GB werden laut CB schon mal eng, demnach ist alles unter der 4090 ein Kompromiss. Welchen man eigehen will, muss jeder selbst entscheiden. Je nach Gewichtung, kann da aber nie bei raus kommen, das es das eine Flasch gibt.

So kann es je nach Gewichtung gute Gründe für eine 7900XT geben, aber auch genau so gute Gründe für eine 4070ti als Beispiel.


Das ist leider schon gefühlt der Unterton im Forum... Aber auch das kann sich ändern, wenn man das nächste mal selber wieder eine Karte von AMD im Rechner hat, weil man dann vielleicht auch wieder ander Argumente hört, wiedergibt, oder sich der Blickwinkel verändert hat.


Ich persönlich rede ja gerne vom RT On Beispiel, weil es meiner Vorliebe entspricht. Das kann auch keiner anders sehen, weil da geht es nur um meine Sichtweise! Ich bin auch nicht der Einzige der das So angeht. Aber natürlich ist das auch nicht zwingend der Großteil der Leute. Das ist mir klar.

Pauschal geht nicht. Weder ist 7900XT pauschal die richtige Empfehlung, noch die 4070ti...

Nicht einmal mehr flächendeckend 8GB!
Welches Spiel bitte läuft mit 12 Gb nicht ohne dass es unspielbar ist weil die GPU Leistung am Ende ist.
Eine 7900XT muss aktuell Settings Reduzieren wo eine 4070 mit 98 Fps 1080p Pathraching Ultra schafft in Cyberpunk.
Und dazu noch fast die Hälfte an Verbrauch hat, diese ständige aber der Vram ist so eine Strohman Argumentation.
In Zukunft könnte es sein, es ist aber nicht in Zukunft schon so dass AMD Karten mit RT Probleme haben.
Resi 4 behauptet es braucht 14gb, tatsächlich kommt es nicht mal an 11Gb ran 10,6 waren es in 4K.
Last of Us ist da sogar noch am schlimmsten hat aber das Konsolen System beim Port einfach übernommen.
Also Speicher für das System zu resverien daher kommt der Speicherhunger, wenn pro auf Auflösung es imemr mehr
resveriert. Denn am PC braucht man das nicht und leider hat man es vergessen zu entfernen. Tolle Arbeit nennt man das, wenn sogwas
beim Release noch bleibt.

Forspoken hat die Bugs zum Großteil gefixt.
 
Es tut mir leid, wenn du das Gefühl hast, das falsche Produkt erworben zu haben
Bis dahin gehe ich ja mit.
, doch das ändert nichts an den tagesaktuellen Daten, die du in dieser Form nur bei uns bekommst. Es ist definitiv doof gelaufen, dass kurz nach dem Release der RTX 4070 Ti, die wir als gut, wenngleich teuer bewertet haben, diverse VRAM-Fresser erschienen.
Darum geht es nicht.

Nur ein Beispiel, für Nutzer XY.

XY möchte so oft wie möglich, so viel wie möglich RT nutzen. Der jenige ist mit keiner anderen Karte bis zu dem Preis wirklich besser beraten. Andere Karten verschieben nur die Stärken und Schwächen aber sicher nicht in ein pauschal besseres Gesamtergebnis.

Das ist nicht bestandteil eures wirklich guten Testes (ich weiß), aber man sieht wo das im Forum hinführt.
Deswegen die ganze Liste/Tabelle und die drei Frametime-Beispiele mithilfe des guten alten "Lalala, wenn ich die Augen zumache ..." abzutun, ist aber keine Lösung. Wir informieren ganz bewusst über Grenzfälle, die stets Wegweiser sind.
Die es nunmal auf beiden Seiten gibt (auch hier weiß ich das du gerade nur vom VRam sprichst), ob bei AMD RT Leistung, oder bei Nvidia der VRam.
Was heute eng ist, reißt morgen. Mit der Information geht jeder anders um.
Auch darum geht es nicht.
Keiner bezweifelt das der VRam knapper wird ;). Die RT Leistung von AMD aber eben auch.

Deswegen findet ich auch eine pauschale Empfehlung, oder nicht Empfehlung grenzwertig.

Ich persönlich würde eher darauf hinweisen, welche Stärken und Schwächen die jeweiligen Karten haben und jeder für sich selbst entscheiden muss, mit welchen Kompromissen derjenige Leben will.

Tatsächlich, lass es Zufall sein wäre mir mit AMD öfter die RT leistung ausgegangen, als bei Nvidia der VRam ausgegangen ist.

Ich bin auch nicht der einzige der so denkt, das kann man in solchen Threads öfter merken.
Welches Spiel bitte läuft mit 12 Gb nicht ohne dass es unspielbar ist weil die GPU Leistung am Ende ist.

Hatte gestern in Alan Wake 2 mit alles utlra (also auch RT/PT) in 4k, nach dem mehrfachen Optionswechsel einen Absturz.

Bis dahin war das tatsächlich spielbar, mit DLSS P und FG+RR.
Sah auch Totschick aus.

(sah übrigens mit Texturen auf hoch, statt ultra und noch ein, zwei Settings, auf hoch, statt ultra, aber weiterhin mit RT/PT genauso totschick aus) ( RT/PT aus, reduzieren hätte einen größeren optischen Unterschied bedeutet[habe ich getestet])
Eine 7900XT muss aktuell Settings Reduzieren wo eine 4070 mit 98 Fps 1080p Pathraching Ultra schafft in Cyberpunk.
Und dazu noch fast die Hälfte an Verbrauch hat, diese ständige aber der Vram ist so eine Strohman Argumentation.

Grundsätzlich ist das mit dem VRam schon wichtig. Je nach Nutzervorlieben, kann dieser für sein Geld aber keine bessere karte kaufen.

Für viele andere, mit anderen Vorlieben ist es umgekehrt und für den wäre eine Nvidia keine Option.
In Zukunft könnte es sein, es ist aber nicht in Zukunft schon so dass AMD Karten mit RT Probleme haben.
Sehe ich auch so, die VRam Engstelle für Nvida, ist nicht wirklich was anderes, als die RT Engstelle für AMD.
Resi 4 behauptet es braucht 14gb, tatsächlich kommt es nicht mal an 11Gb ran 10,6 waren es in 4K.
Wird aber weiterhin bis heute immer wieder hergenommen.
Last of Us ist da sogar noch am schlimmsten hat aber das Konsolen System beim Port einfach übernommen.
4k Nativ kein Problem mit 12GB!
Also Speicher für das System zu resverien daher kommt der Speicherhunger, wenn pro auf Auflösung es imemr mehr
resveriert. Denn am PC braucht man das nicht und leider hat man es vergessen zu entfernen. Tolle Arbeit nennt man das, wenn sogwas
beim Release noch bleibt.

Forspoken hat die Bugs zum Großteil gefixt.
Mit dem gesparten Geld kannst du dir weitere 12GB Vram Karten kaufen. Wieso gehst du jetzt Raff so an, die Wahrheit und der Fehlkauf tun wohl weh? Es gab genug Warnungen vor den 12GB Vram-Krüppeln, selber Schuld.
Unglaublich was für Soldaten Nvidia in Foren hat, die sie bis aufs Blut verteidigen :D
Gab ja je nach Anforderung keinen Fehlkauf!
 
Zuletzt bearbeitet:
Ob irgendetwas "spielbar" ist ist generell subjektiv: Wer schon länger spielt, der kennt noch die Zeiten, wo 30 FPS vollkommen ok waren und 60 FPS wahnsinnig schnell(meist wenn neue Monitorauflösungen anfingen sich durchzusetzen und die erforderliche Leistung dementsprechend unverhältnismäßig stark zunahm).
Später bei SLI/Crossfire hieß es früher: Schöne 100 FPS, aber die Mikroruckler(Frametimes)! Und jetzt soll das umgekehrte Argument plötzlich gut sein? Lieber Ruckeln bei 60FPS und 12Gb, als butterweiche 30FPS bei 16Gb? Zum Mikroruckeln damals hat bekannterweise nicht nur die schlechte Softwareoptimierung beigesteuert, sondern auch die oft magere Speicherausstattung bei gleichzeitiger Verlockung die Auflösung anzuheben, wegen der hohen FPS. Das Ergebnis war nicht allzu selten ein Speicherüberlauf mit den bekannten Folgen. Einziger Vorteil war, dass dank nicht vorhandenem drastischen LOD-Streaming Ultra immer Ultra war und der PC dann halt in die Knie ging. Gnadenlos und ehrlich.

Was heutige Enthusiasten aber wirklich beachten sollten(und ich denke hier größtenteils solche unterwegs), ist die Tatsache, dass Texturdetails beispielsweise kaum Leistung und quasi nur Speicher kosten. Und Texturen sind unbestritten der optisch einflussreichste Regler neben der Auflösung.
HD speicher wird immer billiger, also werden die texturen immer hochauflösender und benötigen dann natürlich auch mehr VRAM
dazu kommt noch hochskalieren und zwischenbilder. wenn das immer besser funktioniert, dann wird man auch in höherer auflösung spielen bzw kann es sein, dass man dadurch die karte noch länger nutzen kann
...kurz nach dem Release der RTX 4070 Ti, die wir als gut, wenngleich teuer bewertet haben, diverse VRAM-Fresser erschienen.
Max Payne2 beispielsweise sieht noch "akzeptabel" aus, weil bei den Texturen wirklich all-in gegangen wurde(fällt mir ein, weil da gerade ein RTX-Remix Artikel dazu erschien). Crysis(original) kann man sich wegen der matschigen Texturen hingegen nicht mehr geben, das wirkt einfach altbacken, obwohl die Beleuchtung nach wie vor stimmig ist. Die niedrig aufgelösten Texturen wirken da wie Fremdkörper.

Bei überfülltem Speicher muss man die Texturdetails irgendwann reduzieren um die Ruckelei loszuwerden. Die Person mit viel Grafikspeicher kann da nach wie vor voll aufdrehen. Dazu kommt noch, dass aus dem 10FPS-Abstand jetzt mit der Zeit nur noch 5 oder weniger in 1-2 Jahren werden: Da sind die einzigen Kriterien dann noch Optik und Frametimes, weil bei den FPS nichts mehr an Unterschied merkbar ist. Man kann in dieser nicht zu fernen Zukunft auch als 12Gb Besitzer die Regler auf Ultra lassen bei den Texturen, dann übernimmt halt die Engine das Problem mittels hartem LOD-Streaming: Man sieht Matsche, aber der Regler steht auf Ultra(gab zu Battlefield mal einen ausführlichen Artikel hier mit einer anderen berüchtigten Speichermangel-Karte). Die FPS sind in der Folge noch sprunghafter, weil der freie Speicher dann wieder mehr zulässt und eine primitive Speicherverwaltung quasi in einem Schweinezyklus hängt. Mit genug Speicher hingegen bekommt man immer die schönen Texturen, auch wenn es nur 30 FPS sind, dafür aber mit spielbaren Frametimes.
 
Wie schaut es dann in spielbaren Bereichen in QHD mit dem Speicherbedarf aus, oder kauft heutzutage jeder eine 4070Super und betreibt sie in 4K mit maxed out Settings?
Klingt für mich ein bisschen wie "Toll, CPU-Test in 720p, wo sind denn die Auflösungen in denen man normalerweise spielt??? So bringt mir das nichts, völlig realitätsferner Test!!"
Ein Test/Benchmark darf und soll Worst-Case-Scenarios abbilden und Hardware an ihren Grenzen testen, dann kann ich wenigstens grobe Schlüsse auf Langlebigkeit bzw. die Performance morgen & übermorgen ableiten, und weiß gleichzeitig, dass wenn eine Karte den Worst-Case ordentlich schultert, in "normalen" Szenarien keine Probleme zu erwarten sind. Mit einer durchschnittlichen Performance in einem durchschnittlichen Szenario ist erstmal niemandem geholfen, wenn ich erwarte, ein Spiel sauber in Auflösung XYZ zocken zu können, weil die Karte im Schnitt ~66 fps macht, ich ingame aber zwischen Passagen mit 40fps und welchen mit 85 schwanke (fiktives Beispiel).
Man nehme eine Karte die vom Hersteller als WQHD Karte beworben wurde Ballere sie in UHD mit allem auf Anschlag rechts zu und kommt zur Erkenntnis das der Speicher überläuft. :stupid:
Diese willkürliche Einteilung in "Karte ABC ist eine Full-HD/WQHD/4K-Karte" ist doch auch nur Marketinggewäsch, um Flaschenhälse rechtfertigen zu können. Vergleich mal die Rohleistung einer 4070(ti) mit einer 3080 10GB, die ihrerzeit definitiv als 4K-Karte beworben wurde. Solange die reine Leistung des Chips stimmt, ist das absoluter Quatsch, die Performance in höheren Auflösungen mit zu wenig Speicher/zu schmaler Bandbreite wieder zu schmälern bzw. mit dieser künstlichen Einteilung schönreden zu wollen.
Welches Spiel bitte läuft mit 12 Gb nicht ohne dass es unspielbar ist weil die GPU Leistung am Ende ist.
Achtung, mit der Einstellung hab ich vor über 10 Jahren schon einen Fehlkauf in Form der GTX 770 2GB getätigt. "Bevor die 2GB nicht mehr reichen, reicht die Chipleistung schon lange nicht mehr". Fakt ist: Für jeden, der seine Karte länger als 1-2 Generationen behalten möchte, war es bisher immer umgekehrt. Jede Karte mit Speicherpolster performt hintenraus besser, gerade wenn ihr so langsam die allgemeine Leistung ausgeht. Eine 770 4GB ist deutlich besser gealtert als die 2GB Variante, eine 970 hatte ihre "3,5GB"-Problemchen, eine 1060 3GB hat gegen eine mit 6GB nach wenigen Jahren kein Land mehr gesehen, AMDs superschneller HBM konnte die zu geringen 4GB auch nicht mehr auf das Niveau von späteren 6 oder 8GB Karten hieven und so weiter und so fort. Eine 3060 mit 12GB wird besser altern als eine 3060ti mit 8GB. Eine 3080 mit 12GB besser als eine mit 10 und eine 4070ti mit 16 besser als eine mit 12. Nur weil es quasi "jetzt gerade für viele Titel noch problemlos reicht", ist eine vernünftige Speicherausstattung für jeden, der nicht permanent aufrüstet enorm viel wert.
Es ist definitiv doof gelaufen, dass kurz nach dem Release der RTX 4070 Ti, die wir als gut, wenngleich teuer bewertet haben, diverse VRAM-Fresser erschienen. [...] Wir informieren ganz bewusst über Grenzfälle, die stets Wegweiser sind. Was heute eng ist, reißt morgen. Mit der Information geht jeder anders um.
Genau das! Niemand kann in die Zukunft schauen und "Zukunftssicherheit" bei Hardware-Kauf & -beratung ist sowie immer ein Unwort, aber umso wichtiger ist es, dass man über das Testen von Grenzfällen versucht, einen Ausblick zu geben, wohin die Reise geht. Speicherverbrauch hat langfristig noch nie stagniert, und schon gar nicht, während sich eine neue Konsolengeneration durchsetzt. Die Speicherausstattung von PS4 & Co. war damals ja auch schon Indikator, dass mit 2 und 4GB Karten nicht mehr lange was zu holen ist. Und da liegen noch nicht die maximalen Settings/Texturen/RT/PT/Mods & Co. an, wie das auf dem PC oft der Fall ist, sondern die Speicherausstattung der Konsolen ist der kleinste gemeinsame Nenner!
Bei überfülltem Speicher muss man die Texturdetails irgendwann reduzieren um die Ruckelei loszuwerden. Die Person mit viel Grafikspeicher kann da nach wie vor voll aufdrehen.
Ebenfalls richtig. Klar, wenn ich nur Rocket League in FHD zocken will, benötige ich keine dicke Karte. Aber das man Mehrleistung & Reserven so gut wie immer ausnutzen und gebrauchen kann, scheinen viele Leute nicht zu begreifen. Gerade in Zeiten von DSR und Co. ist man ja auch nicht mehr an die Monitorauflösung gebunden. Ich habe selbst noch einen FHD-Beamer, über den ich viele SP-Titel spiele. Kaufe ich mir deshalb eine von Nvidia "für Full HD" beworbene Karte? Nein, ich freu mich, dass ich die Renderauflösung im Treiber auf WQHD oder UHD hochsetzen kann, mir über maximale Textureinstellungen keine Gedanken machen muss und dennoch Reserven habe, um die bei DLP-Beamern fehlende VRR zu kompensieren.
 
Zurück