Call of Duty Black Ops Cold War im Benchmark-Test: Speicherfresser mit edlen Texturen und Raytracing

Schöner Test :daumen: .
Dass der VRAM der 3070 für 4k + RT nicht genügt ist wenig verwunderlich, schade, dass die 3080 nicht dabei war, wäre interessant gewesen ob 10 GB reichen.
Zumindest die 11 GB meiner 2080 Ti genügen dafür (die Leistung ohne DLSS aber natürlich nicht).
Ich finde DLSS Performance in 4k durchaus akzeptabel, ja, es sieht etwas schlechter aus, aber im MP nehme ich den zusätzlichen FPS Boost gerne mit, immerhin sieht es immer noch um Welten besser aus, als, wenn man händisch die Auflösung runterstellt.

Ich finde man sollte die Konsolen FPS nicht mit den PC FPS vergleichen, die realen Settings sind nicht mal im Ansatz vergleichbar und RT Umgebungsverdeckung wird auch nicht gerade kostenlos sein.
Bei AMD braucht es aber auf jeden Fall einen Treiber der die RT Leistung fixed.
 
Gibt es da einen großen Unterschied, so dass sich der VRam Impact auszahlt, oder ist dass in 1440p zu vernachlässigen?
Würde sich wohl bei AMD als auch bei Nvidia doch einiges ändern, wenn der VRam nicht überläuft.
Anbei mal zwei Bilder. Die VRAM Allokation sinkt auf die Hälfte. Ich habe den Afterburner beim zweiten Bild zusätzlich angeworfen, um mehr Infos zu zeigen. Die Qualität beurteile selbst.

Download

Und noch zwei komprimierte Previews.

Ulta Textures + HD Pack on
Ulta_Textures_HD_Pack_on.jpg


High Textures + HD Pack off
High_Textures_HD_Pack_off.jpg
 
Ernsthaft PCGH ihr traut euch zu schreiben das ihr Textur Probleme hattet mit RT und 4K auf einer 3070!!!

Das war also euer Problem nicht die unter 30 Fps, sondern der heilige VRAM nicht das die GPU Leistung gar nicht reicht?
Ohne Witz ihr betreibt schon seid Jahren diesen Vram Unsinn, GPU Leistung ist längst am Ende aber he der Vram reicht nicht.
Die Karte gehört nicht mal zu dem 4K Karten aber ihr tut so als sei das so. Digital Foundry hat sogar angesprochen wie unsinnig mehr wie 8GB
auf der Preis/Leistungsklasse ist.
Was sagten sie noch das es kein Spiel gibt wo eine 3080 mit dem Vram Probleme bekommt.
16Gb auf einer 6800 wurden auch als unnötig bezeichnet, sie sollte 8 Gb haben sagten sie.
[...]

Hast du dir mal die Mühe gemacht, auch den Text zu lesen? Da wird nicht ausdrücklich kritisiert, dass die 8 GiByte nicht für UHD reichen (das sagen wir ja auch tatsächlich schon eine Weile), sondern...

Artikel schrieb:
Dass die 8 GiByte für Ultra HD samt HD-Texturen-Paket und maximale Raytracing-Qualität nicht ausreichend sind, mag dabei noch einleuchtend wirken. Allerdings ist die Situation deutlich kritischer: Denn selbst in Full HD samt DLSS auf der Stufe "Qualität" (also eine effektive Renderauflösung von 1080p mal 0,67 - das entspricht in etwa 720p) zeigen sich mit der RTX 3070 noch verspätet nachladende Texturen.

Mit Bild. (Die Palmen links in der Mitte).
RTX-3070-Raztracing-FHD-DLSS-Speicher-ueberfuellt3-pcgh.jpg



Also für mich bleiben zwei Sachen hängen:

AMD und RT wird in dieser Generation nichts
Nvidia und RT wird in dieser Generation nichts
wobei AMD klar schlechter ist, aber spielbar sind beide nicht, bei NV würde die Leistung wohl reichen, aber der VRAM ist zu knapp. HighFPS Gaming wird es mit beiden nicht geben!

Mein Eindruck ist eher, das eine saubere Unterstützung beider Hersteller relativ viel Optimierungsaufwand bedeutet und dass da aktuell einfach (noch) nicht genügend Aufwand betrieben wird. Solange das nicht gewährleistet ist, wird Raytracing zumindest bei einem der Hersteller eher bescheiden laufen (derjenige, der die nötigen Optimierungsarbeiten am wenigsten unterstützt bzw. gesponsort hat). Auf den Konsolen sieht man derweil, wie Raytracing gut optimiert laufen kann.

Gruß,
Phil
 
Zuletzt bearbeitet:
Mir fehlt bei dem Test letztlich die Analyse der CPU-Leistung mit RT on in Außenarealen. Das läuft so schlecht, dass ich RT sogar grundsätzlich abgeschaltet habe. Das ist ein dermaßen wichtiger Punkt, wie kann das fehlen?
 
Ich finde selbst DLSS Quality als gerade so ausreichend im Vergleich zu SMAA2x.
Es ist schon deutlich unschärfer. Zwar sehen die Geometrie ordnetlich aus aber alles andere wie Texturen und diese Netz sind einfach schlechter.
 
@gaussmath
Ich danke Dir für die Screens. Hab die mal runtegeladen, weil ich dachte..wtf warum wird der doppelte
VRam gebraucht für tatsächlich fast nichts?
Lohnt sich m.M.n absolut null in 1440p. Wer den VRam dazu hat-RTX 3090- gerne, aber jeder andere sollte diesen
sinnlosen VRam Killer meiden.
 
Wie viel den Nutz Ultra Text + High Res jetzt ?
Dedicated (AB) = Allocation = D3D (CapFrameX)

Wir sollten das vielleicht mal umbenennen, aber D3D ist so schön kompakt. Heißt in HWiNFO übrigens auch so.
Lohnt sich m.M.n absolut null in 1440p. Wer den VRam dazu hat-RTX 3090- gerne, aber jeder andere sollte diesen
sinnlosen VRam Killer meiden.
Kann man sich drüber streiten. Für entfernte Objekte kann sich das lohnen, aber man achtet ja primär auf die nähere Umgebung?! Im MP sollte man das bloß ausschalten. Ich hab's natürlich an, weil die 3090 mit ihren 24GB darüber lacht. ^^
 
AMD und RT wird in dieser Generation nichts
Nvidia und RT wird in dieser Generation nichts
wobei AMD klar schlechter ist, aber spielbar sind beide nicht, bei NV würde die Leistung wohl reichen, aber der VRAM ist zu knapp.
Du kannst auch einfach die Texturen nur auf hoch stellen? Muss ja nicht immer alles auf Anschlag stehen und mit einer 3080 ist RT auch flüssig. Die 6800XT wird auch etwas über 60 FPS liegen. Früher haben wir uns mit 30 und weniger begnügt und heute werden 60 FPS als unspielbar dargestellt.
 
@gaussmath
Ich danke Dir für die Screens. Hab die mal runtegeladen, weil ich dachte..wtf warum wird der doppelte
VRam gebraucht für tatsächlich fast nichts?
Lohnt sich m.M.n absolut null in 1440p. Wer den VRam dazu hat-RTX 3090- gerne, aber jeder andere sollte diesen
sinnlosen VRam Killer meiden.
Das dachte ich mir gerade auch. :huh: Ich kann da keinen wirklichen Unterschied erkennen.
Interessant wäre jetzt, wie sich die 3070 ohne das HD Paket verhält.
 
Mir fehlt bei dem Test letztlich die Analyse der CPU-Leistung mit RT on in Außenarealen. Das läuft so schlecht, dass ich RT sogar grundsätzlich abgeschaltet habe. Das ist ein dermaßen wichtiger Punkt, wie kann das fehlen?
Hab RayTracing zunächst gar nicht mit Blick auf eventuelle Auswirkungen auf die CPU-Last betrachtet, aber ich glaub langsam auch dass es da Abhängigkeiten gibt.
Der CPU-Optimierungspatch für WatchDogs Legion war hier letzte Woche z.B. auch hauptsächlich für eine bessere Performance unter Nutzung von RayTracing (mit DLSS) förderlich.
 
Ich hatte im Hinterkopf, dass Zen 3 ein bisschen schneller ist als Intel. Aber der Ryzen 9 zieht ja Kreise um die Intel-CPUs, das sind ja deutlich über 50% Mehrleistung in einem Spiel!!!
 
Während AMD wieder den Zuschlag für die Konsolenarchitekturen bekommen hat und sich offensichtlich priorisiert darauf konzentrierte, hat Nvidia in der gleichen Zeit , wie ich finde, mit kluger Voraussicht Raytracing und wertige Zusatzfeatures (siehe DLSS) im PC-Sektor erfolgreich angestoßen.
Das war/ist teuer für Nvidia und die kaufwilligen Kunden, welche neueste Features mitsamt halbwegs adäquater Leistung haben woll(t)en, aber es hat funktioniert:
Raytracing ist ganz einfach das "current big thing" - egal was man davon individuell/persönlich halten mag.

Man musste/muss die RTX20x0/RTX30x0 weiterhin nicht zwangsweise wegen der Features haben, aber als PS5- und 3700X/RX5700XT-Besitzer (bin also "Voll-AMD", wenn auch kein Fanboy) muss ich schon mal sagen:
Nur so geht's voran. Nvidia hat vllt nicht alles (siehe VRAM...), aber sehr vieles richtig gemacht und hat es dabei geschafft sich wertige Alleinstellungsmerkmale gegenüber den Enthusiasten und Early Adopters zu erarbeiten.

AMD hat nach vielen Jahren zwar endlich in der GPU-Leistung aufschließen können, aber hat meiner Meinung nach sowohl bei den Konsolen als auch bei Grafikkarten ein gutes Stück zu wenig Fleiß- und Pionierarbeit gezeigt.
Ich gehe davon aus, dass vor ca. 3-4 Jahren mit Sony/Microsoft die Gene für die aktuellen Konsolen festgelegt wurden und wage zu behaupten: Man hat sich grob verzettelt und nur das Nötigste getan, um 2020 zumindest marketingwirksam (yess... "8K60" / "4K120" / "Raytracing" / "wow") in der Theorie attraktiv und aktuell zu wirken.
Denn die Realität (siehe dieser Techniktest) sieht halt ganz anders und ernüchternd aus.

Ordentliches 4K60-Gaming in den neuesten Spielen <mit> den neuesten optischen Schmankerln (RT halt) sollte heute nun wirklich nicht mehr nur einer 1500€ Grafikkarte (3090) oder einer Nutzung von DLSS vorbehalten sein.
Und die Konsolen?
Man quält die Nutzer zwangsweise mit einer Wahl zwischen "Next-Gen-Optik" oder "60FPS" und das gefällt mir persönlich überhaupt nicht: Ich will auf der Konsole nicht wählen müssen. Ich will zumindest auf der Konsole von den Entwicklern den aus ihrer Sicht besten Kompromiss vorgesetzt bekommen und der sollte heutzutage auch hier zumindest annähernd 4K60 mit wegweisender Optik sein...
 
Vielen Dank für den ausführlichen Test und die ganzen Details/Eindrücke.

Gut gemacht. Thx. :daumen:
Schon interessant.

Hoffe dass ich evtl. noch so n Key zugeschickt kriege. War das nicht im Angebot/Bundle mit 3080 Kauf ?
Hatte ja letztens erst zugeschlagen. 14 Tage sind glaub ich noch nicht ganz rum.
Falls ich da n Key zu kriege, kann ich da auch mal mit herumtüfteln, mit meiner etwas anderen Herangehensweise. :D
Würde mir sicher Spaß machen.

Bis dahin zock ich erst mal anderen Kram weiter.
Also kaufen würde ich mir das Game nicht, da einfach nicht mein Geschmack. Aber als Gratisbeigabe würd ich vielleicht mal kurz reinschauen. So wie ne Art Demo zum Werte Tüfteln. :D
 
Also für mich bleiben zwei Sachen hängen:

AMD und RT wird in dieser Generation nichts
Nvidia und RT wird in dieser Generation nichts

Ich bin mir aktuell nicht sicher, was ich für Schlüsse ziehen soll. Auf der einen Seite behaupte ich einfach mal, RT ist aktuell nichts anderes als ein interessanter Ansatz. Die einen haben nicht genug Leistung, die anderen nicht genug VRAM und lediglich mit der 3090 (1500 EUR) wird man RT mit einer vernünftigen Anzahl FPS nutzen können.
PCGH hat aber auch nur "Raytracing off" und "Raytracing Ultra (maxed)" dargestellt (kombiniert mit maximalen restlichen Details).

Zusätzliche Tests mit den beiden RT-Qualitätsstufen darunter ("Raytracing very high"? "Raytracing high"?), evtl. auch bei den restlichen Details eine Stufe unter "maximal" hätten vielleicht vernünftige Kompromisse gezeigt und den Vergleich abgerundet.
 
Hab RayTracing zunächst gar nicht mit Blick auf eventuelle Auswirkungen auf die CPU-Last betrachtet, aber ich glaub langsam auch dass es da Abhängigkeiten gibt.
Ich habe noch nie so eine starke Auswirkung von RT auf die CPU beobachtet wie bei diesem Spiel.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Da kommt selbst ein Battlefield V mit seinen 40% Einbruch nicht mit.
 
Zurück