Call of Duty Black Ops Cold War im Benchmark-Test: Speicherfresser mit edlen Texturen und Raytracing

Mich erinnert DLSS Quality an das sehr unscharfe TXAA(?) Kantenglättungsverfahren von nVidia.
Es macht das Bild zwar viel ruhiger, aber dafür wird mir das Bild insgesamt zu unscharf.
Was da nur nach einer niedrigeren Auflösung ausgeschaut hat, ist mit DLSS ja sogar Realität.
Das ist so, als wenn man am Monitor die native Auflösung eine Stufe runterstellt.
Wer es mag, kann es aktivieren. Jedenfalls würde ich dann auch nur die beste Qualität empfehlen, wenn man noch weiter runterdreht, wird es irgendwann absolut ekelhaft, und die Bildfehler und der Detailschwund werden sehr offensichtlich.
Dann sollte man sich fragen, warum man unbedingt eine so hohe Auflösung spielen will, wenn man aber kein Geld dafür ausgeben möchte, oder warum man nicht einfach so lange wartet, bei eine bezahlbare Karte rauskommt, die einem den vorgesehenen Spielspaß dann auch optisch zu präsentieren vermag?
Ich mache Letzteres und werde z.B. Cyberpunk erst dann kaufen, wenn ich auch alles anstellen kann. Nix DLSS oder Regler runter und zurück in die Steinzeit. Immer volle Pulle! ^^ :-)

Man kann da wohl von einem Treiberbug bei AMD ausgehen, oder aber das Spiel hat eine Macke.
Da sollte man die nächsten Patches und den RT Wundertreiber abwarten, der bei dem einen oder anderen Spiel noch mitunter ordentlich was rausholen kann - wenn er denn kommt. :-)

Ist vermutlich wie bei AMD noch einiges im Spiel oder in der Treibern nicht optimiert worden.
Ich würde jedes neue Spiel erst ein paar Wochen oder gar Monate reifen lassen, ehe ich diese spiele.
Nach der verhältnismässig guten RT Presentation der Konsolen bin ich schon entäuscht über die RT Leistung der neuen AMDs.
Alles was jetzt noch kommen mag, treibertechnisch, muss ja wie ein Wunder aussehen.
 
Der Punkt ist, das kommt immer nur von Leuten die es selbst nie gesehen haben.
Du könntest nicht einmal die Bilder von Nativ 4k mit , 4k mit DLSS Quality und 4k mit DLSS Ausgeglichen unterscheiden.
Erst ab Performance merkt man es.
Aber selbst Performance sieht um Welten besser aus als niedrigere Auflösungen.
Dann hast du schlechte Augen -.-
DLSS ist in den oberen Qualitätsstufen schon gut, aber man kann es sehen.
 
Das Problem der Spieleprogrammierer ist halt, das es noch keine Karten von AMD gab.
Deshalb performen ja auch alle derzeitigen Spiele stellenweise sehr schlecht.
Man kann da nur hoffen, dass sich ein paar der Publisher noch eine Karte von AMD kaufen und dafür mit AMD zusammen einen nachträglichen Performancepatch erstellen, damit man ein ruckelfreis Spielerlebnis haben kann.
Für die Zukunft sehe ich in Verbindung mit den für die neuen Konsolen optimierten Spielen sicherlich eine sehr solide Basis mit den 6800er Karten. Den 6700ern wird vermutlich wie den grünen 2000ern (die Ti evtl. nicht) wohl zu schnell die Puste ausgehen.
Auf RDNA2 in den Konsolen läuft es top.

Bei der PC version die von Nvidia "unterstützt" wurde und ein ganzrr Sack von Nvidia Features implementiert wurde, wahrscheinlich von NVidia geschickten Programmieren läuft RDNA 2 kacke. Zufälle gibt es.

Dass es bei 16 GB Probleme gibt ist lächerlich und ein Armutszeugnis der Programmierer. Wahrscheinlich war keine Zeit für AMD Anpassung nach der Implementierung des NV Codes.

Jetzt wo AMD wieder gefährlich nah ist muss halt die Marketingstrategie aus 2103 wieder angewendet werden. Supi....
 
Der Punkt ist, das kommt immer nur von Leuten die es selbst nie gesehen haben.
Du könntest nicht einmal die Bilder von Nativ 4k mit , 4k mit DLSS Quality und 4k mit DLSS Ausgeglichen unterscheiden.
Erst ab Performance merkt man es.
Aber selbst Performance sieht um Welten besser aus als niedrigere Auflösungen.
Also es ist sicher richtig, dass ein 4k DLSS Quali besser aussieht als natives 1080p. Das dürfte daran liegen dass dann DLSS bereits mit QGHD arbeitet. Dein Argument ist somit blödsinn. Aber der Unterschied zwischen echtem 4K und 4DLSS oder nativem WQHD und DLSS WGHD ist schon sichtbar. Wer das nicht sieht hat Tomaten auf den Augen.
Ich rede jetzt speziell von diesem Spiel. Es mag Spiele geben wo DLSS perfekt funktioniert. Das hier gehört nicht dazu.
 
Auf RDNA2 in den Konsolen läuft es top.
Ja, auf niedrigen Settings.

Bei der PC version die von Nvidia "unterstützt" wurde und ein ganzrr Sack von Nvidia Features implementiert wurde, wahrscheinlich von NVidia geschickten Programmieren läuft RDNA 2 kacke. Zufälle gibt es.
Aha, es läuft auf RDNA 2 kacke? Seh ich irgendwie nichts von.
Wie vergleichst du eigentlich die Konsolen mit dem PC? Sind ja bei weitem nicht die gleichen Settings ;)

Dass es bei 16 GB Probleme gibt ist lächerlich und ein Armutszeugnis der Programmierer. Wahrscheinlich war keine Zeit für AMD Anpassung nach der Implementierung des NV Codes.
Ja, nur auf AMD läuft es mit 16GB kacke. Auf Nvidia nicht :stupid:
Die Drops in dem einen Level auf JEDER Karte lassen wir mal außen vor.
Übrigens läuft AC:V und Dirt 5 auf Nvidia kacke. Die Spiele lasten die Karten nicht mal wirklich aus und beides sind AMD Titel. Hast du da auch so mimimit?
 
Zuletzt bearbeitet:
Also es ist sicher richtig, dass ein 4k DLSS Quali besser aussieht als natives 1080p. Das dürfte daran liegen dass dann DLSS bereits mit QGHD arbeitet. Dein Argument ist somit blödsinn. Aber der Unterschied zwischen echtem 4K und 4DLSS oder nativem WQHD und DLSS WGHD ist schon sichtbar. Wer das nicht sieht hat Tomaten auf den Augen.
Ich rede jetzt speziell von diesem Spiel. Es mag Spiele geben wo DLSS perfekt funktioniert. Das hier gehört nicht dazu.

Mich würde es wundern wenn du das Spiel überhaupt hast.
4k DLSS Quality mit Full HD zu vergleichen zeigt aber sowieso, dass es nicht der Fall ist oder aber du hast eher selbst Tomaten auf den Augen.
 
Man könnte ja auch einfach mal etwas abwarten. Beide Kartenhersteller und der Spielehersteller werden sicher noch nachbessern. Danach könnt ihr euch immer noch die Köppe einschlagen.
 
Naja. Ich hab ja nen Sneakpeak gesehen.
Und dieser untermauert das Statement leider nicht ;-)
Was hast du gesehen? Der Ryzen konnte ja auch nicht voll ausgefahren werden. Es fehlt schlicht ein ordentliches BIOS von Gigabyte. Am harten OC-Limit nehmen sich beide CPUs nicht wirklich was. Selbst wenn sich das am Ende um 2-3% verschiebt*, das ist Pillepalle. Stock ist der Ryzen signifikant stärker.

*Dann nimmt man halt den 5950X mit SMT off, zack, gleicht sich das wieder aus.
 
Naja. Ich hab ja nen Sneakpeak gesehen.
Und dieser untermauert das Statement leider nicht ;-)
Du kannst dir gerne noch 2 bis 3% auf den 10900K drauf rechnen, weil deiner mit 5,2GHz taktet, aber das verschiebt das Ganze nicht signifikant.

Das größte Problem für den 5900X ist aktuell das katastrophale Gigabyte Bios.
 
Stock ist der Ryzen signifikant stärker.

*Dann nimmt man halt den 5950X mit SMT off, zack, gleicht sich das wieder aus.

Auf jeden Fall.
Dann zahlst aber auch das doppelte :-X

Du kannst dir gerne noch 2 bis 3% auf den 10900K drauf rechnen, weil deiner mit 5,2GHz taktet, aber das verschiebt das Ganze nicht signifikant.

Das größte Problem für den 5900X ist aktuell das katastrophale Gigabyte Bios.
Bios mäßig sind doch aktuell alle beschissen.
Mit 4000er RAM braucht man ja gar ned anfangen weils nicht stabil läuft.

Aber es sind 6% zu meinem aktuellen Setting, vom Timespy CPU Score ausgehend ;-) :banane:
 
Zurück