Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Hier noch TAA on vs off bei meinen Settings @WQHD:
Cyberpunk2077_2020_12_14_15_39_51_537.jpg
Cyberpunk2077_2020_12_14_15_42_13_366.jpg



Performance ist ziemlich identisch. Bleibe erstmal bei TAA on, harmoniert einfach besser mit SSR - was bei dem Spiel unverzichtbar ist für mich.
 
Hier mal 4K/SSR Maxed/TAA off:Anhang anzeigen 1346167Anhang anzeigen 1346168

Hier ein Beispiel, warum man auf SSR echt nicht verzichten will (wenn kein RT möglich ist):
Anhang anzeigen 1346165Anhang anzeigen 1346166


Aber die Probleme mit SSR sieht man vor allem im Bewegtbild. Da bringt das TAA deutlich mehr Ruhe rein, das Spiel scheint also komplett darauf optimiert zu sein (hence keine Option zum deaktivieren).
Nichts für ungut. Bei allen Bildern mit SSR kommt es mir hoch, so viel Grieß kann man nicht essen, wie da Körner abgebildet sind :D. Weiterhin bringt TAA-Abschaltung offensichtlich nicht viel, was Schärfe angeht - danke für die Screens. Bei Bild Nummer 4 scheitert es zwar an den großflächigen Reflektionen, aber immerhin wird da kein Grieß gerendert. Also ich für meinen Teil finde die SSR durch die Bank misslungen. Für komprimierte von 4k auf FHD skalierte Wallpaper mag es taugen, mehr aber auch nicht mMn.
 
Jap, gerade Low/Med ist auch mit TAA absolut ungenießbar. Da wird aus Grieß auch noch Grieß mit Schlieren. High ist halbwegs akzeptabel mit TAA. Ohne TAA ist selbst Psycho nicht zu gebrauchen...
 
Ich kann nur empfehlen, auch bei Cyberpunk zusätzlich zu den Spieleinstellungen Nvidia Spielefilter zu nutzen, falls GeForce Experience installiert ist (Alt+F3 als Standardabkürzung). Der Schärfefilter mit Shärfegrad auf 50% und Filmkörnung ignorieren auf 15% verbessert das Bild, jedenfalls in meiner Erfahrung, noch deutlich spürbar, auch bei eingeschaltetem TAA.
 
TAA scheint der Körnchenbildung in der Ferne extrem gut entgegen zu wirken (auf Kosten der Schärfe).
Aber selbst auf SSR Psycho wird man mit TAA den Grieß in der unmittelbaren Umgebung der Spielfigur nicht los.
Das hat mich schon in der ersten Minute des Spiels so genervt, dass ich direkt RT angeschaltet habe, was ich aus Performance-Gründen ursprünglich eigentlich vermeiden wollte.

Hier der Startraum der Konzerner-Kampagne ( WQHD, SSR Psycho, RT off):kotz: :

Cyberpunk2077_2020_12_10_20_55_31_538.jpg

Ich kann nur empfehlen, auch bei Cyberpunk zusätzlich zu den Spieleinstellungen Nvidia Spielefilter zu nutzen, falls GeForce Experience installiert ist (Alt+F3 als Standardabkürzung). Der Schärfefilter mit Shärfegrad auf 50% und Filmkörnung ignorieren auf 15% verbessert das Bild, jedenfalls in meiner Erfahrung, noch deutlich spürbar, auch bei eingeschaltetem TAA.

Hatte mal (nicht bei dem Screenshot oben) Scharfstellen auf 0.3 (30%) und Filmkörnung auf 0.15 und naja, es sah beschissen aus. Zwar etwas schärfer aber Körnung aus der Hölle - sogar schlimmer als die SSR an sich.
 
Zuletzt bearbeitet:
Kannst dich gerne mal durchklicken. Es fängt schon bei so simplen Dingen an, wie dass der Mauszeiger nicht ausgeblendet wird, das Spiel also keinen echten Vollbild Modus hat, und geht dann weiter bis zu Abstürzen alle paar Minuten.
Davon kann ich nichts bestätigen und habe etwas mehr als 10h auf der Uhr. :ka:
 
Aber was is denn CP ohne RT ?
Sicher auch n gutes Game, aber nicht mehr der technische Fortschritt.
Ich finde gerade bei CP geht's nun mal auch um die Entwicklung in der Technik. Da gehören praktisch RT+DLSS für mich dazu.

Ohne isses nur irgend n Game.

Deswegen bin ich ja so verbissen bei RT maxed.

Hört sich interessant an.
Wäre an weiteren Ergebnissen interessiert. :) Gerade wenn's um RT maxed geht. :D
Na es hat nur kurze Zeit mit ner RTX und ein Spiel gedauert um dich auf RT zu bringen. Mich hat Jensen schon bei der Vorstellung der RTX2080FE gehabt. Hast du mal Control ausprobiert?
 
Hast du mal Control ausprobiert?
Komme nicht dazu das ausgiebig zu testen. Muss ja zwischen siebendrölfzig Spielen entscheiden, wo ich grad Zeit reinstecke. ;) Ach .... das sind Probleme ... herrlich ! :D

Aber in CP is RT schon echt gut, in maxed out Psycho(gerade wenn alle andern Optionen auch mit dem Nebel usw. auch maxed sind).

Irgendwie kommt da echt Freude auf, wenn man an zukünftige GPU Generationen denkt. Also in ein paar Jahren. Wie geil das wird !
(Wir sind ja immer noch early RT-Tester)

PS: Ohne DLSS wäre das aber unmöglich, in dem Umfang, da die Optionen hoch zu schrauben UND noch flüssig zu spielen.
So gesehen .... "it just works !"
Sry :D Is aber so !
 
Zuletzt bearbeitet:
Ich kann nur empfehlen, auch bei Cyberpunk zusätzlich zu den Spieleinstellungen Nvidia Spielefilter zu nutzen, falls GeForce Experience installiert ist (Alt+F3 als Standardabkürzung). Der Schärfefilter mit Shärfegrad auf 50% und Filmkörnung ignorieren auf 15% verbessert das Bild, jedenfalls in meiner Erfahrung, noch deutlich spürbar, auch bei eingeschaltetem TAA.
Der funktioniert bei dir ? Ich bekomme immer nur Fehlermeldungen wenn ich ALT-F3 drücke :ka:
 
Was ist denn mit den Werten vom Tech Jesus los?
Er verwendet eher durschnittlichere Spielszenen von der CPU-Last.
Hat ja auch gesagt dass es Stellen gibt die schlechter laufen.
So finde ich seinen Test diesmal aber nicht wirklich nützlich.

Wenn man nach seinem Test denkt, "och, dann geht meine olle CPU bestimmt auch noch ganz gut"
und dann in Bereiche wie die PCGH Testszene kommt, wird sich der Zuschauer aber schwer wundern.
 
Hatte mal (nicht bei dem Screenshot oben) Scharfstellen auf 0.3 (30%) und Filmkörnung auf 0.15 und naja, es sah beschissen aus. Zwar etwas schärfer aber Körnung aus der Hölle - sogar schlimmer als die SSR an sich.
Geschmacksache, warscheinlich, aber mir ist keine sonderliche Körnung aufgefallen, hast ja auch TAA an. Aber ich persönlich möchte den Schärfefilter in keinem Spiel mehr missen, weil er dem Spiel eine gestochen scharfes Bild gibt zusammen mit den AA Effekten, auch Cyberpunk.
 
Er verwendet eher durschnittlichere Spielszenen von der CPU-Last.
Hat ja auch gesagt dass es Stellen gibt die schlechter laufen.
So finde ich seinen Test diesmal aber nicht wirklich nützlich.
Vor allem sind die Werte komplett inkonsistent. Das macht doch so überhaupt keinen Sinn.
 
Auch der große Unterschied vom 8700K zum 10600K ist nicht wirklich plausibel. Die 200MHz mehr Takt sollten soviel nun auch nicht reisen...
Der 10600K darf 125 Watt TDP ausnutzen. Das könnte bei diesem stark multithreaded optimierten Titel einiges ausmachen. Aber so groß ist der Unterschied dann auch wiederum nicht. Steves Werte sind für die Tonne. Das meine ich nicht böse, es ist halt auch viel Arbeit, aber das kann eben passieren.
 
Ein 8700K kann dank seiner 12 Threads durchaus schneller unterwegs sein, als ein 9700K. Einen 9900K kann diese CPU aber unter gleichen Tesbedingungen niemals schlagen, selbst wenn ein Titel nicht mehr als sechs Kerne unterstützt. Der 10600K schießt dann den Vogel ab, der kann mit seinen sechs Kernen und dem Allcore-Boost von 4,5 GHz niemals so schnell sein, wie im Bild oben. Die Benchmarks fanden auch bei niedrigen Details statt, da fehlen ordentlich Drawcalls und verzerren das Bild.
 
Zurück