Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

Man merkt schon wer das Spiel tatsächlich so probiert hat und welche nur ein paar fotos gesehen haben. Diese plastitzität des Bildes wie aus einem Guss, ist unerreicht aber wenn man sich vormachen will das es keinen Unterschied zu Raster gibt sollte mal Cyberpunk mit Pathtracing starten und dann auf Raster umstellen dagegen sieht die Raster Version richtig hässlich aus obwohl CP generell beileibe kein hässliches Spiel ist.
 
Exakt meine Rede. Die Unterschiede sind echt marginal und eigentlich lachhaft - 5 min im Game und man bemerkt sie nicht mehr.
Gleiches fällt mir aber auch bei RT ständig auf - egal ob auf PS5 oder auf dem PC - RT off oder on macht für mich de facto keinen Unterschied. Auflösung und fps sind 1000mal wichtiger was den Gesamteindruck angeht.

Das allerdings dafür eine 4090 schon an ihr Limit kommt ist ne andere Sache ?
Naja das kann man aber auf fast alles runterbrechen.... ist mit meinem 77 Zoll TV auch so, die ersten paar Tage oh wow und kurz danach war mir auch das Ding wieder zu klein.

Und was wichtiger ist, ob Optik vs FPS vs Resolution wichtiger sind, entscheidest "Gott sei Dank" nicht du, sondern jeder Nutzer für sich selbst anhand der eigenen Präferenzen.

Ferner hast du meinen Kommentar nicht richtig gelesen, oder lesen wollen, denn ich schrieb:
Das macht für mich den "großen" Unterschied.

Damit habe ich das Gegenteil von:
Die Unterschiede sind echt marginal und eigentlich lachhaft
zum Ausdruck bringen wollen
 
Ich verstehe es auch nicht @PCGH_Dave

Irgendwas ist da jedenfalls komplett broken.
Aber das macht doch überhaupt keinen Sinn mehr, da noch CPU-Benchmarks zu machen, wenn die Werte alle falsch sind? Hat eine Intel-CPU dann auch mehr Fps? Dann kann ich meinen ganzen CPU-Index über den Haufen werfen, wenn die Zahlen alle falsch sind :ugly:

@blau
Ja, ich habs über die .exe im Ordner gestartet. Der Referenzwert jedoch über den regulären Launcher. Wenn ich die Fix.exe übrigens nicht umbenenne, ist der 5950X genauso schnell. wie ohne Fix getestet. Der Fps-Boost kommt tatsächlich von der Umbenennung der .exe. Was ham die da programmiert? :streit: :huh:
 
Intel-CPU dann auch mehr Fps? Dann kann ich meinen ganzen CPU-Index über den Haufen werfen, wenn die Zahlen alle falsch sind :ugly:
Da würde ich mir gar keine Gedanken machen. Am Ende zählt die Performance die ohne manuelle Änderungen erreicht wird. Das ist ja auch die Performance die der normale User erreicht.

Das hier sind ja nur Zusatz Tests.
 
Aber das macht doch überhaupt keinen Sinn mehr, da noch CPU-Benchmarks zu machen, wenn die Werte alle falsch sind? Hat eine Intel-CPU dann auch mehr Fps? Dann kann ich meinen ganzen CPU-Index über den Haufen werfen, wenn die Zahlen alle falsch sind :ugly:
Das mit dem Intel kann ich nicht sagen, haben ja nur einen "Ryzen Discord" aber wäre natürlich ein Fall für dich, da du ja einen in der Redaktion nutzen kannst ;)
 
Wie seltsam ist das denn bitte bit den Ryzen CPUs? Dachte, das ganze wäre schon längst behoben.

Würde mich da über einen Nachtest mit dem Fix echt freuen. Und auch welchen Fix ihr da dann genau verwendet (und ob man irgend ne Exe unbenennt oder nicht.. Das hat ja schon 90er oder anfang 2000er Vibes :D )
 
Kannst du auch erläutern, was hier genau kaputt ist?
Ist es nicht möglich, dass AMD RT-Technisch einfach so schwach ist?
Was allerdings durchaus für eine einseitige NV Optimierung spricht ist das Abschneiden von Intel, insbesondere der A770-16GB. DIE hat nämlich jede Menge RT Rohleistung und Features.
Ich hab das kurzerhand selbst getestet, weil ich ohnehin Nachmessungen zum Spiel heute mache.

Vergleichswert:
Anhang anzeigen 1426798

Mit Ryzen-Fix.exe, die umbenannt wurde:
80,9 | 60 | 56 Fps

Mit originaler Exe, die umbenannt wurde:
85,0 | 65 | 61 Fps

Anhang anzeigen 1426799
Klingt dann tatsächlich nach einem Fehler den AMD in seinem CPU-Treiber gemacht hat.
 
Wir haben auch intern schon darüber diskutiert, wie sinnig jetzt Nachtests mit dem Ryzen-Fix sind. Fakt ist, dass AMD-CPUs seit Jahren (der eigentlich Fix wurde Ende 2020 ausgerollt!) zu langsam in CP 2077 getestet werden und das natürlich die Leistungsnote einer jeden Ryzen-CPU verfälscht. Ich schaue mir das mal mit einem Intel-Prozessor an, wenn die auch noch Futsch sind, suche ich mir einen neuen Job :lol:
 
Der Fps-Boost kommt tatsächlich von der Umbenennung der .exe. Was ham die da programmiert? :streit: :huh:
Klingt irgendwie nach Treiber/AGESA-Problem. Möglicherweise erkennt AMD das Spiel über den Namen und fixt da im Hintergrund ein paar Dinge, um die Performance zu optimieren.
Gab ja schon mal was ähnliches, wo AMD via Firmware in Windows rumgefummelt hat.
 
Eigentlich steht hier aber die GPU-Leistung im Fokus. :-)

MfG
Raff
Mal Hand aufs Herz, machen solche Durchläufe/"Tests" noch Spaß? Selbst die RT-starke Intel-Karte wird um das Doppelte vom eigentlich schwächeren Nvidia-Pendant umrundet. Das hat nicht mehr alleine technische, sondern schon politische Gründe. Nvidia und korrupte Entwickler vergrätzen Konsumenten, beschädigen mit solch radikalem Vorgehen/Verhalten wahrscheinlich mit der Zeit sogar die Branche. Diese Selbstsucht wird eines Tages zum Verhängnis.
 
... Und auch welchen Fix ihr da dann genau verwendet (und ob man irgend ne Exe unbenennt oder nicht.. Das hat ja schon 90er oder anfang 2000er Vibes :D )...
Es ist ein Hexwert, der in der .EXE umgeschrieben werden muss.
Wie sich danach herausgestellt hat ist das Umbenennen der Datei dann nochmals ein zusätzlicher "boost" (bei den Ryzen mit 8 Kernen zumindest).

Denke da kann Dave dann später genaues zu sagen in dem Artikel der geplant ist (wenn ich das nun richtig gelesen habe wollte er das so machen).

Jedenfalls ist das schon etwas skurril was da abgeht.
 
Mal Hand aufs Herz, machen solche Durchläufe/"Tests" noch Spaß? Selbst die RT-starke Intel-Karte wird um das Doppelte vom eigentlich schwächeren Nvidia-Pendant umrundet. Das hat nicht mehr alleine technische, sondern schon politische Gründe. Nvidia und korrupte Entwickler vergrätzen Konsumenten, beschädigen mit solch radikalem Vorgehen/Verhalten wahrscheinlich mit der Zeit sogar die Branche. Diese Selbstsucht wird eines Tages zum Verhängnis.
?exakto.
 
Das bezweifle ich wenn selbst die 2080Ti on par ist mit der 7900XTX hier, wie sollen die dann noch 2 Gens mit einer Gen einholen? Das ist Nvidias erste Generation von Rt Karte und anscheinend sind die selbst besser als Rdna 3, wenn man den massiven Leistungsabstand zwischen den beiden Karten noch hinzuzieht sieht man das AMDs RT Leistung extrem schwach ist wenn es wirklich darauf ankommt.
Es ist nur eine Frage der Optimierung, wie gesagt auch die 3090 war aus Sicht der letzten Generation bei AMD schwer einzuholen, dennoch ist es geschafft worden.
Mit den 6000er Karten war die performance im Raytracing bei low optimal so konnte man die 6800XT/6900XT mit niedrigen Details der 3080 gleichsetzen und bei Psycho und hohen Details ist man abgestürzt unter die 3070.

Jetzt sieht es so aus als wäre der High/Psycho Bereich so im optimalen Workload von der 7900XT/7900XTX und kommt definitiv auf das Niveau der 3090 nur stürzt im Pathtracing unter die 3070.

Zudem darfst du nicht ein Cherry picking Game nehmen und es als Maßstab für die Raytracing Leistung setzen.
Die 7900XTX konnte z.B. Hogwarts Legacy mit ca 40 FPS im Schnitt in 6k berechnen.
Das ist exakt das Niveau der 3090.
Das schafft keine einzige Turing Grafikkarte.
Cyberpunk ist da wirklich ein einziges Game bei dem die Raytracing Leistung derartig einstürzt.
Und nein auch mit angepassten Raytracing Details in Hogwarts also deutlich höherer Raytracing Berechnung war ich in dem Spiel auf dem 3090 Niveau.
 
Was allerdings durchaus für eine einseitige NV Optimierung spricht ist das Abschneiden von Intel, insbesondere der A770-16GB. DIE hat nämlich jede Menge RT Rohleistung und Features.
Ich weiß nicht. Als Arc kam, war Path Tracing noch kein Thema.
@Freiheraus wenn ich mir Quake RTX anschaue, kacken die Intelkarten auch ab:

Die performen auch nur bei Hybriden gut.
 
Ein 13600K verhält sich anders:

Mit originaler Exe:
113,5 | 89 | 84 Fps

Mit originaler Exe, die umbenannt wurde:
117,8 | 89 | 77 Fps

Durchschnittliche Fps höher, P0.2-Fps aber geringer, möglicherweise kommt die Engine da mit den E-Cores durcheinander. Das sind trotzdem knapp vier Prozent höhere Avg. Fps. Mehr, als man der Messungenauigkeit zuschieben kann. Soll ich die Exe mal "AMD stinkt" nennen? Wer weiß, vielleicht habe ich dann 120 Fps mit der Intel-CPU, so ein Unsinn ist das :daumen2:
 

Cyberdude77

Du meinst wohl wie stark handoptimierter Code auf der eigenen GPU ist...
Nicht wirklich, ich meine schau dir mal zum Beispiel Far Cry 6 an, ein AMD Titel, das läuft mit AMD Karten ja auch mit RT aktiviert recht gut, kostet aber auch dort schon was an Performance. Auf den Nvidia Karten ist das komplett egal, ob das in dem Spiel an oder aus ist. Man verliert ~1 FPS, mehr nicht. Was RT Performance angeht ist Nvidia auf und davon.
 
Zurück