Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

Eine 4070 2 mal so schnell wie eine 7900XTX OHNE Dlss 3. Das ist ja bitter da sieht man wie weit Nvidia mit RT ist.Mit FG wird es dann richtig lächerlich. Wenn FSR 3 nicht zufälliger weise die Performance verdreifacht kommen sie nicht einmal in die nähe. Sogar eine 2080TI ist konkurrenzfähig mit Rdna 3 :haha:

Super Arikel zu einem super Spiel :)
Ich habs schon in einem anderen Threat bewiesen das man mit RT Psycho und undervolting exakt auf dem Niveau einer 3090 kommt.

Ob man jetzt unbedingt Pathtracing benötigt oder nicht sei mal dahingestellt aber das ist schon eine gute Leistung in dem Bereich!

Die nächste GPU Generation von AMD wird dann mindestens Pathtracing auf dem Niveau der 4090 schaffen, da bin ich mir sicher.
Nur Nvidia und CDProjekt finden bestimmt dann Atompixeltracing oder so ein Gedöns, das bei der die 8900XTX dann unter der 3070 bleibt - bin ich mir sicher! Denn genau das will man ja den Anwendern vermitteln weil es effektives Marketing ist!
 
Also sind die Benchmarks von PCGH nicht glaubenswert? Ansonsten müsste der Unterschied bei der RT Performance ja immer grob gleich sein, oder?

Anhang anzeigen 1426796
Lieferst doch genau das was ich sagte weiter oben je schwerer die RT Last desto weiter fällt RDNA zurück. Perfekte Treppe dafür Danke.:ka:
 
Kannst du auch erläutern, was hier genau kaputt ist?
Ist es nicht möglich, dass AMD RT-Technisch einfach so schwach ist?
Dude, es geht um die CPUs und da ist es tatsächlich absolut unverständlich wieso der Fix von CDPR nicht einfach eingepflegt wird. Die GPU Performance zeigt eigentlich einfach nur die nahezu reine Raytracing Performance und da ist Nvidia noch immer deutlich überlegen. In Hybrid Titeln sieht es natürlich nicht ganz so extrem aus.
 
Ich habs schon in einem anderen Threat bewiesen das man mit RT Psycho und undervolting exakt auf dem Niveau einer 3090 kommt.

Ob man jetzt unbedingt Pathtracing benötigt oder nicht sei mal dahingestellt aber das ist schon eine gute Leistung in dem Bereich!

Die nächste GPU Generation von AMD wird dann mindestens Pathtracing auf dem Niveau der 4090 schaffen, da bin ich mir sicher.
Nur Nvidia und CDProjekt finden bestimmt dann Atompixeltracing oder so ein Gedöns, das bei der die 8900XTX dann unter der 3070 bleibt - bin ich mir sicher! Denn genau das will man ja den Anwendern vermitteln weil es effektives Marketing ist!
Das bezweifle ich wenn selbst die 2080Ti on par ist mit der 7900XTX hier, wie sollen die dann noch 2 Gens mit einer Gen einholen? Das ist Nvidias erste Generation von Rt Karte und anscheinend sind die selbst besser als Rdna 3, wenn man den massiven Leistungsabstand zwischen den beiden Karten noch hinzuzieht sieht man das AMDs RT Leistung extrem schwach ist wenn es wirklich darauf ankommt.
 
CDP mit CP oder gar PCGH anzugehen für eine Technikdemo finde ich jetzt auch übertrieben. CP sieht auch auf AMD-Karten sehr gut aus und RT bei WQHD mit FSR Quali auf Ultra ist auch bei den 7900ern drin. Mit PT ist CP halt eine Techdemo. NV hat das bessere Upscaling aber sonst nicht viel. Wie es mit FSR3.0 ausschaut weiß man noch nicht.

Wer mehr will aber verständlicherweise jetzt die Preise nicht tragen will wartet halt noch 1-2 Generationen.
 
CDP mit CP oder gar PCGH anzugehen für eine Technikdemo finde ich jetzt auch übertrieben. CP sieht auch auf AMD-Karten sehr gut aus und RT bei WQHD mit FSR Quali auf Ultra ist auch bei den 7900ern drin. Mit PT ist CP halt eine Techdemo. NV hat das bessere Upscaling aber sonst nicht viel. Wie es mit FSR3.0 ausschaut weiß man noch nicht.

Wer mehr will aber verständlicherweise jetzt die Preise nicht tragen will wartet halt noch 1-2 Generationen.
So einfach kann es sein. :daumen:
 
Lustig die flame-wars zwischen Nvidia und AMD Fanboys hier ;)

Zum Thema RT-Leistung möchte ich nur anmerken, dass wirklich eigentlich jeder weiß, dass die meisten Games die RT stark einsetzen dieses insbesondere für Nvidia-Graka optimieren. Ein Vergleich ist also sowieso absurd.
Der Artikel erwähnt sogar, dass auch die Intel-Graka trotz hoher RT-Leistung hier völlig untergehen...
Gleichzeitig gibt es einige Games die von AMD gesponsert werden und die mittels FSR die zig teureren Nvidia-Graka hinter sich lassen ?

Und dann gäbe es da noch die Beispiele von Games auf PS5 oder XBox Series X die ebenfalls leistungsstark RT einsetzen und allesamt auf ner sehr unterdurchschnittlichen AMD SoC rennen...

Insofern ist die Artikel wohl NICHTS vorzuwerfen, weil sie das ganz dezidiert und prominent erwähnen.
 
Um mal wieder back to topic zu kommen:

Was mir aufgefallen ist, in den Screenshots und auch den Verleichsscreenshots hier, kommt Pathtracing echt nicht sonderlich gut weg. Man fragt sich: dafür verbrenne ich die Ressourcen meiner GPU?

In Echt sieht das dann aber komplett anders aus, zumindest für mich, das Bild als gesamtes sieht durch das Pathtracing deutlich glaubwürdiger aus. Das macht für mich den "großen" Unterschied.
 
Um mal wieder back to topic zu kommen:

Was mir aufgefallen ist, in den Screenshots und auch den Verleichsscreenshots hier, kommt Pathtracing echt nicht sonderlich gut weg. Man fragt sich: dafür verbrenne ich die Ressourcen meiner GPU?

In Echt sieht das dann aber komplett anders aus, zumindest für mich, das Bild als gesamtes sieht durch das Pathtracing deutlich glaubwürdiger aus. Das macht für mich den "großen" Unterschied.
Exakt meine Rede. Die Unterschiede sind echt marginal und eigentlich lachhaft - 5 min im Game und man bemerkt sie nicht mehr.
Gleiches fällt mir aber auch bei RT ständig auf - egal ob auf PS5 oder auf dem PC - RT off oder on macht für mich de facto keinen Unterschied. Auflösung und fps sind 1000mal wichtiger was den Gesamteindruck angeht.

Das allerdings dafür eine 4090 schon an ihr Limit kommt ist ne andere Sache ?
 
@blautemple @PCGH_Dave
Habt ihr die EXE gemodded oder habt ihr den "AMD Fix" mit den "CyberEngineTweaks" vorgenommen?

Es gibt bei dem Spiel nämlich noch eine Besonderheit:

Benennt man die Exe einfach um (in z.B. CyberPunk2077 Tweaked.exe) und startet das Spiel dann nicht über den Launcher sondern über die umbenannte .exe, steigen die FPS noch mal auf einem AMD System.

Ich wollte es auch erst nicht glauben, aber tatsächlich ist da einiges kaputt...
 
Exakt meine Rede. Die Unterschiede sind echt marginal und eigentlich lachhaft - 5 min im Game und man bemerkt sie nicht mehr.
Gleiches fällt mir aber auch bei RT ständig auf - egal ob auf PS5 oder auf dem PC - RT off oder on macht für mich de facto keinen Unterschied. Auflösung und fps sind 1000mal wichtiger was den Gesamteindruck angeht.

Das allerdings dafür eine 4090 schon an ihr Limit kommt ist ne andere Sache ?
es ist auch meistens nur die " innere - nerd" Stimme die dann sagt, schalt es an, scheiss drauf, ob die fps deutlich weniger sind !!11. In manchen Szenen kann es auffallen, aber es ist halt " nur" eine weitere Grafik Option und kein Gamechanger aktuell.
 
Ich hab die .exe genommen, die ich von dir bekommen habe. Verstehe ich das richtig: Wenn ich diese Datei dann noch mal umbenenne, gibt es noch mehr Fps?!
 
Wenn du die .exe nicht wieder in den original Namen änderst, sondern einfach SMT FIX drin stehen lässt, dann hast du noch mehr FPS, ja.

Wurde im discord auf einem 7800X3D getestet und gab noch mal 10 FPS mehr (wenn ich mich richtig erinnere, muss nachsehen um es genau zu sagen).

@Blautempel kannst es aber gerne auch Mal mit der fixed exe testen, aber ich glaube da gibt es dann Probleme mit dem Thread scheduler. Interessant wäre es allemal.

Nachtrag:

1684489978430.png


Unten ist mit FIX ohne die Datei umzubennenen, oben wurde die Datei dann in "Cyberpunk2077 SMT FIX.exe" umbenannt.
 
Sorry aber das wirklich absolut lächerlich.
Kein Wunder, dass das von CPR und Nvidia kommt. Ich meine wer heute noch ein Game von CPR kauft...ist sowie echt selber Schuld.
Warum?
Manche Entwickler kooperieren mit AMD, manche mit Intel. Wo liegt dein Problem?

Detto bei Nvidia - die Leute kaufen deren Graka um 1600€+ die dann solche Games nur unter Nutzung massiver KI-Upscaler halbwegs ordentlich runterbringen? Erzähl das mal einem Normalo auf der Straße oder einem Durchschnitts Gamer/Konsolero...die kippen um vor lachen...wow ?
Gruselig diese KI oder? xD
Welche KI-Technik so in Konsolen wandern wird...du hast ein etwas zukunftsfremdes Denken...

Vor 5-6 Jahren war Upscaling ja noch das ärgste überhaupt und Sony wurde dafür geröstet das sie es wagten es (sogar technisch ziemlich ordentlich) in der PS4 pro einzusetzen. Kaum kommt Nvidia mit dem Marketingschmäh DLSS raus, weil sie die Leistung ihrer GPU's nicht mehr entsprechend skalieren können um ordentliche native Auflösungen bei hohen fps zu erreichen, ist's plötzlich der letzte Schrei in der Community...?
Irgendjemand hat hier wohl nicht richtig aufgepasst...

Über RT oder jetzt Patch-Tracing deren Impact auf die Spielegrafik in den meisten Fällen kaum bis gar nicht sichtbare Unterschiede macht, sag ich gar nix mehr.
Das sollte man sich auch nicht nur auf Bildern ansehen, dann fallen einem die Unterschiede schon auf ;)
 
Ich finde man sollte das nehmen wie's ist:

Ein Konzern hat wohl Geldscheinchen eingeworfen und ein Game Entwickler der seit dem CP 2077 Mega-Desaster massiv strauchelt hat ein Game genau auf seine Bedürfnisse hin optimiert.

Das Ergebnis ist dann aber doch für alle Beteiligten eher zweifelhaft wenn man bedenkt dass selbst das sündteure Spitzenmodell der aktuellen Nvidia Generation damit an die Leistungsgrenzen kommt und CDPR einen weiteren Teil seiner Kundschaft damit verprellt...?
 
Zurück