Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Danke für die Benchmarks und Transparenz!

Konnte die GPU-Benchmarks perfekt und extrem reproduzierbar nachstellen, reiht sich auch perfekt ein für eine 980 Ti 1500/4001 (3x Run Aggregation)

FHD - WQHD - UHD
1607711292757.png
 
@gaussmath & @blautemple
Falls einer von euch oder ihr beide den Community-Benchmark organisiert, würde ich ans Herz legen die max Settings beim CPU Benchmark zu überdenken, da man sonst imho viele Leute ausschließen würde mit schwächeren Karten als zB ner 3090.
Ich wäre da nämlich mit meiner 1080 Ti bereits weg vom Fenster, da die Karte tatsächlich dann die ganze Zeit mit 99% läuft...

Ansonsten freue ich mich auf den Community-Benchmark bzw. das Feedback. :)
Ja, wir würden das organisieren. Ich verstehe deine Argumente sehr gut. Das Problem ist nur, dass die Resultate dann nicht mehr mit den Benchmarks der Redaktion vergleichbar wären. Das heißt, es fiele ein ganzer Patzen an Vergleichsdaten mit einem Schlag raus.
 
Das kann hier nie passieren, einfach mal die Benchmarks durchklicken, die Nvidia Karten bleiben alle schön vorne weil jetzt nur noch min fps zählen nicht max, seit neustem. Als AMD darauf optmierte wars schei*egal...

Klick mal auf 1440p und 2160p.:)

Also alles gut, gibt keinen Bann. Wird schon so angepasst das es nicht passiert.
Ich glaube eher, daß Du die Rangliste nicht richtig bedienst.
Eine RX 6800 ist in 1440p als auch in 2160p vor einer RTX 2080Ti/RTX 3070, obwohl die min FPS niedriger sind..
Ist bei der RX 6900XT nicht anders, da wird nichts gedreht.
Aber einfach mal was unterstellen ist wohl leichter.
 

Anhänge

  • CP+.PNG
    CP+.PNG
    31,5 KB · Aufrufe: 33
  • RX6900XT.jpg
    RX6900XT.jpg
    40,8 KB · Aufrufe: 58
Zuletzt bearbeitet:
@bath92 Leider ist uns die Plattform temporär verreckt :-(
Aber der ist wirklich kaum flotter, ihr würdet euch wundern. Die IPC ist bei Zen+ nicht höher, die retten sich nur über das bisschen Takt und den Speicher. Pack mal maximal fünf Prozent auf den 1800X drauf, mehr ist da wirklich nicht drin.
Der 5800x ist verreckt, wie das? Also der 1800x profitiert nicht sonderlich von 3800MHz Rammodulen und dann solltet ihr mal probieren wie der Zen3 bei richtiger Config abgeht. Es gibt eklatante Untertschiede zum 1800x (Taktwall, IF, Symmetric), was nur logisch ist. Das geht hoch bis 4K müsstet ihr aber auch auf dem 5600x simulieren können. Das können schon mal 15fps und mehr sein. Inbesondere mit der 3090.

Ist natürlich OC, klar. Ihr schreibt aber selbst, solange eine Config nicht am extremen Limit ist und hirnrissig, diese auch in Testergebnisse einfließen zu lassen.
 
Nicht der 5800X ist uns verreckt, sondern das X570 Board. Wie Zen 3 richtig abgeht, zeigt unser "5950X WIP", da fehlen aber noch ein paar Optimierungen.
@bath92 Nicht unbedingt. Cyberpunk skaliert extrem gut mit mehr CPU-Kernen. Wenn du den 2700X ebenfalls optimierst, könnte der durchaus vorn liegen. In den meisten anderen Szenarieren überliegt ein Ryzen 3600 aber klar.
 
Ich glaube eher, daß Du die Rangliste nicht richtig bedienst.
Eine RX 6800 ist in 1440p als auch in 2160p vor einer RTX 2080Ti/RTX 3070, obwohl die min FPS niedriger sind..
Ist bei der RX 6900XT nicht anders, da wird nichts gedreht.
Aber einfach mal was unterstellen ist wohl leichter.
Aber sonst gehts dir noch gut, oder?
 

Anhänge

  • pcgh_cp2077bm.jpg
    pcgh_cp2077bm.jpg
    267,7 KB · Aufrufe: 72
Also ich finde auch das Cyberpunk 2077 ein Ausnahme-Spiel ist genauso wie die RX 6800 :daumen:

Cyberpunk 2077 erinnert mich sehr an Bladerunner und ich finde die Atmosphere vom Spiel einfach grandios. Durch Night City laufen hat schon was als ob man GTA, Witcher und Blade-Runner gleichzeitig spielen würde und ich gebe zu das ich geflasht bin von dem Spiel und der RX 6800. Gerade auch die RX 6800 erinnert mich an früher zu Glanzzeiten von ATI mit der 9800Pro.

Für mich eine perfekte Mischung wenn man in 4K spielt das Game der Witcher-Macher und ENDLICH wieder eine leise, starke und kühle Karte von AMD.

Poor Vega :devil:
 
Ja, wir würden das organisieren. Ich verstehe deine Argumente sehr gut. Das Problem ist nur, dass die Resultate dann nicht mehr mit den Benchmarks der Redaktion vergleichbar wären. Das heißt, es fiele ein ganzer Patzen an Vergleichsdaten mit einem Schlag raus.
Ist auf jeden Fall ne Misere in der ich nicht stecken wollen würde. :D

Verstehe ich auch total nur wäre die Abhängigkeit zur GPU dann imho gravierend und das in einem Bench der eigentlich die CPU messen will.
Plastisch ausgedrückt: ich mit meinem 9900K@5GHz + 4133 MHz DR CL16-16-34-2T sowie ner 1080 Ti @2088 MHz würde etwa bei 75 fps landen (heute gemessen) und jemand mit ner stock 9900K CPU/2666er RAM + RTX 3080 wäre ca. bei 80 fps dann. :ugly:
 
@bath92 Nicht unbedingt. Cyberpunk skaliert extrem gut mit mehr CPU-Kernen. Wenn du den 2700X ebenfalls optimierst, könnte der durchaus vorn liegen. In den meisten anderen Szenarieren überliegt ein Ryzen 3600 aber klar.

Mein im Schrank liegender 2700 (non-X) schafft AllCore 4,1GHz bei 1,275V. Leider bekommt ich den Speicher nur auf 3467MHz (CL16).Ich glaub ich teste über Weihnachten einfach mal mit beiden CPUs und der Verlierer wandert dann in den Marktplatz. :gruebel:
 
Solange man SAM nichts entgenzusetzen hat, wird das so bleiben. Also unter Godfall tut mir Intel und Nvidia leid. Da muss sich eine 3080 mit der RX6800 umherprügeln. Derzeit ist das nicht unbedingt relevant, weill alle Mondpreise verlangen, aber 120 Euro mehr sind für den einen oder anderen kein Pappenstil und alle kommenden Konsolentitel der Next Gen werden als reiner Port sicher genausogut performen.

Für Extremegamer ist das überhaupt nicht gut.
Mir schon....
Man kann natürlich absich auf die P1 Werte drücken um sein Gesappel irgendwie beweisen zu können.
Ich habe nirgends gedrückt, sondern einfach die Benchmarks durchgesehen (also an der urprünglichen Auflistung nichts verändert). Aber ja war pure Absicht, was sonst.

Und nur zu deiner Info, wenn du in eine neue Auflösung zappst springt der Buttun allein auf P1, warum nur? Sicher ein CP2077 Bug, kommt dann auch nicht mehr drauf an.
 
Zuletzt bearbeitet von einem Moderator:
Sowas ist echt selten. In jedem anderen Szenario hätte ich den 3600 als dominierende CPU genannt. Und jetzt ist CP 2077 erschienen. Plötzlich erhalten 8-, 10- und 12-Kern-CPUs, teilweise aus der Vergangenheit von vor nahezu sieben Jahren(!) einen neuen Sinn. Das Teil muss in meinen CPU-Index ...
 
Mal an die Technik-Gurus hier (@PCGH_Dave ?):

Mein 5800X rennt ins CPU-Limit, die CPU-Nutzung bleibt bei 55% stehen. Also werden die Threads nicht voll ausgenutzt. Was ich 1. nicht gedacht hätte und 2. recht ärgerlich ist mit einer 3090 als Kompagnon.

Gibt es da eine Abhilfe?
 
So hab jetzt meine Settings gefunden und etwas mit Reshade gearbeitet.

Entweder 3200x1800@40-50fps oder 2560x1440@60fps+. Da mein Monitor aber astrein mit Freesync zusammenarbeitet, bevorzuge ich dann doch eher 3200x1800, zumindest fühlt sich das sehr smooth an obwohl die Frames so niedrig sind. Für eine 5700XT ganz anständige Werte, Settings sind ein Mix aus Hoch und Mittel, bei beiden Auflösungen.

Was hat er hier überhaupt für ein Problem?
 
Zurück