Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Ich finde die CPU-Benchmarks von euch zwar interessant um CPUs untereinander zu vergleichen, aber wirklich sinnvoll sind die ja nicht.
Für den Gamer wären doch CPU Benchmarks am GPU-Limit viel interessanter, ob sich da mit einer schnellen CPU noch was an der Grafikleistung tut. Das sind ja auch nicht nur 2-3FPS unterschied wenn man einen 10900 mit einem 10300 vergleicht oder nem X5900, oder sehe ich das falsch?
 
Jetzt mal ne ganz dumme Frage... Im CPU Benchmark (720p) liefert die beste CPU 111, 8fps (78fps)
Euer test rig liefert 109, 4 (80,0)fps

Die stärkste Grafikkarte (verbaut in eurem test rig) liefert in 1080p 115,1 (96,0)fps.

Wie kann das denn sein?
Andere Testszene :)
Die CPU-Auslastung ist ja nicht pauschal so hoch.

10600K geht gleich on und die ersten Raytracing-CPU-Benchmarks finden sich jetzt auch bei den regulären CPU-Benchmarks, der Server braucht nur manchmal etwas, bis alles online geht.
 
Jetzt mal ne ganz dumme Frage... Im CPU Benchmark (720p) liefert die beste CPU 111, 8fps (78fps)
Euer test rig liefert 109, 4 (80,0)fps

Die stärkste Grafikkarte (verbaut in eurem test rig) liefert in 1080p 115,1 (96,0)fps.

Wie kann das denn sein?
Ich würde vermuten, dass für CPU- und GPU-Test unterschiedliche Testsequenzen verwendet werden.

Edit:
Da lag ich wohl richtig :D
 
Echt kurios dass der 10600K am 5600X vorbeizieht, trotz gleicher Kernzahl und deutlich höherer IPC, was hat AMD hier falsch gemacht (oder CDProject)?
 
Werde wohl auf High spielen müssen(1080p). Auf Ultra läuft es eigentlich ganz ok. Außer im Verkehr hakt es manchmal. Habe aber die FPS noch nicht gemessen. Trotzdem sehr amüsant, wenn man sich mal die Empfehlungen von CD Project Red vor Augen führt.:lol:

16_9_EN_3-_02qt7qdkx3b50kqk.jpg
 
Ich teste gerade selbst die einzelnen Video-Settings mit Auswirkung auf die Spieleistung.
Ich habe mir als Sequenz direkt das Anfangsgebiet genommen, wenn man mit dem Auto rausfährt, bisschen die Straße entlang und dann Richtung "Dorf" blickt.

Ich schreibe meine ersten Eindrücke zusammen und poste mal meinen Erfahrungsbericht. Bisher ist mir ein dicker Fehler aufgefallen, mal sehen, ob ihr das in euren Systemen so bestätigen könnt.

PS: Kann die obige Tabelle von @AlterSchwde-3366 nur bedingt bestätigen bisher. Wenn wir die blaue Spalte High nehmen, dann dürfte ich praktisch mit meinem Setting alles komplett auf Vollgaseskalation drehen. Wenn ich das mache, dann lande ich bestenfalls irgendwo bei 25-30 FPS.
Das habe ich kurz ausprobiert und mir wurde bisschen übel. Klar, man kann das definitiv irgendwie so spielen, aber das ist meilenweit davon entfernt, was sich "Spaß" nennt.
 
Echt kurios dass der 10600K am 5600X vorbeizieht, trotz gleicher Kernzahl und deutlich höherer IPC, was hat AMD hier falsch gemacht (oder CDProject)?
Vermutung: Wenn du jahrelang ein Spiel entwickelst arbeitest und optimierst du auf ne CPU Architektur die es damals halt gibt. Dass Intel seit ewigen Zeiten Skylake rebrandet könnte hier ein Vorteil gewesen sein. :ugly:
 
Testet ihr die RX GPU's jetzt nur noch mit SAM und nicht mehr getrennt ohne und mit?
Den CPU RT Benchmark finde ich klasse, also kostet offensichtlich RT auch gut CPU Leistung, interessant.
 
So wie die Benchmarks aussehen ist Cyberpunk2077 das neue "Can-it-Run-Crysis"

4K Ultra + RT Psycho ist nur was für den Fotomodus :D
 
Vermutung: Wenn du jahrelang ein Spiel entwickelst arbeitest und optimierst du auf ne CPU Architektur die es damals halt gibt. Dass Intel seit ewigen Zeiten Skylake rebrandet könnte hier ein Vorteil gewesen sein. :ugly:
Und trotzdem sind die Unterschiede echt marginal - wir reden hier teilweise über nicht mal 10% Unterschied im CPU-Limit....
99,9% der User, gerade hier im Forum, werden im GPU-Limit hängen, da wird dann irgendwann die CPU irrelevant, außer man hat eine 3090 / 6900XT und spielt in 1080p ohne Raytracing und Downsampling - aber dann sollte man sich überlegen, warum man so viel Geld für eine GPU ausgibt und den Rest vernachlässigt xD

Insgesamt scheint das Spiel, wie bereits erwartet wurde, sehr viel Leistung zu benötigen, wenn man alles auf Max-Out spielen möchte - das Verhalten und Scaling erinnert etwas an The Witcher 3.
Interessant wäre noch die VRam-Auslastung, das wird sich aber erst mit kleineren Karten zeigen, die unter 8GB Speicher liegen, würde davon auusgehen, das wohl 6GB mindestens nötig sein werden.... ?

Ansonsten ist der Artikel sehr interessant - danke @pcgh für die Arbeit.
 
So wie die Benchmarks aussehen ist Cyberpunk2077 das neue "Can-it-Run-Crysis"

4K Ultra + RT Psycho ist nur was für den Fotomodus :D

Zumindest RT Ultra sollte mit DLSS 0,0 Problem sein.
Jetzt ist ja auch der Benchmark dazu da, sieht man mit Balanced absolut kein Problem.
RX GPU's kann man dementsprechend für Cyberpunk völlig vergessen sobald man RT nutzen möchte, ohne DLSS geht da gar nichts.
 
Testet ihr die RX GPU's jetzt nur noch mit SAM und nicht mehr getrennt ohne und mit?
Den CPU RT Benchmark finde ich klasse, also kostet offensichtlich RT auch gut CPU Leistung, interessant.
Wo steht denn der besagte "CPU RT Benchmark" - habe ich den übersehen ?
Edit: Ja, den habe ich übersehen xD

Die Frage ist ja eher, ob dort nicht die GPU für schuld ist, je nachdem, wie die Stelle halt gewählt wurde und die Auslastung der GPU aussieht - Raytracing kostet ja generell von der GPU sehr viel Leistung....
@pcgh wie war die Auslastung der Karte - lag die auch bei 100% in 720p ?
 
Vermutung: Wenn du jahrelang ein Spiel entwickelst arbeitest und optimierst du auf ne CPU Architektur die es damals halt gibt. Dass Intel seit ewigen Zeiten Skylake rebrandet könnte hier ein Vorteil gewesen sein. :ugly:
Hmm, dann würde ich mal vermuten wären die Ryzen 5950x Ergebnisse nicht so gut wie sie im Verhältnis sind.

@PCGH macht ihr mal eine Probe bei Intel und AMD mit SMT off?
 
Zuletzt bearbeitet:
Zurück