Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Das Spiel wurde für die Last- Gen Konsolen entwickelt.

Mein Eindruck ist eher, dass die das primär auf PC Architektur entwickelt haben. Überhaupt nicht verwunderlich, dass dieses innovative Konstrukt mit Uralthardware von vor 8 Jahren nicht zurecht kommt und 8Cores/16Threads sehr gut vertragen kann.
Erstaunlich nur, dass sie sehenden Auges mit dem Konsolenport gegen die Wand gerannt sind. Es hilft da halt einfach nicht an ein paar Grafikeinstellungen zu drehen und das hätte man wissen müssen.
Wobei, das Management meinte ja offensichtlich auch, super duper Raytracing wäre wichtiger als Immersion in eine lebendige Spielwelt.
 
Was ist das denn für ein bescheuerter Test?

Hauptsache eine 1080 wird in den Test mit aufgenommen.
Eine 2080 , die weit aktueller ist jedoch nicht. ebensowenig ein Ryzen 7 2xxx.

Sowohl Grafikkarte als auch CPU sind weit verbreitet.. Nur bei PCGH offenbar nicht.

SO kann man den Test natürlich in die Tonne treten, wenn nichtmal alle gängisten Modelle von CPU und Grafikkarte getestet werden...
 
Was ist das denn für ein bescheuerter Test?

Hauptsache eine 1080 wird in den Test mit aufgenommen.
Eine 2080 , die weit aktueller ist jedoch nicht. ebensowenig ein Ryzen 7 2xxx.

Sowohl Grafikkarte als auch CPU sind weit verbreitet.. Nur bei PCGH offenbar nicht.

SO kann man den Test natürlich in die Tonne treten, wenn nichtmal alle gängisten Modelle von CPU und Grafikkarte getestet werden...
Hab ich ein Knick in der Optik? o_O
1607673746446.png
 
Was ist das denn für ein bescheuerter Test?

Hauptsache eine 1080 wird in den Test mit aufgenommen.
Eine 2080 , die weit aktueller ist jedoch nicht. ebensowenig ein Ryzen 7 2xxx.

Sowohl Grafikkarte als auch CPU sind weit verbreitet.. Nur bei PCGH offenbar nicht.

SO kann man den Test natürlich in die Tonne treten, wenn nichtmal alle gängisten Modelle von CPU und Grafikkarte getestet werden...
Eine 2070 Super ist enthalten. Das die 2080 nennenswert mehr fps auswirft brauchst du nicht erwarten...
 
@PCGH_Dave _
Ich hab das schon einmal gefragt: Warum wird der 9900K mit 2666er Speicher getestet? Die Vergleichbarkeit ist so sehr zweifelhaft. es wäre wesentlich sinnvoller CPUs in in etwa der gleichen Leistungsklasse mit ähnlich schnellem Speicher zu benchen.

edit: Ich finde Eure Tests sonst herausragend, aber das Speicher-Kauderwelsch kann ich schwer nachvollziehen.
----> https://www.intel.de/content/www/de/de/products/processors/core/i9-processors/i9-9900k.html
Siehe "Speicherspezifikation"
Ich denke die CPU-Benchmarks hier sind mit ziemlich großer Sicherheit von AMD gesponsert worden, um den Mythos Multicore zu befeuern...
Die Jungs von UserBenchmark können ihr Handwerk und laut denen ist Multicore aktuell und in Zukunft irrelevant.
Der war gestern Abend echt Hammer, ich habe mich zuhause weggeschis*en, als ich das gelesen habe :lol::lol: Danke dafür.
Hab jetzt mal grob alles überflogen. Was geht denn bei den PCGH Boys ab hier? Wollte schon fast schreiben haben die gekok... oder was, oder sind die nur geil aufs Game und testen wie die Berserker grad, die sind ja regelrecht im Rausch^^ Auf jeden fall ein fettes Dankeschön ans Team.
Ich persönlich halte zwar nichts von einem Hype, aber das muss ja nicht für andere gelten. Mir hat es gestern jedenfalls Spaß gemacht und das geht heute so weiter.
Kann man mit nem 3600 mit 3800CL14 tuned subs + CPU OC was reißen oder net?
Hau den schnellen Speicher mal beim 6 Kerner rein Dave + mach mal 4.3-4.4GHz CPU Takt.
Derlei Spezialbenchmarks sind für heute geplant. Es wird sich aber noch zeigen müssen, was wir zeitlich schaffen.
Ja, zweimal die GPU-Szene.
Huh? Das gebe ich gleich mal Raff weiter, wird gecheckt, danke!
Was ist das denn für ein bescheuerter Test?

Hauptsache eine 1080 wird in den Test mit aufgenommen.
Eine 2080 , die weit aktueller ist jedoch nicht. ebensowenig ein Ryzen 7 2xxx.

Sowohl Grafikkarte als auch CPU sind weit verbreitet.. Nur bei PCGH offenbar nicht.

SO kann man den Test natürlich in die Tonne treten, wenn nichtmal alle gängisten Modelle von CPU und Grafikkarte getestet werden...
Wenn CPUs fehlen (das Thema ist immer noch ein Liveticker, sollen wir es noch dicker in die Headline packen?), kann man sich auch mit unserem CPU-Index behelfen, der aussagt, dass ein Ryzen 7 2700 im Schnitt drei Prozent über einem Ryzen 7 1800X liegt. Die IPC hat sich von Zen auf Zen+ hat sich kaum bis gar nicht verbessert.

Generell: Ich teste heute weitere CPUs, darunter kommen fünf komplett neue Modelle, die es in noch keinem Benchmark zu bestaunen gab. Ihr dürft gespannt sein :devil:
 
Nach ca. 1-2 Stunden rumtüfteln an den Settings fahre ich mit den Einstellungen eigentlich soweit ganz gut:
- Sämtliche Einstellungen auf "Hoch"
- Filmkörnung AUS
- Chromatische Aberration AUS
- Schärfentiefe und Blendenflecke sind aktuell noch AN
- Bewegungsunschärfe :-$AUS
- Raytracing komplett AUS. Sobald ich auch nur die geringste Stufe einschalte habe ich einen Leistungsverlust von gut 50% - daher für mich keine Option.
- DLSS steht bei mir auf "Ausgeglichen"

In geschlossenen Räumen habe ich eigentlich soweit immer 60 FPS. Sobald ich in der offenen Welt bin schwanken die FPS zwischen 45-55 FPS - dank FreeSync auch hier noch sehr angenehm. :)
Gespielt wird übrigens in 4K auf einem Ryzen 5 3600 4,2 GHz, RTX 2080 OC sowie 32 GB RAM.
 
Man merkt auch deutlich das mit DLSS das Bild nicht mehr so scharf ist, ohne DLSS leider unspielbar.
einfach im Nvidia Control Panel minimal schärfe nachgeben, Problem gelöst ;)
bei mir reicht es dort 0,02 einzustellen, bin auf Überschärfung ziemlich empfindlich, so sieht es für mich wie ohne Dlss aus. 3440x1440
und die ganzen Verschlimmbesserer ausmachen "Chromatic Aberration" Grain, Tiefenunschärfe
 
Bin ich der Einzige, dem mit DLSS (egal welche Stufe) alles komplett vermatscht und verwaschen vorkommt .. ?!
Ja, aber das liegt nicht an DLSS. Wähle mal das High Preset aus und stelle anschließend DLSS auf Quality und starte dann das Spiel neu. Das ist wohl ein temporaler Effekt der Umgebungsverdeckung.
Wäre auch ein Test SMT on/off einmal auf Intel und AMD drinn?
Wäre _imho_ interessant ob dieses Spiel SMT mag oder nicht oder ob es schlicht egal ist.
Dem schließe ich mich an, @PCGH_Dave.
 
Ihr wisst aber schon das man diese Spiegel erst einschalten muss ? :D
Spiegel erst einschalten? Auf die Idee bin ich tatsächlich nicht gekommen, mach ich morgens zu Hause im Bad iwie auch nicht :D aber stimmt ansonsten, dann wird nen Spiegelbild vom Charakter sichtbar.

Wär halt cool gekommen wenn auf spiegelnden Oberflächen allgemein ein Ebenbild vom Charakter erscheinen würde.
z.B. auf den Fensterscheiben oder auch der Glastür zum Waffenlager.
Cyberpunk 2077 - Window_reflection_without_Char.jpg


Cyberpunk 2077 - Glass_reflection_without_Char.jpg


Weiß gar nicht, sind das dann normale ScreenSpaceReflections die da zum Einsatz kommen?
 
Bei mir läuft es bis jetzt ganz gut. Habe im Durchschnitt 60 fps, je nach Areal sogar zwischen 70-85 fps und ab und an mal Drops bis zu 55 fps soweit mir das aufgefallen ist. (Achte nicht permanent auf die FPS Anzeige)
Läuft auf 2560*1440 und habe alles auf Ultra gelassen, Filmkörnung ist aus, Chromatische Aberration ist aus.
 
Was ist das denn für ein bescheuerter Test?

Hauptsache eine 1080 wird in den Test mit aufgenommen.
Eine 2080 , die weit aktueller ist jedoch nicht. ebensowenig ein Ryzen 7 2xxx.

Sowohl Grafikkarte als auch CPU sind weit verbreitet.. Nur bei PCGH offenbar nicht.

SO kann man den Test natürlich in die Tonne treten, wenn nichtmal alle gängisten Modelle von CPU und Grafikkarte getestet werden...
Wie ein anderer schon geschrieben hat, nimm die 2070 Super +5%, da haste deine 2080.
Meine RX 480 ist auch nicht dabei, weiß aber die liegt auf dem Level einer R9 390 und kann somit abschätzen wo die Reise hingeht.

@dave und Konsorten
Danke für die viele Arbeit und umfangreichen Tests, ich weiß sowas zu würdigen.
 
Zurück