[PCGH-Community-Benchmarks] Cyberpunk 2077 (GPU)

Aus Neugier: Wie bencht ihr genau? :-)

Im Video sieht man, dass ich da noch einen "Trockenlauf" einschiebe. Im FAQ steht, warum: damit die Grafik sich in den richtigen Zustand begibt. Wenn ihr direkt nach dem Laden losrennt, fehlt ein Großteil der Spiegelungen. Erst ab ~23:15 Uhr Ingame-Zeit ist's "korrekt".

MfG
Raff
Ich laufe vor dem eigentlichen Durchlauf immer einmal den ganzen Weg ab, sodass garantiert alles richtig geladen ist.
 
Aus Neugier: Wie bencht ihr genau? :-)

Im Video sieht man, dass ich da noch einen "Trockenlauf" einschiebe. Im FAQ steht, warum: damit die Grafik sich in den richtigen Zustand begibt. Wenn ihr direkt nach dem Laden losrennt, fehlt ein Großteil der Spiegelungen. Erst ab ~23:15 Uhr Ingame-Zeit ist's "korrekt" (das sieht man hingegen nicht im Video). Wenn ihr natürlich alle vor 23 Uhr (ingame) messt, ist alles vergleichbar. Das sollten wir nur vorab klären. :D

MfG
Raff
Hab jetzt ehrlich gesagt nicht drauf geachtet. Bin beim ersten mal die Strecke hin und zurück gelaufen und hab danach angefangen zu benchen. Hab aber nicht immer neu geladen, sondern bin zum Start zurück gerannt, weils schneller geht. Macht das in In-Game Zeit schon so einen großen Unterschied das sich die Ergebnisse merkbar ändern?
 
So war es bei mir auch. Einmal ablaufen und dann in einem Lauf alle Auflösungen abgearbeitet. Ich habe aber auch gerade extra noch mal geprüft und den Run um 23:15 gestartet und quasi exakt dieselben Ergebnisse bekommen. Solange also die Screen Space Reflections geladen sind scheint es zu passen :daumen:
 
Ist drin.
Kommt da noch UHD?
4k geht hier nur mit VSR.

GPU OC Setting... :)

1080P
coldastop|RX 6900 XT|2652/2100 FT1 MHz|Core i9 9900KS|96,9/83 Fps|Link

1440P
coldastop|RX 6900 XT|2650/2100 FT1 MHz|Core i9 9900KS|63,4/56 Fps|Link

Hab jetzt ehrlich gesagt nicht drauf geachtet. Bin beim ersten mal die Strecke hin und zurück gelaufen und hab danach angefangen zu benchen. Hab aber nicht immer neu geladen, sondern bin zum Start zurück gerannt, weils schneller geht. Macht das in In-Game Zeit schon so einen großen Unterschied das sich die Ergebnisse merkbar ändern?
So habe ich es auch gemacht, wenn man damit fertig ist ist es Ingame eh nach Null Uhr. :D

edit: Kann man meine beiden Settings eintragen? Das Erste war im Treiber nur auf Manuell plus Fast Timings gestellt ohne am Takt und PT rumzuspielen, bei dem zweiten (OC Setting) war das More Power Tool mit ausgehebelten PT im Spiel.

edit: Die Aussage stimmt so nicht, habe die Treiber und MPT Settings eingefügt.

Setting 24/7
https://abload.de/thumb/cp_pcgh_gpu_bench_trefqjbf.jpg

Setting GPU OC
https://abload.de/thumb/cp_pcgh_gpu_bench_mptmdjvk.jpg
 
Zuletzt bearbeitet:
FHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|80,7/64 Fps|Link

WQHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|54,8/47 Fps|Link

UHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|28,6/26 Fps|Link

System wie gehabt im 24/7-Modus, mit dem ich derzeit alles spiele (und auch arbeite). Kommt mir irgendwie wenig vor. Ich suche gleich mal paar PCGH-Werte zusammen. System genauer:

Intel Core i7-6900K @ 8C/8T @ 102,5×29 = 2.973 MHz, 4 × 8 GiByte DDR4-2666 bei 14-14-14-38-1T, Nvidia Geforce RTX 3090 FE @ ~1.695/9.250 MHz @ 0,737 Volt, entrümpeltes Windows 10 x64 v2009, GRD 462.07 Hotfix @ Q

MfG
Raff
 
4k geht hier nur mit VSR.

GPU OC Setting... :)

1080P
coldastop|RX 6900 XT|2652/2100 FT1 MHz|Core i9 9900KS|97/83 Fps|Link

1440P
coldastop|RX 6900 XT|2650/2100 FT1 MHz|Core i9 9900KS|63,4/56 Fps|Link


So habe ich es auch gemacht, wenn man damit fertig ist ist es Ingame eh nach Null Uhr.
Du kannst VSR nutzen. Das läuft exakt genauso wie nativ ;)
FHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|80,7/64 Fps|Link

WQHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|54,8/47 Fps|Link

UHD:
PCGH_Raff|RTX 3090 ULV|1695/9250 MHz|Core i7-6900K ULV|28,6/26 Fps|Link

System wie gehabt im 24/7-Modus, mit dem ich derzeit alles spiele (und auch arbeite). Kommt mir irgendwie wenig vor. Ich suche gleich mal paar PCGH-Werte zusammen. System genauer:

Intel Core i7-6900K @ 8C/8T @ 102,5×29 = 2.973 MHz, 4 × 8 GiByte DDR4-2666 bei 14-14-14-38-1T, Nvidia Geforce RTX 3090 FE @ ~1.695/9.250 MHz @ 0,737 Volt, entrümpeltes Windows 10 x64 v2009, GRD 462.07 Hotfix @ Q

MfG
Raff
Das sieht tatsächlich etwas sehr gering aus. Ich habe ja auch nur 100MHz mehr und verglichen mit den Ergebnissen aus dem 6700XT Test würde ich sagen, passen meine Ergebnisse.
 
PCGH|RTX 3090|1810/9752 MHz|Ryzen 9 5950X|89,7/78 Fps|Link
PCGH|RTX 3080|1880/9501 MHz|Ryzen 9 5950X|81,4/71 Fps|Link
PCGH|RX 6900 XT|2290/8000 MHz|Ryzen 9 5950X|81,3/68 Fps|Link
PCGH|RTX 2080 Ti|1760/7001 MHz|Ryzen 9 5950X|67,3/59 Fps|Link
PCGH|RX 6800|2200/8000 MHz|Ryzen 9 5950X|64,9/56 Fps|Link

PCGH|RTX 3090|1810/9752 MHz|Ryzen 9 5950X|59,6/54 Fps|Link
PCGH|RX 6900 XT|2290/8000 MHz|Ryzen 9 5950X|54,0/46 Fps|Link
PCGH|RTX 3080|1880/9501 MHz|Ryzen 9 5950X|53,5/48 Fps|Link
PCGH|RTX 2080 Ti|1760/7001 MHz|Ryzen 9 5950X|43,7/39 Fps|Link
PCGH|RX 6800|2200/8000 MHz|Ryzen 9 5950X|42,7/38 Fps|Link

PCGH|RTX 3090|1810/9752 MHz|Ryzen 9 5950X|29,5/27 Fps|Link
PCGH|RTX 3080|1880/9501 MHz|Ryzen 9 5950X|26,3/24 Fps|Link
PCGH|RX 6900 XT|2290/8000 MHz|Ryzen 9 5950X|25,3/22 Fps|Link
PCGH|RTX 2080 Ti|1760/7001 MHz|Ryzen 9 5950X|20,8/19 Fps|Link
PCGH|RX 6800|2200/8000 MHz|Ryzen 9 5950X|20,0/18 Fps|Link

Die Taktraten sind wieder nur grob (globales Mittel, nicht für Zeiberpank direkt).

Passt wiederum gut zu meiner "RTX 3085". Bei den Perzentilen scheint wieder die CPU zu limitieren - aber längst nicht so hart wie beim CPU-Bench. :D

MfG
Raff
 
Habe meinen Beitrag nochmal editiert, damit keine Missverständnisse über die genauen GPU Einstellungen entsteht.

Achso... SAM/rBAR ist hier übrigens aus, da es das verwendete Board nicht unterstützt.
 
So, alles eingetragen und noch ein paar OC Werte von mir hinzugefügt. Die erzeugen aber in erster Linie heiße Luft :D

Ich bin echt gespannt auf das Resizable Bar Bios für die 3090...
 
Durchschnittlich 450 Watt Boardpower in Ultra HD. Läuft (für deinen Stromversorger). :fresse: Ich bleibe bei meinem ULV-Setting, das nur in den allergemeinsten Fällen Spikes über 300 Watt verursacht – das ist den knapp 20-prozentigen Drop der Fps gegenüber Max-OC wert und bringt eine konkurrenzlose Effizienz, solange man nicht auf jedes Frame angewiesen ist (wie bei aktivem Raytracing).

Ich bin ebenfalls sehr gespannt, was rBAR auf einem GA102 bringt.

MfG
Raff
 
GPU OC

2160P
coldastop|RX 6900 XT|2649/2100 FT1 MHz|Core i9 9900KS|30,0/26 Fps|Link

Schnell nochmal benchen bevor es den Performance Patch gibt. :D
Mit etwas Glück erbarmt sich ASUS ja doch noch und gibt SAM/rBAR für seine z390 Bretter frei, nachdem es nVIDIA diese Woche für seine RTX 3000er Serie freischaltet.
 
Hmm CB meinte Cyberbug liefe jetzt schneller seit dem Patch, in der PCGH Szene kann ich keinen Unterschied messen. Kann das mal jemand validieren?
 
Jo, morgen im Laufe des Tages wollte ich Nachtests machen (mit dem Hintergrund der Klärung, ob die Indexwerte alle neu gemacht werden müssen). Aber erst mal rBAR.

MfG
Raff
 
Zurück