Special Cyberpunk 2077 Phantom Liberty im Tech-Test: 60 Prozessoren im größten PCGH-Benchmark-Vergleich!

Einerseits mal danke für die ganze Testarbeit die ihr da gerade leistet und andererseits nochmals danke für die ganze Aufklärung, die PCGH und auch viele User hier in den Kommentare immer wieder betreiben. :kuss:Ich habe mich mit diesen "Limitierungen" auch noch nie so im Detail beschäftigt allerdings haben einige von euch das hier so toll erklärt, dass ich mir nun fast sicher bin, es nur anhand der Kommentare jetzt endlich verstanden zu haben. :-X (Obwohl ich das gar nicht vor hatte...haha)
 
Genau so ist es, aber lass den Fanboys ihren Triumph. Auch wenn man in 99% der Fälle GPU limitiert ist und eine Intel CPU dann nicht mehr 2,5x so viel Watt verbraucht. :schief:
Gerade in Cyberpunk wirst du mit DLSS und FG durchaus ins CPU Limit geraten können. Dass Zen 4 mit 3D Cache sehr effizient zu Werke geht ist nichts Neues und sollte neidlos anerkannt werden. Wir können unsere Raptor Lakes untervolten und ein paar Watt einsparen, an die X3D Zens werden wir trotzdem niemals herankommen.

Wer sich trotz der X3D CPUs für Raptor Lake entscheidet macht das bewusst und nimmt die höhere Leistungsaufnahme in Kauf ;)
 
Du wirst mit Deiner CPU auch mit der 4090 nicht über 75 FPS kommen, egal welche Auflösung Du einstellst und welche Grafik-Optionen Du deaktivierst (Raytracing ausgenommen!). Die CPU liefert einfach nicht mehr.

Anhang anzeigen 1438038

Um CPU Limits zu umgehen gibt es aktuell nur Frame Generation, was Du natürlich mit Deiner 4090 nutzen kannst. Und um herauszufinden wie viele Frames die CPU maximal liefern kann muss man dafür Sorgen dass die GPU auf keinen Fall limitiert, also testet man die CPU Limits in niedrigen Auflösungen mit wenigen Details außer Raytracing, weil das auch die CPU belastet.

Morgen kommen ja die GPU Tests, dann kann man schauen: Was limitiert bei mir und meinen Settings? CPU oder GPU?

Na ich bin gespannt, hab ebenfalls nen 5950X + 4090 und zocke auf WQHD.
 
Die Benchmarks sind spitze! Klasse Arbeit, Danke für das Mammut-Projekt! :daumen:

Bzgl. der CPU/GPU Limits könnt ihr ja mal Piktogramme ins Leben rufen. Praktisch die Sendung mit der Maus. Tests in 720p ? Klingt komisch, ist aber so. Warum das so ist, erklären wir euch nächste Woche.

:gruebel:Viel Spaß beim rätseln!

1695240992684.png
 
Damit ich das richtig verstehe in Version 1.63 ist Cyberpunk 2077 ein PS 4 / Xbox 360 Game und in Version 2.0 ist es ein high end Game was so niemals auf der Console so laufen ausssehen würde ???

P.S ich hab eine 1 tb nvme für windows aber keine nur für Games und jetzt hab ich ein Problem weil ansonsten nur ssd am start ist hmmm der rest der hw scheint ja ok zu sein ......

180 fps Vs. 94/95 fps wow mit DLSS 3.5 und pathtracing hmmm , ich glaube das die 4090 ja angeblich eh 70 % lahmer ist wie eine 5090 gibt es wohl cpu und graka mässig viel luft nach oben . Aber wenn es doch heisst kein prozessor aktuell reitzt eine 4090 aus oder ist schnell genug wieviel schneller muss eine cpu den sein für alle features hmm der 4090 und läuft die ue 5.0 dann überhaupt damit . weil in maxtrix reloaded dauert es 15 min bis lvl geladen und weitere 5 min bis die stadt steht ka ob es an der fehlnden nvme liegt
 
Zuletzt bearbeitet:
I9 9900k soweit entfernt vom 10700k? Sind doch quasi die gleichen Chips und performen +-% identisch. >15% Unterschied. Muss dann ja am RAM liegen. Reiht sich auch i.d.R nicht hinter dem 5600 ein, besonders nicht in Cyberpunk. Hatte beide CPUs ne gewisse Zeit hier zum damaligen Release.

Edit: habe noch mal den 10700k test von damals rausgekramt: https://www.pcgameshardware.de/Core.../und-Core-i5-10400F-Review-Benchmark-1352125/

Über Zeit ist der i9 9900k sicher nicht so viel schlechter geworden.

Dank FG wird das Spiel dann zum glück weiterhin auf 100+ FPS laufen mit RT Ultra. :daumen:

Irgendwie muss man ja bis Zen5 durchhalten. :ugly:
 
Zuletzt bearbeitet:
Gerade in Cyberpunk wirst du mit DLSS und FG durchaus ins CPU Limit geraten können.
Mit FG? Das ist doch gerade CPU-entkoppelt?

Aber ja, mit Pathtracing enabled landet man wohl so oder so im CPU Limit mit einer 4090. Aber auch nur mit der Karte.

Dass Zen 4 mit 3D Cache sehr effizient zu Werke geht ist nichts Neues und sollte neidlos anerkannt werden. Wir können unsere Raptor Lakes untervolten und ein paar Watt einsparen, an die X3D Zens werden wir trotzdem niemals herankommen.

Wer sich trotz der X3D CPUs für Raptor Lake entscheidet macht das bewusst und nimmt die höhere Leistungsaufnahme in Kauf ;)
Oh ja, das wollte ich damit auch nicht sagen! Ich überlege gerade selbst einen 7800X3D zu kaufen. :D
 
Vielen Dank für den tollen, sehr umfangreichen Test.

Mir ist gerade aufgefallen, dass der CPU-Test für Nutzer von AMD-Grafikkarten keine Relevanz hat, denn es wurde gebencht in "1.280 × 720, Raytracing Ultra Preset, FoV 90, AMD SMT on"

Am 14.7.22 im CPU-Test von CP2077 schafft der 9900K noch 91 FPS und jetzt in PL2.0 noch 55 FPS. Zum Glück hab ich das mit dem RT gemerkt.
Das hätt man ruhig explizit erwähnen können.
Und zumindest ein paar CPUs ohne RT machen.

Weil, die ganzen AMD-Karten Leutz können doch sowieso nicht in RT-Ultra spielen.

Ich hab jetzt etwas näher hinschauen müssen, weil Cyberpunk bisher an mir vorbeiging, aber es interessiert mich jetzt, also erstmal das normale CP2077. (Nach Starfield).
 
Damit ich das richtig verstehe in Version 1.63 ist Cyberpunk 2077 ein PS 4 / Xbox 360 Game und in Version 2.0 ist es ein high end Game was so niemals auf der Console so laufen ausssehen würde ???
Nein, Cyberpunk war schon immer ein PS5/XBox Series Game was man vor Version 2.0 aber fälschlicherweise auch auf den Vorgänger Konsolen released hat.
Die CPUs vom PS4 und XbOne(nicht 360) waren schon immer zu langsam, deswegen gab es ja den riesen Shitstorm bei Release, nicht primär wegen dem Zustand auf dem PC.
 
@PCGH_Dave danke für den tollen Test!
Es ist schön zu sehen, wie die alten Prozessoren hier noch performen. Wie viel CPU-Leistung benötigt denn RT ?
Ist z.B. ein i7 4770k noch schnell genug, wenn man es deaktiviert ? Oder hat man dann 30 anstatt 25 FPS ?
 
Ich dachte den Shit Storm gab es , weil es buggy auf den Konsolen war . Und weil es voller fehler war , so schlimm war es auf PC glaube ich nicht . Aber die Consolen waren auch zu alt , man hätte es einfach für next gen machen sollen . Aber wie das eben ist mit Crunch Time und zu hohen erwartungen / versprechungen .
 
Respekt ! Einfach nur Respekt !! :daumen::love:
Praktisch die Sendung mit der Maus. Tests in 720p ? Klingt komisch, ist aber so. Warum das so ist, erklären wir euch nächste Woche.
War aber glaub der Peter Lustig (Löwenzahn/Pusteblume), wenn ich mich nicht irre ... :D
 
Zuletzt bearbeitet von einem Moderator:
  • Like
Reaktionen: QIX
Zurück