Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

hab unter 1440p alles Hoch, RTX mittel und DLSS Ausgeglichen knappe 45 FPS. Auf Ultra ohne DLSS wahnsinnige 19FPS. Die Graka pfeift aus dem Letzen loch.
In 4k möchte die 2080 non S/Ti einfach nur noch aussteigen knapp über 10FPS.
Aber es schaut schon sehr lecker aus, und fühlt sich trotz der niedrigen FPS ziemlich smooth an.
Man merkt auch deutlich das mit DLSS das Bild nicht mehr so scharf ist, ohne DLSS leider unspielbar.
 
Ich muss sagen das ich das Spiel einen Tag vor Release beim Kumpel auf der PS4 Pro angespielt habe. Dort fand ich es gut. War jedoch von der Optik sehr Enttäuscht. Die Videos sahen halt besser aus. Nun konnte ich aber selbst Hand anlegen und meine RTX 3090 Befeuern. Was ich sah konnte ich erst nicht glauben. Die Technik am PC ist ein Generations Sprung. Gut ich habe jetzt natürlich das Luxus Segment zum Spielen. Zeigt aber Brachial was möglich ist. Ohne R:T und DLSS gedönst ist es schon einfach sehr schön und die FPS Zahlen sind in UHD sind bei 80 bis 90 FPS. Schaltet man das Gedönst dazu erlebt man wieder so einen WOW Effekt. Erst mal weil die Performance einbricht und das Spiel dann noch einmal Optisch so richtig die sau raus lässt. Ich bin echt begeistert was möglich ist. Die 60 FPS sind in UHD dann nicht immer zu halten. Aber das ist meckern auf sehr hohen Niveau. Schaltet man einen Gang runter zu WQHD und bedient alle Schalter auf höchstmöglichen Setting erlebt man aber Flüssiges wunderschönes Spiel mit einer krassen Optik , geiler Stimmung und keinen Frame Einbrüchen. Technik Fazit der RTX 3090. In UHD würde ich nicht Unbedingt mit den R:T Features Spielen. Es geht aber auch sehr gut. Aber in WQHD ist einfach etwas Fluffiger. Hat man aber kein Bok auf R.T dann kann man locker in UHD Spielen. Für meinen Kumpel wünsche ich noch einen Patch für die Konsolen. Red Dead Redemption und The Last of Us 2 haben doch gezeigt das es besser geht. Hier muss man echt den Entwicklern den Vorwurf machen da sie es bis jetzt auf Konsole Verkackt haben. Schade
 
Mich würde die Leistungsskalierung mit den Qualitätstufen interessieren. Den Unterschied zwischen Ultra -> High scheint man ja mit der Lupe suchen zu müssen.
Ultra ist für die älteren Karten ja wohl etwas zu viel.

Könnt ihr bitte noch einen Ryzen 2700/2700X mit testen? Bin gespannt ob der mit seinen 8 Kernen schneller als der 3600 ist.

Heute Nachmittag kann ich es dann auch selber einmal testen.
 
Es scheint nach wie vor zu gelten: Wer hohe FPS mag, sollte vergessen, dass es Raytracing gibt. :kaffee:
Alternativ den alten 1080P Monitor auspacken. Ich komme da mit einer RTX2080 nonsuper mit Preset Ultra und vollem Raytracing und DLSS Quality auf sehr stabile 60 FPS.
Die Leistungseinbrüche bei höheren Auflösungen sind einfach nur krass und deutlich aus der Zeit gefallen.
 
Ich bin von 4k zurück auf 2k mit einer 3080 und 9900ks. Läuft sehr flüssig. Mein Problem ist eher, das ich dachte nach HZ Dawn und AC Odyssey, Control jetzt ein Gamepad Pro bin. Leider falsch gedacht. Komme überhaupt nicht mit dem aiming klar, muss ich doch wieder vom Wohnzimmer in mein Kabuff ziehen zu Maus und Tastatur. :nene:
 
Endlich mal wieder ein Spiel das von 8 Kernen massiv profitiert. Man siieht es deutlich bei den jeweiligen Sprügen von Ryzen 3600 zu 3700x und 5600x zu 5800x. Krass ist, das der 6 Kern 5600x praktisch fast gleich schnell wie der 12 Kern ryzen 3900xt. Die neuen Zen3 Generation ist einfach der Hammer. Hoffe die gibts bald in vernünftigen Stückzahlen zu vernünftigen Preisen.
 
Obwohl das Spiel gut über Kerne skaliert und die neuen Ryzen-Prozessoren wohl deutlich schneller sind, ist die Performance auf Intel-Chips ja deutlich besser als gedacht.
 
VIELEN Dank für die Benchmarks.
Teils höchst interessante Ergebnisse dabei.
Etwa einfach zum Spaß: wie gut schneidet der alte 5 Ghz 8 Kerner FX9xxx ab? und der Intel 4790K macht diesen trotzdem platt obwohl nur 4 Kerne. Aber auch das ist irrelevant: mit ihm macht spielen keinen Spaß.
Überraschend schlägt sich auch Broadwell mit eDRAM (5770): kommt der mit 4 Kernen doch glatt an den 8 Kerner Zen erster Generation ran (1800X).
Eigentlich erstaunlich: auch mit dem Topmodell der ersten Ryzen Generation ist das Spielen noch nicht vergnüglich. ABER wer auch immer ein solches Modell hat, kann dank AM4 Plattform einfach nachrüsten. Das geht bei Intel eben nicht.

Schönes Next Gen Spiel, dass noch einige Monate Optimierung und Polishing braucht.
Endlich mal wieder ein Spiel das von 8 Kernen massiv profitiert. Man siieht es deutlich bei den jeweiligen Sprügen von Ryzen 3600 zu 3700x und 5600x zu 5800x. Krass ist, das der 6 Kern 5600x praktisch fast gleich schnell wie der 12 Kern ryzen 3900xt. Die neuen Zen3 Generation ist einfach der Hammer. Hoffe die gibts bald in vernünftigen Stückzahlen zu vernünftigen Preisen.
Die Optimierung ist teils noch etwas komisch: ein 4 Kern Intel 5770 oder 4790 steht dem 8 Kern Zen 1 noch um wenig nach, Zen 2 und 3 ziehen dafür völlig davon.


Was Intel mit ihrem 8 Kern Rocket Lake 2021 noch machen wollen ist mir nicht klar, jedenfalls wird Cyberpunk eines der Spiele sein, die Intel bei Spielebenchmatks an den Pranger stellen werden
 
muss ich doch wieder vom Wohnzimmer in mein Kabuff ziehen zu Maus und Tastatur. :nene:
4k Auflösung scheint mehr und mehr aus der Mode zu kommen und maximal 1440p ist angesagter denn je. Der Leistungshunger ist enorm und verhindert / erschwert neue grafische Details wie Raytracing. =)
:kaffee:
Der PC meiner Freundin im Wohnzimmer hat für solche Fälle kabellose Maus / Tastatur.
VIELEN Dank für die Benchmarks.
Teils höchst interessante Ergebnisse dabei.
Die Ergebnisse sind wirklich interessant. Man sieht auch beispielsweise selten, dass der Zen 1 1800X so dicht am Zen 2 3600 klebt.

Der Core i7 4790 ist ja recht nah an meinem derzeitigen 2600, allerdings taktet letzterer normalerweise weitaus niedriger mit 3,6 bis 3,7 GHz ohne PBO.
Mein Ryzen geht relativ gut bis 4,1 GHz, da wäre meine Frage ob das Game da noch gut mit Takt skaliert.
 
Zuletzt bearbeitet:
Ich hab mir gestern spontan Cyberpunk gekauft und spiele es auf einer AMD R9 380.
Also eine gehobene Mittelklasse Karte von 2015.

Läuft in 1080p auf Preset "niedrig", aber mit Textur "hoch" zwischen ca. 35 und 45 Fps, in manchen Szenen auch mal 28 Fps.
Ist nicht viel, aber für ein Singleplayer Spiel spielbar. Immerhin besser als auf den alten Konsolen.
Grafik ist trotzdem super (warum sollte sie auch schlechter sein, als was die Karte sonst konnte), allerdings schöpfe ich so natürlich nicht das ganze Potential aus. Vor allem die ganzen Schatten und Lichteffekte kosten Unmengen an Performance.
Auf Ultra (zum Test ausprobiert), ohne Raytracing natürlich, sind es zwischen 5 und 15 Fps :D

Wollte damit nur sagen, dass man sich nicht unbedingt einen neuen PC deswegen kaufen muss. Wenn ich dann doch mal nächstes Jahr nen Highend PC wieder kauf, kann man ja nen zweiten Durchgang starten.
Es ist halt aber auch so, dass CDP als offizielle Hardwareanforderungen folgendes angibt:

Minimum:
OS: Windows 7
CPU: i5 3570k / FX 8310
RAM: 8 GB
GPU: GTX 780 / RX 470

Empfohlen:
OS: Windows 10
CPU: i7 4790 / R3 3200G
RAM: 12 GB
GPU: GTX 1060 / R9 Fury

Das passt ja so überhaupt nicht zu den Benchmarks und was bei euch rum kommt. Ich meine empfohlene Hardware sugerriert eigentlich das dass Spiel schon sehr gut bei mindestens hohen Settings spielbar sein müsste.
Das driftet meilenweit von der Erwartungshaltung ab.
Es ist klar das CDP noch massiv nachbessern wird. Eine neue Karte jetzt speziell für Cyberpunk zu kaufen ist nur eine Lösung bei der unverhältnismäßig viel Leistung in das Game gehämmert werden muss, um einen minimalen Standard von 60 FPS bei angemessener Grafik zu erreichen. Das sehe ich nicht ein, zumal auch noch die neuen NVidia GPUs in dieser Generation mit fieser Leistungsaufnahme daherkommen.
Cyberpunk ist das technische Komplementär zur GPU Verfügbarkeit, über beides kann man derzeit :kotz:
 
Empfohlen:
OS: Windows 10
CPU: i7 4790 / R3 3200G
RAM: 12 GB
GPU: GTX 1060 / R9 Fury
Cyberpunk ist das technische Komplementär zur GPU Verfügbarkeit, über beides kann man derzeit :kotz:
Die Empfehlung meint wohl die Anforderungen für 1080p bei mittleren Einstellungen. Erst hohe oder gar ultra-hohe Einstellungen scheinen ziemlich an der Hardware zu nagen.
Mittlere Einstellungen sehen auch zugegeben schon recht gut aus.

Wir sollten vielleicht ein Stück weit davon abkommen, dass neue Titel auf einer 3 bis 4 Jahre alten GPU-Architektur direkt auf Ultra-Einstellungen laufen. Zumal der Titel endlich DX12 zum Zwang macht, was ja eine kleine Schwäche von Pascal Geforces ist. DirectX11 braucht man bei einer solch komplexen Umgebung wohl nicht probieren.
 
Zuletzt bearbeitet:
4k Auflösung scheint mehr und mehr aus der Mode zu kommen und maximal 1440p ist angesagter denn je. Der Leistungshunger ist enorm und verhindert / erschwert neue grafische Details wie Raytracing. =)
:kaffee:
Ja, wobei ich einen 4k Monitor habe und auch eher vorziehe. Die Sache ist halt das du ohne Einschränkungen in 1080p auf nem 4k spielen kannst, da werden dann die Pixel einfach nur 4:1 dargestellt. Bei 1440p Monitoren passt das Pixelverhältnis zu 1080p nicht, da kann es passieren das dass Bild um einiges verwaschener dargestellt wird, sei es wegen Interpolation oder sonstigen Wandlungen.
Wenn man natürlich weiß das man überwiegend 1440p anstrebt macht es aber wiederum Sinn ein Gerät dieser Auflösung zu wählen, zumal sie auch mit höherer Hz erschwinglich sind.
Die Empfehlung meint wohl die Anforderungen für 1080p bei mittleren Einstellungen. Erst hohe oder gar ultra-hohe Einstellungen scheinen ziemlich an der Hardware zu nagen.
Ich glaube schon das sie hohe Settings bei Empfohlen angepeilt haben und mit Optimierungen werden sie das sicherlich so hinbügeln. Die Banane reift halt jetzt beim Kunden.

Ultra Settings sind immer etwas speziell, weil dort einiges viel mehr Leistung kostet und dann noch im Bild zu Bild Vergleich mit der Lupe gesucht werden muss. Da gehe ich immer so vor, stelle hohe Settings ein und schalte spezifisch die ausschlaggebenden Parameter auf ultra.
 
Zuletzt bearbeitet:
Was bei mir viel gebracht hat: volumetrie auf mittel. Wolken und nahegelegene (oder so?).
Wie bei allen anderen Games sind das Performancefresser und keiner braucht es wirklich (Wolken) bzw man sieht sehr wenig Unterschiede.

3700x, rtx 3080, wqhd, RT ultra, dlss balanced oder Quality (weiss nicht mehr genau) auf ca 70-100fps.
Also auch mal an anderen settings schrauben, außer an dlss oder rt.
Gerade volumetrie bist dafür bekannt (rdr2 und AC)

Aber: ich bin noch relativ am Anfang. Wenn die wirklichen RT-Szenarios kommen, wird es sich zeigen

Andere Frage: lohnt es sich HAGS im windoof zu aktivieren? Habe das nach anfänglicher Inkompatibilität mit 1-2 Spielen deaktiviert und seitdem nicht mehr aktiviert.
 
seit ich auf twitch gesehen habe wie es weiter geht, nehme ich all die negative kritik zur weltgröße und spielumfang zurück. es wird sick! autorennen, weniger neolicht, OPEN WORLD etcpp++++ folgt erst noch ♥

Hab ich doch gesagt. Im Prolog öffnet sich die Spielwelt noch nicht. Daher sind die ganzen Reviews von Leuten, die noch im Prolog sind mit großer Vorsicht zu genießen. Zumindest wenn sie sich über die Handlung und den Umfang äußern. ;)
 
Zuletzt bearbeitet:
Hatte noch zuwenig Zeit mich darin zu vertiefen, aber ohne DLSS mit RT nicht spielbar.
Habe aktuell alles maxed in 1440p mit DLSS Quality und halte mehr oder weniger gut 60fps. DLSS off schraubt mich auf ~30fps runter.

Wie andere schon berichtet haben, der 9900k läuft allcore auf 4,7 Ghz und hängt brutal im GPU Limit, die 3080 gibt hier echt alles.
 
Es ist halt aber auch so, dass CDP als offizielle Hardwareanforderungen folgendes angibt:

Minimum:
OS: Windows 7
CPU: i5 3570k / FX 8310
RAM: 8 GB
GPU: GTX 780 / RX 470

Empfohlen:
OS: Windows 10
CPU: i7 4790 / R3 3200G
RAM: 12 GB
GPU: GTX 1060 / R9 Fury

Das passt ja so überhaupt nicht zu den Benchmarks und was bei euch rum kommt. Ich meine empfohlene Hardware sugerriert eigentlich das dass Spiel schon sehr gut bei mindestens hohen Settings spielbar sein müsste.
Das driftet meilenweit von der Erwartungshaltung ab.
Es ist klar das CDP noch massiv nachbessern wird. Eine neue Karte jetzt speziell für Cyberpunk zu kaufen ist nur eine Lösung bei der unverhältnismäßig viel Leistung in das Game gehämmert werden muss, um einen minimalen Standard von 60 FPS bei angemessener Grafik zu erreichen. Das sehe ich nicht ein, zumal auch noch die neuen NVidia GPUs in dieser Generation mit fieser Leistungsaufnahme daherkommen.
Cyberpunk ist das technische Komplementär zur GPU Verfügbarkeit, über beides kann man derzeit :kotz:
Es ist offensichtlich das CDPR von 30 FPS bei den empfohlenen Einstellungen angepeilt hat und nicht 60. Das Argument dass es ja ein Next Gen Titel ist und man somit mit 3-4 Jahre alter Hardware entsprechende Leistung nicht erwarten kann ist aber mehr als haltlos. Das Spiel wurde für die Last- Gen Konsolen entwickelt. Wenn man sich da die Aussagen der PS4/ XBOX Nutzer anschaut wundert einem nix mehr. Ich bin mir ziemlich sicher dass das Spiel zu früh erschienen ist. Oder möglicherweise die Ansprüche der Entwickler zu hoch waren. Ob da noch was mit Patches zu verbessern ist wird sich zeigen. Bisher gibt es glaube ich noch keine offizielle Äußerung von CDPR. Ich werde das Spiel erst einmal auslassen und abwarten.
 
Ja, wobei ich einen 4k Monitor habe und auch eher vorziehe. Die Sache ist halt das du ohne Einschränkungen in 1080p auf nem 4k spielen kannst, da werden dann die Pixel einfach nur 4:1 dargestellt. Bei 1440p Monitoren passt das Pixelverhältnis zu 1080p nicht, da kann es passieren das dass Bild um einiges verwaschener dargestellt wird, sei es wegen Interpolation oder sonstigen Wandlungen.
Ist leider nur in der Theorie so...

Praktisch interpolieren die Monitore und GPU's leider genau do Pixelbreiig wie bei 1440k

Abgesehen davon:
Wer bitte kauft sich ne 3080 damit er dann von 4k zurück auf wqhd oder sogar Full HD wechseln kann.

Klar dann reicht zumindest auch der geringe vram von 10GB.

Aber ich bin sein der 1080 TI in 4K unterwegs. Und erreiche nun mkt der 3090 auch in vielen Spielen 100+fps

Und ich finde raytracing überbewertet.
(Sagt der 3090 besitzer xD)

Ich kann CP77 in Ultra mit raytracing und DLSS flüssig in 60 fps spielen. Trotzdem sehe ich kein Grund so viel Leistubg zu opfern.

Raytracing aus, alles andere Ultra und ich habe in 4K 100+ Fps. Bringt mir gefühlt mer als paar Spiegelungen.
 
Bei mir läuft eine 3080 + Ryzen 5 3600.

Max. Settings. 4k mit DLSS Qualität. RT aus. HDR an.
So bin ich zu 99% bei stabilen 60Fps.
2,5Meter von einem 65" OLED sitzend, ein Erlebnis...?

Bei Cyberpunk habe ich die gleiche RT Erfahrung gemacht, wie letztes Jahr bei BF5:
häufig siehts du bei aktiviertem RT, von diesem, nur eins, und zwar dass die FPS um ca. 30% einbricht.
Kein RT Effekt sichtbar, oder bewusst wahrnehmbar, aber die Fps sind "im Keller".
Zwischendurch hat man dann vielleicht Glück, vor einer Pfütze zu stehen, so dass man den RT Effekt auch wahrnimmt...Aber sonst...

Sieht man sich ein Video an, entsteht der Eindruck, RT würde den Gesamteindruck, permanent, enorm verbessern.
Doch dass täuscht.
Während des Spiels nämlich, wird einem bewusst, dass so ein Video, für gewöhnlich, aus vorselektierten Szenen besteht.

M.M.n, sorgen konstante 60fps, für wesentlich mehr Realismus.
 
Zuletzt bearbeitet:
"Hexacores gnadenlos von 8-, 10- und 12-Kernern vernichtet"

@PCGH: VERNICHTET. Ich dachte ihr seid eine ordentliche Quelle. Es ist immer noch ein PC und ein Spiel. Kein Krieg, wo jemand vernichtet wird. Bitte schreibt Eure Texte wieder in einer normalen Sprache.
 
Zurück