Cyberpunk 2077: Grafikkarten-Benchmarks mit "Low Quality" in russischem Test

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Grafikkarten-Benchmarks mit "Low Quality" in russischem Test

Ein russisches Portal hat einen interessanten Benchmark-Test zu Cyberpunk 2077 veröffentlicht, in dem unter anderem auch mit Low-Details getestet wurde. Wer in Full HD spielt und die Details zurückschraubt, erhält demnach auch mit alten Mittelklassegrafikkarten wie der Radeon RX 470 spielbare Bildraten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077: Grafikkarten-Benchmarks mit "Low Quality" in russischem Test
 
Vorausgesetzt, man nutzt eine CPU vom Schlage eines Core i9-10900K, schafft eine Geforce GTX 1070 mit "Low Details" und Full HD-Auflösung im Schnitt 63 Fps. Bei mittleren Details fällt die durchschnittliche Bildrate auf 53 Fps, bei hohen auf 42 Fps und bei Ultra-Details auf immer noch akzeptable 38 Fps.

Nur ist es halt äußerst unrealistisch und wenig wahrscheinlich das jemand einen vergleichsweiese teuren Klotz wie den i9-10900K im Rechner hat und dann aber nur eine 7970 1GHz Edition, oder einer GTX 1070 verbaut...

Von daher ist es in meinen Augen nur theoretischen Standpunkt her entfernt relevant, das Cyberpunk halt grundsätzlich auch auf alter Hardware noch solide Bilder liefert. ;)

Sehe das ja bei der von mir genutzten Hardware durchaus auch selbst, das ein 8 Jahre alter 4-Kerner mit DDR3 RAM und eine Mittelklasse Karte der letzten Generation schon ausreichen können um in FullHD noch in maximalen Grafiksettings und ohne RT mit brauchbaren und in 90% der Zeit stabilen 45FPS unterwegs zu sein.
 
Meine letzte GPU hab ich sechs Jahre behalten und das "schlimmste", was ich ertragen musste, waren mittlere Details bei 30-40 FPS, nachdem ich die GPU zuletzt mit 1440p überfordert hatte.
Wäre ich bei 1080p geblieben, hätte ich die locker noch ein Jahr behalten können.

Jetzt kann ich mit neuer GPU auch Gsync nutzen und ab jetzt wirds mich noch weniger jucken, ob die FPS konstant bei 60 liegen, da das Microstutter durch Vsync (wenn FPS ungleich Refreshrate) endlich weg ist.

Falls künftig DLSS fleißig genutzt wird, dann dürfte das die potenzielle Nutzungszeit auch nochmal drastisch erhöhen.
 
Zuletzt bearbeitet von einem Moderator:
keine Ahnung was die da gemacht haben

wenn ich das Game von Max auf Min Details schalte sieht alles einfach nur noch potthässlich aus
Das kann ich bestätigen. Habe mit I7 4790k, 16gb 2400hz cl 11 ddr3 ram und gtx 1070 einfach aufgegeben und nach ~ 4 Stunden bei GoG Retour beantragt.

Wqhd war gar nicht machbar und selbst fhd + low settings brachten weder die fps, noch die Optik des Artikels.
 
Ich spiele es auf meinem Laptop mit i7 8750h und gtx 1060 6gb mobile. Klar geht nicht alles auf ultra oder high. Dann muss man sich auch mal mit mittel bis hoch zufrieden geben ;) sieht trotzdem noch fantastisch aus. Und was spielbar ist und was nicht, ist ja auch eher subjektiv. Mit den Einstellungen die ich habe schaffe ich so im Schnitt zwischen 28~30 fps und das reicht mir dicke.
 
Low sollte man ja auch immer vermeiden, weil die Optik dann in vielen Spielen komplett am Ar*** ist, da sämtliche grafischen Features dann meistens einfach komplett abgeschaltet und nicht nur in ihrer Qualität reduziert werden.

Selbst auf den Standard Konsolen wird meist mit Medium Settings gespielt, oder Settings die vergleichbar zum Medium Preset am PC aussehen, so dass die Ästhetik des Spiels intakt bleibt. Alles über Medium bringt dann meist gar nicht mehr soo viel. Aber hängt stark vom Spiel ab.

Low ist meistens der "potato mode" für leute, die es noch irgendwie auf ihrer IGP oder der 10 Jahre alten GPU zum laufen kriegen wollen.
 
Mal eine Frage in die Runde.
Dauernd meinen Leute hier das CP2077 so schlecht optimiert ist und schwärmen dann z.B. von RDR2.
Hab jetzt mal hier auf PCGH die Benchmarks verglichen und irgendwie ist jede Grafikkarte im Vergleich bei CP2077 5-10% schneller bei RDR2 (ohne RT).

1080p Ultra
GPUCP2077RDR2
2080 ti83,374,8
207059,256,1
108042,640,2

Wie kommen dann diese Aussagen zustande? Das RT einfach mehr Leistung kostet sollte klar sein, aber im direkten Vergleich scheint CP2077 nun nicht gerade schlecht optimiert vor allem da mehr NPCs rumlaufen, die Häuserschluchten dürften auch mehr Leistung kosten wie ein Bild mit 30%-40 blauer Himmel.
Oder ist das wirklich der Vergleich ohne gen mit RT?
 
Ja ist generell interessant, vor allem wenn man sieht, was die Leute halt an PCs zuhause haben. Unsere kleine PCGH Blase betrifft eben nur etwa 10% der Spieler, und damit der Käufer, wenn man die eigens noch kultivierten enthusiastischen aber realitätsfernen Befindlichkeiten hinzunimmt, sprechen wir vom einstelligen Prozentbereich der Spieler.

Das ist dann schon nicht mehr ausschlaggebend für Spieleproduzenten, außer man hat eine Gruppierung von Hardcorefans in einem bestimmten Bereich (z.B. Paradox mit Strategiespielen, welche es sogar geschafft haben sich zu etablieren und stark zu wachsen).

Jetzt bin ich mal gespannt wohin die Reise geht, denn die immer weiter steigenden Preise machen nun die PC Spieler rund um den Globus auch nicht gerade aufrüstwillig. Warum auch? Da verfrißt und versäuft man die Kohle lieber, verständlich.

Sprich die Hardwareanforderungen sollten eigentlich immer weiter steigen, aber die Kundschaft rüstet nicht mehr so schnell nach, wie es sein sollte.
 
Mal eine Frage in die Runde.
Dauernd meinen Leute hier das CP2077 so schlecht optimiert ist und schwärmen dann z.B. von RDR2.
Hab jetzt mal hier auf PCGH die Benchmarks verglichen und irgendwie ist jede Grafikkarte im Vergleich bei CP2077 5-10% schneller bei RDR2 (ohne RT).

1080p Ultra
GPUCP2077RDR2
2080 ti83,374,8
207059,256,1
108042,640,2

Wie kommen dann diese Aussagen zustande? Das RT einfach mehr Leistung kostet sollte klar sein, aber im direkten Vergleich scheint CP2077 nun nicht gerade schlecht optimiert vor allem da mehr NPCs rumlaufen, die Häuserschluchten dürften auch mehr Leistung kosten wie ein Bild mit 30%-40 blauer Himmel.
Oder ist das wirklich der Vergleich ohne gen mit RT?

Dieses und jenes Spiel sei schlecht optimiert, ist meistens dahergesprochen. Cyberpunk kostet, ja, aber hat halt auch eine unschlagbare Beleuchtungskulisse, selbst ohne RT. Und wenn ich mir ansehe, wie weit man in die Häuserschluchten schauen kann, auch da eine ganz andere Qualität. Viele meinen halt, dass ihre vier Jahre 1080 Ti alles gefälligst noch auf Ultra mit 100 Fps darzustellen hat, weil das 0815-Ports veralteter Konsolenspiele auch tun. Ist dem nicht der Fall, heult man im Netz über die achso schlechte Optimierung.
 
Vorausgesetzt, man nutzt eine CPU vom Schlage eines Core i9-10900K,
Ist das Spiel so extrem CPU lastig?
Mein letzter Versuch mit meinem Ryzen 2700X inc. Vega 56 lag bei low bei ~20-35 FPS.
(Hatte dann kein Bock mehr weiterzutesten weil ich das Spiel beim Bruder mit nem 5950X und RTX 3080 sah :ugly: )
 
@Vrtra81

Wer hat denn jemals behauptet, dass RDR2 "gut optimiert" sei?
Das erste was man hörte als das Spiel rauskam, war wie das Teil so viel Leistung fressen kann, wenns sogar eines der Spiele ist, die auf der OneX (äquivalent = GTX1060/RX480) in nativen 4K laufen.

War halt wieder typisch für Rockstar, dass man unglaublich viele Optionen integriert hat, um die Grafik weiter nach oben zu schrauben, als in vielen anderen Spielen (mit optisch relativ geringem Mehrwert). War ja bei GTA V genauso, wo die Ultra Graßsettings noch heute GPUs zum schmelzen bringen.

Ob es am PC grundsätzlich gut optimiert war, also fordernde Settings ausgeklammert, ist trotzdem fraglich. Von digital Foundry gibts ein Video wo die exakten Konsolensettings ermittelt wurden. Mit diesen schafft eine GTX1060/RX480 jedenfalls keine 4K30 wie es die OneX tut. Also ist der Port doch schlecht optimiert?
 
Steigen die Preise denn wirklich immer weiter?
Jetzt bin ich mal gespannt wohin die Reise geht, denn die immer weiter steigenden Preise machen nun die PC Spieler rund um den Globus auch nicht gerade aufrüstwillig. Warum auch? Da verfrißt und versäuft man die Kohle lieber, verständlich.
Steigen die Preise wirklich so extrem?
Wenn wir jetzt mal die 3090 und die unverschämten Preise die Händler gerade verlangen außen vor lassen.

Eine Geforce 8800 Ultra sollte 2007 auch schon 699€ UVP kosten, die RTX 3080 jetzt das selbe.
Ein Core2 Duo E6700 lag 2006 bei 530$ UVP, der Core 2 Extreme sogar bei 999$, keine Ahnung ob das mit oder ohne MwSt. ist.

Die Preise scheinen, also eher im gleichen Rahmen zu bleiben.
 
Ob es am PC gut optimiert war ist trotzdem fraglich. Von digital Foundry gibts ein Video wo die exakten Konsolensettings ermittelt wurden. Mit diesen schafft eine GTX1060/RX480 jedenfalls keine 4K30 wie es die OneX tut. Also ist der Port doch schlecht optimiert?
Es war Digital Foundry nur eine Annährung möglich, weil manche Details auf der One X unter den Low-Settings der PC-Fassung liegen. Dazu muss man wissen, dass RDR2 auf den Konsolen verschattungstechnisch im Jahr 2005 stecken geblieben ist - das war ein nötiger Kompromiss, um die Details an anderer Stelle hochzuschrauben für ein in Summe gutes Ergebnis. Am PC kann ich auf derlei "Optimierungen" verzichten.
 
Ist das Spiel so extrem CPU lastig?
Mein letzter Versuch mit meinem Ryzen 2700X inc. Vega 56 lag bei low bei ~20-35 FPS.
(Hatte dann kein Bock mehr weiterzutesten weil ich das Spiel beim Bruder mit nem 5950X und RTX 3080 sah :ugly: )
Ja ist es, habe von einem 2700X auf einen 5800X gewechselt, von Drops bis unter 30fps beim 2700X auf jetzt min. FPS von ~50. AVG war vorher so um die 55-60 und jetzt bei 75-80 mit einer 2080ti auf 1080p mit RT.
 
Steigen die Preise denn wirklich immer weiter?

Steigen die Preise wirklich so extrem?
Wenn wir jetzt mal die 3090 und die unverschämten Preise die Händler gerade verlangen außen vor lassen.

Eine Geforce 8800 Ultra sollte 2007 auch schon 699€ UVP kosten, die RTX 3080 jetzt das selbe.
Ein Core2 Duo E6700 lag 2006 bei 530$ UVP, der Core 2 Extreme sogar bei 999$, keine Ahnung ob das mit oder ohne MwSt. ist.

Die Preise scheinen, also eher im gleichen Rahmen zu bleiben.
$ immer ohne MwSt.
 
@Vrtra81

Wer hat denn jemals behauptet, dass RDR2 "gut optimiert" sei?
Das erste was man hörte als das Spiel rauskam, war wie das Teil so viel Leistung fressen kann, wenns sogar eines der Spiele ist, die auf der OneX (äquivalent = GTX1060/RX480) in nativen 4K laufen.

War halt wieder typisch für Rockstar, dass man unglaublich viele Optionen integriert hat, um die Grafik weiter nach oben zu schrauben, als in vielen anderen Spielen (mit optisch relativ geringem Mehrwert). War ja bei GTA V genauso, wo die Ultra Graßsettings noch heute GPUs zum schmelzen bringen.

Ob es am PC grundsätzlich gut optimiert war, also fordernde Settings ausgeklammert, ist trotzdem fraglich. Von digital Foundry gibts ein Video wo die exakten Konsolensettings ermittelt wurden. Mit diesen schafft eine GTX1060/RX480 jedenfalls keine 4K30 wie es die OneX tut. Also ist der Port doch schlecht optimiert?
Ja der Port ist schlecht optimiert. Wäre er gut optimiert, würde die 1060/480 jedenfalls 4K30 auf Konsolen-Settings schaffen.
 
mega nice!
man kann GPU mit CPU zur auflösung angeben! performanceunterschied zwischen 5900x und 3900x ist meinem fall +/- 0! was gut ist in der aktuellen marktsituation ;-)
 
Zurück