Cyberpunk 2077 im Technik-Test - CPU- GPU- und Raytracing-Benchmarks [Liveticker!]

Wenn das so weiter geht, spiele ich mit 60 noch @1080p144Hz. :ugly:

Damals GTX1080, "ist doch OP für FullHD". Jetzt eine RTX2080S, die ja auch OP für FullHD ist, jaja...

Aber gar nicht so verkehrt, wenn ich das hier lese:
Alternativ den alten 1080P Monitor auspacken. Ich komme da mit einer RTX2080 nonsuper mit Preset Ultra und vollem Raytracing und DLSS Quality auf sehr stabile 60 FPS.
 
Weiß jemand, wie es mit den Grafikkarten verhält, wenn man von Ultra auf High zurückstellt? Bei den neuen Grafikakrten braucht man das sicherlich nicht machen, die haben eh genug Leistung, aber bei der GTX 1000er Reihe bzw. Vega/Polaris Ableger wäre das interessant.

Ich selber spiel hier mit einer Vega56 auf 1440p, nicht mal 30fps zu haben wäre schon hart, aber es m+ssen bekanntlich ja nicht immer die Ultra Details sein :P
 
Ich habe mir ein paar negative Reviews durchgelesen. Neben Bugs, bei denen auch so ein bisschen getan wird, als wären Spiele wie z.B. Red Dead Redemption 2 fehlerfrei released worden, sind die Nutzer vor allem von der Grafik enttäuscht. Bemängeln, dass es auf ihrer 1060 überhaupt nicht gut aussieht.

Während RandomGaminginHD wie immer das Low-End testet und selbst von 1080p mit Low-Settings noch beeindruckt ist,

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

scheinen viele vor allem darüber enttäuscht, dass es nicht so unglaublich aussieht wie z.B. bei der Hommage von Digital Foundry, die unverhohlen und detailliert ihrer Bewunderung für den ersten und echten Next-Gen-Titel freien Lauf lassen - auch bei mir hat es beim Schnitt zwischen Blade Runner und Cyberpunk kurz gedauert, bis ich realisiert habe, dass ich jetzt wieder das Spiel sehe.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wie Du zu Deinem Schluss gelangst, kann ich nicht nachvollziehen.

Zieh einfach mal deine Rosa-Rote Brille bezüglich der Beleuchtung aus, dann wirst du sehen, dass da einfach nur ein mittelmäßiges Grafikgerüst dahinter steckt. Schau dir mal die peinlichen Wolken, Animationen und Charaktermodelle an, das ist m.E. weit entfernt von nextgen, das ist okay, passabel, mehr nicht.

Wie gesagt, selbst Modern Warfare von 2019 hat bessere Charaktermodelle und Animationen und wie ich bereits schrieb, sind dort bei Architektur beispielsweise Ziegeln, Zerstörungen etc. anständig tesselliert( kann man das so nennen? Kp :D)

Ich habe nicht behauptet, dass CP scheiße aussieht, es ist aktuell wohl einer der schönsten Spiele. Aber das liegt einfach nur an Raytraycing. Raytraycing alleine macht in meinen Augen aber noch keine gute Engine aus und das sieht man wie ich bereits beschrieb z.B. An Physik, Animationen und Charaktermodellen. Daraus resultiert halt auch das enttäuschende Gun- und Meleeplay...

Und dass es nichts geileres gibt als 5k für einen PC auszugeben um dann festzustellen, dass man nicht mal 60 fps schafft, das halte ich dann ehrlich gesagt auch für ein Gerücht. Aber ja, ich weiß, was ihr damit sagen wollt, ich persönlich kann darauf aber verzichten^^...
 
Ich richte gerade den i7-10700K meines Neffen ein und lasse schon die ganze Zeit Benchmarks laufen. Der 10700K ist meist schneller, allerdings sind CPU und GPU Last stets höher als bei bei meinem 3700X. Woran mag das liegen?
Die GPU Last ist höher, weil der i7 mehr Daten ranschaufeln kann für die GPU. Warum die CPU Last höher ist, ist nicht ganz klar. Ich denke, dass der 3700X einfach an den schlechten Latenzen über den IF verhungert. Zen 3 kann das mit einem größeren Cache (also das, was ein einzelner Thread nutzen kann) kompensieren.
 
Der i7-4960X ist 20% schneller als der Ryzen 5 2600? Dann war mein Sidegrade von meinem 3970X @ 4,2 auf den R5 2600 wohl doch eher ein Downgrade. :ugly:

Ich hab auch schlimmeres erwartet, als ich die Zahlen zum R5 2600 gesehen habe, aber limitiert hat der kein Stück, es war immer die 1080 Ti, die das Limit war.

Auf mittel mit Kaskadenschatten auf low und AF 16x schaffe ich in den meisten Situationen in meinen Limiter bei 60 FPS zu laufen (1440p). Hin und wieder fällt es ein bisschen, wenn man auf ne vielbevölkerte Straße kommt. Kann ich zum Glück verschmerzen, auch wenn es durch die 1st person nerviger ist als damals beim Witcher. Immerhin ist es nicht so Tearing-Anfällig, mir ist es zumindest noch nicht aufgefallen.
 
Also ich spiele es auf 4k soweit alles Hoch nicht Ultra , RTX aus und DLSS auf Performance habe 60fps mit meiner 2070s. RTX an 27-32 RTX jst für mich wieder so ein ding was gemacht wurde um alle Karten zu killen. So unoptimiert kann doch nicht sein 50% der Leistung geht verloren.
 
In dem Spiel scheint es irgendeinen brutalen Bottleneck zu geben.

Normal verbraucht die Vega bei mir rund 200 W ohne Powerlimitierung. In diesem Spiel sind es nur gerade mal 150W und der Takt ist spürbar höher als in anderen Spielen. Für mich ein Zeichen, dass da etwas ordentlich limitiert. Es limitiert so stark, dass es eigentlich nur auf Niedrig und FHD flüssig läuft. Für mich sieht es damit schlechter aus als der Wichter 3, der auch in 3200x1800 oder mit höherem Powerlimit in UHD flüssig lief. Die ganzen Lichter haben wohl ihren Tribut?
Keine Ahnung welche CPU du hast aber meine Vega 56 läuft auf volle Pulle.
Und Dank uv verbraucht sie max 170 :)
 
boah, ob ich mit ner FuryX auf Steroiden die 980ti schlagen kann?
Erscheint mir gbbfs machbar. Müsst ich für umbauen, aber Bock hätte ich auf den Versuch.
Hör Sie schon wimmern - gib mir mehr Speicher :D

Scheiße, der Benchmarathon von euch hat ansteckende Wirkung^^
 
Spiegel erst einschalten? Auf die Idee bin ich tatsächlich nicht gekommen, mach ich morgens zu Hause im Bad iwie auch nicht :D aber stimmt ansonsten, dann wird nen Spiegelbild vom Charakter sichtbar.

Wär halt cool gekommen wenn auf spiegelnden Oberflächen allgemein ein Ebenbild vom Charakter erscheinen würde.
z.B. auf den Fensterscheiben oder auch der Glastür zum Waffenlager.
Anhang anzeigen 1345611

Anhang anzeigen 1345612

Weiß gar nicht, sind das dann normale ScreenSpaceReflections die da zum Einsatz kommen?

Tatsächlich muss das so sein. Denn auf den Konsolen gibt es auch Spiegelbild und die werden sicherlich kein RTX haben. ;)
 
Die Ryzen werden strikt auf die nominelle TDP limitiert, statt sie auf Default-PPT Grenze zu belassen. Jedoch bezweifle ich stark, dass die alten Intel-Schinken (Core i 4000 5000 6000 etc.) auch so eingebremst werden. Da dürfte oft nicht mal die Möglichkeit im BIOS bestehen. Die werden im schlimmsten Fall bis zu doppelt so viel Strom ziehen, zumindest die HEDT-Riesenbabies.
 
Also ob die Boards per se richtig auslesen. HT4U hat bereits vor vielen Jahren mit aufwendigen Boardumbauten (und echten Messungen) gezeigt, was die CPUs wirklich aufnehmen. Wenn man sich 1-2 Modelle wie den sparsamen Broadwell herauspickt, kann man damit nicht alle weiteren Boliden schönrechnen.
 
Zuletzt bearbeitet von einem Moderator:
Also ob die Boards per se richtig auslesen. HT4U hat bereits vor vielen Jahren mit aufwendigen Boardumbauten gezeigt, was die CPUs wirklich aufnehmen.
Ich habe die Sensordaten von CapFrameX mit der Deltamethode gegengeprüft. Das hat erstaunlich gut gepasst. Ich find's auch witzig, dass die physikalischen Methoden immer als fehlerfrei hingestellt werden. Kann da etwa nichts schief laufen?
 
Zurück