Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

Erst mal danke für die ausführlichen Tests.

Also ich finde es hat sich nicht viel verändert.

Generell scheint es weiterhin keine schlechte Idee zu sein, dem Game weitere Entwicklungszeit(und ein paar hoffentlich gute DLCs) zu gönnen, bevor man es durchspielt und RT erscheint immer noch als frühe Luxustestspielerei, die von den Massen nicht genutzt wird.
Insbesondere wenn man auf flüssige fps (60+) steht und das RT auch maximal genießen möchte. Bisher isses ja eh noch recht sparsam eingesetzt.

Mal schauen, wann es sich weiter im mainstream verbreitet.

Also kurz: Im Westen nichts Neues.
 
Das ist ja richtig was du da beschreibst, aber wenn du dich in einem Spiel umdrehst dann müssen die Daten im Cache oder im Vram liegen. Kein Streaming ist schnell genug dafür. Du kannst maximal die Daten reduzieren indem du Bereiche in sagen wir mal OpenWorld Titel in kleinere Häppchen packst. Das wars dann aber auch.
M$ und Nvidia werden schon wissen, was sie tun. Die haben ne Ecke mehr Ahnung als du und ich zusammen ;)
 
M$ und Nvidia werden schon wissen, was sie tun. Die haben ne Ecke mehr Ahnung als du und ich zusammen ;)
Ja richtig,wenn Nvidia wüsste das man sich damit Vram sparen kann dann würde man das auch klar kommunizieren, die sind ja nicht blöd. Man hat es in der Präsi geschickt vermarktet, so das die Leute glaubten das man sich damit Vram spart ohne das NV das behauptet hätte. Geschickt gemacht, muss man Ihnen lassen.
 
Danke für den Bericht! PCGH!!

Am meisten ärgert mich die NVidia Werbung. Da wird suggeriert, dass man mit einer RTX 3000er Cyberpunk locker "auf Anschlag" spielen kann.

Dank PCGH kommt jetzt raus: Spielbar mit Ultra RT in 4K mit 60 FPS nur mit RTX 3090 und DSSL (Performance Mode).

"Angepinkelt"hat sich CD Project eigentlich nur mit seiner Nvidia Strategie (Nvidia exclusiver Titel, AMD mal erstmal ohne RT).
Für die Bugs im Spiel bin ich nicht so sauer. Das ist halt ein riesiges Project und auf dem PC lief es dafür ok.
Als die Stimmung dann aber kippte, konnte CD Project diese arrogante Politik mit Nvidia nicht mehr fahren. Da hat man schnell RT für AMD gemacht.

Nvidia verlangt nun für seine Karten 2500 Euro. Schön, sind wir endlich angekommen wo NVidia hinwollte. Dank Werbung und aggressiver Politik (10GB sind toll!!)....

Aber was bedeuted das für uns Zocker? Erstmal ist Konkurrenz für uns gut. Wir sind eine Gemeinschaft, oder sollten es sein. Geschäftemacher und "Farmer" gehören nicht dazu.

UND der Wind wird sich zu Streaming (Cloud) in Spielen (Nvidia Now, Stadia, etc.) drehen. Weil die Zocker und Entwickler wollen richtig hübsche Spiele haben, die die dedizierten Grafikkarten nicht in 4 K "bringen".
 
Ja richtig,wenn Nvidia wüsste das man sich damit Vram sparen kann dann würde man das auch klar kommunizieren, die sind ja nicht blöd. Man hat es in der Präsi geschickt vermarktet, so das die Leute glaubten das man sich damit Vram spart ohne das NV das behauptet hätte. Geschickt gemacht, muss man Ihnen lassen.
Tatsächlich spricht Mark Cerny GENAU davon in der PS5 Präsentation... Link

SSD Real-Time-Streaming, deswegen hat die PS5 auch nur 16GB GDDR6 für das gesamte System. Wohlgemerkt Shared Memory, also RAM + VRAM.
"Angepinkelt"hat sich CD Project eigentlich nur mit seiner Nvidia Strategie (Nvidia exclusiver Titel, AMD mal erstmal ohne RT).
Für die Bugs im Spiel bin ich nicht so sauer. Das ist halt ein riesiges Project und auf dem PC lief es dafür ok.
Als die Stimmung dann aber kippte, konnte CD Project diese arrogante Politik mit Nvidia nicht mehr fahren. Da hat man schnell RT für AMD gemacht.
CP auf AMD erst mal ohne RT, stimmt. Mit RT bringt das jetzt aber auch nicht wirklich was. Die Performance ist schon ab RT Medium quasi unspielbar bei FullHD auf den RX 6000 Karten.
Nvidia verlangt nun für seine Karten 2500 Euro. Schön, sind wir endlich angekommen wo NVidia hinwollte. Dank Werbung und aggressiver Politik (10GB sind toll!!)....
Falsch. NV verkauft z.B. die 3080 FE weiterhin für 719,-. Die Scalper Preise sollte man da nicht heranziehen, die macht der Markt und nicht Nvidia. Außerdem sind die aktuellen Scalper Preise bei AMD genauso hoch.

Aber was bedeuted das für uns Zocker? Erstmal ist Konkurrenz für uns gut. Wir sind eine Gemeinschaft, oder sollten es sein. Geschäftemacher und "Farmer" gehören nicht dazu.

UND der Wind wird sich zu Streaming (Cloud) in Spielen (Nvidia Now, Stadia, etc.) drehen. Weil die Zocker und Entwickler wollen richtig hübsche Spiele haben, die die dedizierten Grafikkarten nicht in 4 K "bringen".
Dafür müssen erstmal ein Großteil der Zocker Glasfaser / Multikabel Anschlüsse haben, sonst wird das nix mit 4K Streaming wenn die Mutti nebenbei Netflix guckt. Das wird noch Jahre dauern.
 
Zuletzt bearbeitet von einem Moderator:
Wann fixen die mal diese Grieselreflexionen? Wenn man kein DLSS hat, kann man das kaum ertragen, ich musste es mittlerweile ausschalten.

Selbst in 4k Ultra grieseln die Reflexionen so, als ob man Raytracing ungefiltert auf 320x200 hätte.
 
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Dass die Sandbox Schrott ist, ist ja nichts Neues. Bin eher schockiert was für eine Geisterstadt das auf Konsole ist. Da ist ja gar nichts los auf den Straßen.
 
Da die Konsolen ja die Richtung vorgeben was zukünftig in Spielen so implementiert wird oder nicht und die Konsolen und die AMD GPU´s ja auf der selben Architektur beruhen sehe ich das Thema RT bei den aktuellen AMD Karten sehr entspannt, die werden in Zukunft schon noch einiges rausholen in Sachen RT.
Cyberpunk als Referenz für RT Benchmarks zu nehmen ist meines Erachtens nach ziemlich Sinnfrei da es von vorneherein auf Nvidias RT Kerne optimiert ist, also ziemlicher Quatsch der Test.
Um ein grobes Fazit zu ziehen okay und auch schön zu lesen. Insgesamt wäre mir eine 6800XT trotzdem lieber wie eine 3080, da Sie mehr Speicher hat und meist auch bissl flotter ist, auf RT usw. geh ich persönlich so oder so erst genau ein wenn es sich mehr etabliert hat, denke so nächste GPU Generation.
Nur mit dem DLSS Gegenstück lässt sich AMD irgendwie ziemlich viel Zeit, schade eigentlich
 
Da die Konsolen ja die Richtung vorgeben was zukünftig in Spielen so implementiert wird oder nicht und die Konsolen und die AMD GPU´s ja auf der selben Architektur beruhen sehe ich das Thema RT bei den aktuellen AMD Karten sehr entspannt, die werden in Zukunft schon noch einiges rausholen in Sachen RT.
Cyberpunk als Referenz für RT Benchmarks zu nehmen ist meines Erachtens nach ziemlich Sinnfrei da es von vorneherein auf Nvidias RT Kerne optimiert ist, also ziemlicher Quatsch der Test.
Um ein grobes Fazit zu ziehen okay und auch schön zu lesen. Insgesamt wäre mir eine 6800XT trotzdem lieber wie eine 3080, da Sie mehr Speicher hat und meist auch bissl flotter ist, auf RT usw. geh ich persönlich so oder so erst genau ein wenn es sich mehr etabliert hat, denke so nächste GPU Generation.
Nur mit dem DLSS Gegenstück lässt sich AMD irgendwie ziemlich viel Zeit, schade eigentlich
CP2077 nutzt DX12 Ultimate. Die Befehlssätze sind also dort definiert, nur sind die RT Cores bei Nvidia deutlich schneller und bieten mehr Features (siehe Link). Da das Spiel auf den Karten beider Hersteller mit DX12U läuft ist hier der Vergleich sogar am sinnvollsten.
 
Das ist derzeit nun mal extrem leise Zukunftsmusik. Bis zu einer flächendeckenden Implementierung reden wir vermutlich eher von 5+ Jahren. Bis dahin (und auch danach) werden zahlreiche Spiele erscheinen, die es mit der Optimierung nicht so genau nehmen, so wie das immer ist. Vergleiche doch mal Doom Eternal mit Ark, in Sachen Geschmeidigkeit also Butter in der Sonne mit einem Sack Kokosnüsse. Für was rüstest du auf, wenn dich der Inhalt interessiert? ;)

MfG
Raff
Ich würde mal sagen das man aufrüstet weil das Auge mitspielt, selbst wenn man Inhalte über Grafik stellt und leider leider, viele Entwickler nach wie vor nicht verstehen das ein ästhetisch & vom Art-Stile gut aussehndes Spiel nicht alleine bedeutet das man die zu Zeitpunkt X maximal vertretbare Menge an Polygone auf die Objekte pfeffert, mit Effektgewittern um sich wirft und Rechenleistung auf maximal unötig phsyikalischen Unsinn in ein Spiel verwendet, sondern dadurch entsteht man die Dinge und den allgemeinen Artstile gut aufeinander abstimmt und so implementiert das sie den bestmöglichen Effekt bei möglichst geringer Auslastung erzielen.

Darum kann ich mir das deutlich ältere Fallout Tactics auch heute noch grafisch geben, aber von einem ungemoddeten Fallout 3 bekomme ich bald Augenkrebs, darum kann ich heute noch ein X3: Terran Conflict spielen, mir aber das vergleichbar alte Assassins Creed 2 einfach nicht mehr geben.

Viele Spiele sehen halt leider direkt sichtbar weniger gut aus wenn man die Grafik deutlich runterschraubt, weil selbige halt in der Regel auf sehr hohe bis maximale Setting zu Release X abgestimmt ist, aber nicht mehr darauf auch in Hoch und mittel grafisch und stilistisch zu überzeugen und leider altern sie dadurch auch nicht selten nicht so gut.
 
Zuletzt bearbeitet:
Das Problem mit den sichtbaren LoD Stufen wird mit den MeshShadern angegangen.
Hier wieder der Appell. Lies dich um gottes Willen mal ein!

Das gesamte f*ckin Memorymanagement wird hier umgebaut. :ugly: Versteht denn hier wirklich keiner welche Auswirkungen das hat??!

Solche gravierenden Änderungen/Fortschritte gabs zuletzt 2007 als unified Shader eingeführt wurden.

Ich werd jetzt auch ganz sicher nicht versuchen jeden Mist zu erklären, wenn man nur mal etwas googlen bräuchte. Im DirectX developer blog ist ja schonmal vieles beschrieben. Aber wem erzähle ich das. Ihr seid ja alle sehr versiert, ja..
Wenn Schachmatt123, raPid-81 und owned139 Deinen Beitrag liken....
 
SSD Real-Time-Streaming, deswegen hat die PS5 auch nur 16GB GDDR6 für das gesamte System. Wohlgemerkt Shared Memory, also RAM + VRAM.
Ja wir reden hier von einem SOC, der die Daten sowieso in ein und den selben Speicher packen muss.
Hast du einen SOC wo alle Spieldaten in GDDR6 lagern und genau so fix angebunden sind? Wohl kaum.

Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
 
Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
Mit DirectStorage geht es gearde darum den Zwischenschritt über das RAM zu sparen, also von M2 (PCI-E) XXX SSD direckt in das VRAM. Und zwar ohne die CPU mehr als peripher zu belasten.
Dies gilt aber nicht nur für Texturen,es gilt für ALLE Objekte.
VRAM spart man damit lediglich für eine/pro Szene ein , denn man braucht damit auch nur die TEILE (sogar BIT genau) der Texturen (und Objekte) im VRAM, die auch "sichtbar" sind.

Bei DirectStorage ist das "Texture Streaming" eigentlich das "billigste" zu implementierende Feature, könnte man sogar im Treiber FAKEN, wenn man es nicht in Hardware in der GPU hätte.
Was hatte Nividia bezüglich DirectStorage nochmal hervorgehoben? ;)
 
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Mit er einschränkung das der nächste Urlaub ausfällt bei den GPU Preisen zur Zeit
Deshalb ne RTX3090 weil Urlaub ist auch 2021 nicht wirklich sicher möglich.
ZuHause zocken schon
 
Was hatte Nividia bezüglich DirectStorage nochmal hervorgehoben? ;)
Eigentlich nur die Dekompression auf der GPU. DirectStorage erlaubt ja nur das direkte verschieben der Daten von der SSD in den VRAM anstatt den Umweg über den RAM zu nehmen. Bei komprimierten Daten müssen diese aber von der CPU dekomprimiert werden, das übernehmen im RTX IO Fall die CUDA Cores.
 
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
Die Mods auf Nexus schaffen Abhilfe? Ich schaue es mir mal an. Danke... :-)
 
Eigentlich nur die Dekompression auf der GPU. DirectStorage erlaubt ja nur das direkte verschieben der Daten von der SSD in den VRAM anstatt den Umweg über den RAM zu nehmen. Bei komprimierten Daten müssen diese aber von der CPU dekomprimiert werden, das übernehmen im RTX IO Fall die CUDA Cores.
Cuda Cores ist nichts anderes als Shader, man verwendet als GPU Leistung um mit lahmen 24Gbps an die GPU zu gehen, toll.

Die Technik ist super zum nachladen und würde Ladezeiten in Spielen quasi vollständig eleminieren. Was sich hier jedoch zurecht fabuliert wird mit weniger Vram Verbrauch oder das die GPU diese Daten direkt abgreifen könnte ist absolut unrealistisch. PCI Ex ist schon zu lahm mit 16 Lanes dafür, die popeligen 4x an der NVME erst recht und nichtmal die werden von SSD´s ausgelastet.
 
Zurück