Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

Na ja, mag sein aber "zurückhaltend" sind die Radeon's mit 300W ja auch nicht gerade.
Wie's allerdings mit der Effizienz im Vergleich aussieht müsste man mal ausrechnen (6900 XT zu RTX 3090).

(Zudem kann man ja noch was mit undervolting rauskitzeln...)

Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...

Nur schade dass man, um alle Performance-Features nutzen zu können, auf ne aktuelle Plattform angewiesen ist. (PCIe 4.0; Rez. BAR) :klatsch:

Die hat aber auch 30% mehr speicher UND Mehr Performance in den meisten Games und isb. GPU Computing...

Zur Zeit ist der Größte Konkurrent der 3090 aber ehr die 3080 weniger die 6900XT - mal abgesehen vom Speicher...
Jetzt mal ernstes Interesse: Bei welchen Spielen gibt’s bei der 3080 10GB ein Problem mit dem Speicher?
 
Schöner Test. Dass Nvidia so davonzieht und dass sogar die kleinsten Turings mit den deutlich potenteren High End GPUs von AMD in Raytracing mithalten können (ohne DLSS wohlgemerkt) liegt einfach daran, dass bei Nvidia zwei Schritte von Raytracing beschleunigt werden, nämlich traversal und Intersection tests, bei AMD werden nur intersections tests beschleunigt, traversal findet immer noch auf den shader cores statt was natürlich lahm ist.

Nichtsdestotrotz darf man nicht vergessen, wie unfassbar aufwendig RT in Cyberpunk ist. Dafür machen die AMD Karten doch eine ganz passable Figur, wenn man die RT Effekte und Raster Effekte ein bisschen runterstellt (z.B. Volumetric Fog und Clouds) sollte man doch eine ganz gute Erfahrung haben.

Auch schön finde ich, wie man sieht, dass die Unterschiede von Medium auf Ultra in Cyberpunk nicht der Rede wert sind, aber sobald Raytracing ins Spiel kommt sieht das Spiel deutlich besser aus. Das ist bei vielen Spielen so, die Unterschiede zwischen High und Ultra oder auch Medium und Ultra sind in vielen Fällen vernachlässigbar, dank Raytracing aber haben wir jetzt endlich wieder Fortschritt!
 
Jetzt mal ernstes Interesse: Bei welchen Spielen gibt’s bei der 3080 10GB ein Problem mit dem Speicher?
LOOOOL Sorry! :lol:

Keine Ahnung ein oder Zwei?

Ernsthaft Ich weiß es nicht... Glaub' bei Horizon Zero Dawn... Hab mir die "10GB is' mir zu wenig" Diskussion die letzten Wochen schon zu oft angetan... Ich kann zwar verstehen wenn einige sagen dass sie "weniger" Zukuftstauglich ist was das angeht,
aber ich bin immer noch der Meinung, dass wenn das wirklich zum Thema wird, die GPU ohnehin schon zum alten Eisen gehören wird...

Ich bin da mal ganz ehrlich - Ich wollte keine Kompromisse eingehen.
Allerdings halten meine GPU's idr. auch gute 4-5 Jahre...
 

DLSS Performance sieht schon nicht mehr so scharf aus und da schafft eine 3090 immer noch keine 60fps. Von daher muss man schon noch etwas mehr runterschrauben. Bei absolut stabilen 60fps muss man noch mehr an der Grafik schrauben.

Das ist sicherlich auch ein Ausnahmetitel, ebenso wie der MS Flight Simulator.

EDIT: Bei DLSS UltraPerformance rendert das Spiel schon nur noch in 720p. Das packt die KI von nvidia dann auch schon nicht mehr vernünftig. Das Spiel sieht gefühlt nur noch nach FullHD aus.
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
 
Sieht man von den Anschaffungskosten ab, ist die RTX 3090 eine weitestgehend kompromisslose Grafikkarte, da bin ich ganz bei dir. Meine FE läuft beispielsweise seit mehreren Wochen mit der Minimalspannung von 0,737 Volt @ 1,7 GHz – und somit selbst bei den gemeinsten GPU-Tötern (inkl. Cyberpunk und Witcher) meist mit weniger als 300 Watt. "Normale" Spiele und Einstellungen liegen in 4K ohne Framelimit irgendwo zwischen 200 und 250 Watt. Sehr zu empfehlen, den berechtigten Kritikpunkt der laufenden Kosten derart zu beseitigen.

MfG
Raff
Hilft bei mir nur bedingt - Hab... 2Stk. :klatsch: Bin von daher auch etwas über Nvidia's kapitalen Abschuss von SLI entsetzt... Grade da wo es dank Memory Pooling interessant wird, wird quasi der Stecker gezogen...

Und CDPR macht scheinbar auch keine Anstalten explizites mGPU nachzureichen... :ka:

Da ich bei Gelegenheit aber beide unter Wasser setzen werde, muss ich mal schauen wie viel man dann effektiv an Strom einsparen kann...
 
Zuletzt bearbeitet:
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
Interessant finde ich, dass Nvidia als Technikpartner da nichts unternimmt. Immerhin steht die Geschichte mit dem zu adjustierenden MIP-Bias in den Richtlinien zur Implementierung von DLSS, wird aber von mehreren Studios nicht umgesetzt (u. a. auch in Nioh 2, wie Digital Foundry zeigte). Wir haben aber nicht geprüft, ob das bei Cyberpunk 2077 v1.2 tatsächlich noch ein Thema ist. Du?

MfG
Raff
 
Interessant finde ich, dass Nvidia als Technikpartner da nichts unternimmt. Immerhin steht die Geschichte mit dem zu adjustierenden MIP-Bias in den Richtlinien zur Implementierung von DLSS, wird aber von mehreren Studios nicht umgesetzt (u. a. auch in Nioh 2, wie Digital Foundry zeigte). Wir haben aber nicht geprüft, ob das bei Cyberpunk 2077 v1.2 tatsächlich noch ein Thema ist. Du?

MfG
Raff
Ja ich finde das auch sehr unverständlich. Wenn ich Nvidia wäre, hätte ich sowas doch sofort überprüft und bei CDPR mal angeklingelt, sie sollen doch das TAA Sharpening etwas reduzieren und Sharpening bei DLSS aktivieren, damit das Bild wieder gleichwertig aussieht. Oder besser noch: vor dem Release noch mal überprüft. Es ist doch ziemlich offensichtlich, dass DLSS in CP2077 unscharf aussieht.

Ja, leider ist das bei 1.2 immer noch so... :/ Das mit den Mip-Level Bias erachte ich aber nicht als so tragisch, denn sobald man Cas per Reshade aktiviert, ist die Texturqualität auf einem Level, ohne dass man etwas am Bias drehen müsste. Ich gehe also eher davon aus, dass es fast nur am fehlenden Sharpening liegt im Vergleich zur nativen Auflösung.
 
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Naja, man kriegt jede GPU irgendwie klein ;) Das merk ich ja schon mit der 3090 in WQHD inkl. RT. Nur mit DLSS hält sich dieser Performance-Einbruch in Grenzen und ist das Spiel auch flüssig spielbar.

Danke für den tollen Test! Ich finde auch, dass RT bei CP2077 einen wirklichen Unterschied in der Qualität und Immersion macht und die Atmosphäre des Spiels extrem anhebt. Hoffentlich wird die RT-Performance mit den nächsten Patches auf den Radeons auch noch besser und AMD schiebt bald ne Alternative zu DLSS nach. Es wäre zumindest wünschenswert in RT an Turing vorbei zu kommen.

Ja, leider ist das bei 1.2 immer noch so... :/ Das mit den Mip-Level Bias erachte ich aber nicht als so tragisch, denn sobald man Cas per Reshade aktiviert, ist die Texturqualität auf einem Level, ohne dass man etwas am Bias drehen müsste. Ich gehe also eher davon aus, dass es fast nur am fehlenden Sharpening liegt im Vergleich zur nativen Auflösung.
Kann man hier, bei aktiviertem DLSS, nicht einfach mit dem Sharpener aus dem Nvidia Control Panel nachhelfen oder entsteht dadurch irgendein Nachteil?
 
Eine 1080TI ist immer noch verdammt schnell und völlig ausreichend

und ich kaufe mir eine High End GPU und dann muss ich mit Einschränkungen leben ?

Nö !

Deshalb RTX 3090 !

Meine RTX1080ti war für 1440p gnadenlos überfordert bei Cyberpunk. Mehr wie Mittel war da nicht möglich und sah einfach nicht gut genug aus.

Mit der RTX3090 musste ich aber auch mit Einschränkungen leben (2160p + DLSS Qualität) inkl. angepasster Settings waren beim benchen grob 50-60Fps möglich. Das war schon ein gigantischer Sprung. Ohne RT schneiden die AMD Karten aber auch sehr gut ab in dem Spiel.

Für mich sollte man das Spiel aber nicht überbewerten. Technisch ist es nach wie vor eine Baustelle und mit mehr Optimierung sind sicher auf allen Plattformen noch deutlich mehr FPS möglich.
 
LOOOOL Sorry! :lol:

Keine Ahnung ein oder Zwei?

Ernsthaft Ich weiß es nicht... Glaub' bei Horizon Zero Dawn... Hab mir die "10GB is' mir zu wenig" Diskussion die letzten Wochen schon zu oft angetan... Ich kann zwar verstehen wenn einige sagen dass sie "weniger" Zukuftstauglich ist was das angeht,
aber ich bin immer noch der Meinung, dass wenn das wirklich zum Thema wird, die GPU ohnehin schon zum alten Eisen gehören wird...

Ich bin da mal ganz ehrlich - Ich wollte keine Kompromisse eingehen.
Allerdings halten meine GPU's idr. auch gute 4-5 Jahre...
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 50+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.
 
Die Performance auf den Radeons ist derzeitin dem Titel deutlich zu schlecht, da geht eindeutig mehr. Ob wir mehr sehen werden,wird sich zeigen. Einerseits hält NV die Hand drauf im einzigen wirklichen Vorzeigetitel derzeit, andereseits werden die Entwickler was brauchbares für die Konsolen abliefern müssen.

Ein sehr ägerlicher Nebeneffekt mit RT ist leider das wirklich sehr unsaubere Bild, das auch teils stark verrauscht ist durch RT.
 
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 60+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.
Na da wollen wir mal hoffen, dass die Komponenten und Chipknappheit nicht noch bis 2023 andauert. Sonst verschieben die Hersteller wohl möglich noch ihre dann neuen Modelle ein Jahr nach hinten...
 
Kann man hier, bei aktiviertem DLSS, nicht einfach mit dem Sharpener aus dem Nvidia Control Panel nachhelfen oder entsteht dadurch irgendein Nachteil?
Ja, geht genauso und sieht auch sehr gut aus. Für Vergleiche ist das aber doof, da man dann das Spiel neustarten muss, denn sonst wäre logischerweise TAA doppelt nachgeschärft. Deswegen hab ich CAS genommen, da man Reshade Effekte easy on off toggeln kann.
Ich finde aber schon, dass CAS einen kleinen Ticken besser aussieht, vermutlich wird das auch bei TAA verwendet (haben ja eh schon FX CAS Upscaling implementiert, dann macht das schon Sinn, dass sie gleich CAS fürs TAA Sharpening verwenden)
 
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Sieht man von den Anschaffungskosten ab, ist die RTX 3090 eine weitestgehend kompromisslose Grafikkarte, da bin ich ganz bei dir. Meine FE läuft beispielsweise seit mehreren Wochen mit der Minimalspannung von 0,737 Volt @ 1,7 GHz – und somit selbst bei den gemeinsten GPU-Tötern (inkl. Cyberpunk und Witcher) meist mit weniger als 300 Watt. "Normale" Spiele und Einstellungen liegen in 4K ohne Framelimit irgendwo zwischen 200 und 250 Watt. Sehr zu empfehlen, den berechtigten Kritikpunkt der laufenden Kosten derart zu beseitigen.

MfG
Raff
Hättest du mal Lust die Karte hier mit einzufügen oder die Werte hier im Forum zu posten? Mich interessiert UV eh am meisten. Momentan läuft meine Karte auch bei nur 2150 Mhz @ 0,881V bei 163W ASIC, also knapp unter 200W
 
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 50+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.

Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
 
"Cyberpunk 2077 ist bereits ohne Raytracing sehr grafiklastig."

Stimmt, ich hab da auch RT abgestellt, dann war auch DLSS aufeinmal nicht mehr nötig, und dazu ein paar Details runtergeregelt und wurde so zum WQHD 40-50 FPS Spieler. :D Fiel jetzt nicht so auf, eigentlich garnicht (ob da nun 80FPS hast, 60 FPS oder eben 45 FPS). Gemerkt hast es dann, wenn alles aufgedreht hast (max Details, RT etc.) und und die FPS unter 20 gefallen sind, das war dann unspielbar.

Als PC Spieler hatte ich jetzt auch keine großen Probleme, einmal nahe Spielstart gegen nen Stein gerannt und tot umgefallen, das war eher ungeil, eine Mission war glaub ich dann auch mal verbugt, neuladen und gut wars. Klar auch zwischendrin das eine oder andere Ding, aber bei fast 90h nichts was mir dauerhaft aufgestoßen wäre. Gibt aber halt noch generell viel einzubauen um das geniale Spiel abzurunden.

Von dem her war und ist das Negativgegacker für mich als PCler bis heute nicht nachvollziehbar. Entweder haben da viele ein anderes Spiel gezockt oder es hat sich um eine Art Massenhysterie gehandelt, wo sich dann allerhand Hansel mal abreagieren konnten.
 
Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^

So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
 
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.

Danke für die Ausführung :daumen:
Hoffentlich kommen bald auch mal solche Spiele ^^
 
Zurück