• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

Am 29. März ist endlich das lang erwartete Update für Cyberpunk 2077 erschienen. Version 1.20 bringt nicht nur eine schier endlose Liste Bugfixes, Gameplay-Verbesserungen und Performance-Optimierungen, sondern obendrein Raytracing für AMD-Grafikkarten der 6000er-Reihe. Außerdem gibt es frische Treiber und Nvidia offeriert des Weiteren mit rBAR eine Antwort auf AMDs SAM. Wie Cyberpunk aktuell läuft und wie sich AMD beim Raytracing schlägt, erfahren Sie in den folgenden Zeilen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell
 

Berserkervmax

Software-Overclocker(in)
RTX 3060TI in Full HD schneller als das AMD Top Modell mit RT ON
:lol:

Und dann hat NV noch DLSS...

RT und AMD wird wohl nix mehr mit dieser GPU Generation
 
Zuletzt bearbeitet:

Fabifablos

Schraubenverwechsler(in)
RTX 3060TI in Full HD schneller als das AMD Top Modell mit RT ON
:lol:

Und dann hat NV noch DLSS...

RT und AMD wir wohl nix mehr mit dieser GPU Generation

und das ohne DLSS! Kann man voll vergessen die Karten für Raytracing.

... und ganz ehrlich, ohne RT reicht doch fast immer eine Pascalkarte. Der einzige Grund eine Radeon zu kaufen ist, wenn man RT doof findet und auf einen 4K Fernseher spielen will.

Ich würde übrigens auch ohne RT eine nVIDIA nehmen, da meiner Meinung nach, DLSS zuletzt ein Killerfeature geworden ist.
 
Zuletzt bearbeitet:

Waupee

Freizeitschrauber(in)
Wie soll es auch RT ist bei AMD erst seid dieser Generation dabei, bei NV schon seid der 20?? Generation wobei

sie dadurch schon Erfahrung sammeln konnten :-)
 

Vrtra81

Komplett-PC-Aufrüster(in)
Das mit den Ausdauer und der Framerate ist seit Anfang an so,
bin irgendwie verwundert das es bei PCGH niemandem aufgefallen ist.
 

PCGH_Phil

Audiophil
Teammitglied
Das mit den Ausdauer und der Framerate ist seit Anfang an so,
bin irgendwie verwundert das es bei PCGH niemandem aufgefallen ist.
Ist es natürlich - ich war allerdings der Auffassung, dass das zwischenzeitlich mal gefixt wurde. Das ist ja durchaus ein bekannter Bug und sollte außerdem zum Fixen nicht unbedingt ein komplettes Umschreiben des Spielecodes nach sich ziehen - sprich: relativ einfach zu beheben sein. Ich dachte, ich hätte da auch mal etwas in einem der diversen Change-Log was dazu gelesen. Anscheinend nicht. Oder vielleicht war's unter "known issues" oder sowas.

Gruß,
Phil
 

Dudelll

BIOS-Overclocker(in)
Eine 1080TI ist immer noch verdammt schnell und völlig ausreichend

und ich kaufe mir eine High End GPU und dann muss ich mit Einschränkungen leben ?

Nö !

Deshalb RTX 3090 !
Man muss immer mit Einschränkungen leben, die Eierlegende Wollmilch GPU gibts nun mal nicht. Die 3090 ist natürlich von der Performance her, insbesondere in RT deutlich besser als die 6900xt, kostet dafür aber halt auch 500€ mehr. Die Rtx 3080 ist günstiger als die 6900xt und die Rtx 3090 und gut in RT, hat aber nur 10Gb ram. Ist insbesondere bei den aktuellen Gen. einfach immer eine Abwägung was einem wieviel Wert ist.

Wobei die Ganze Diskussion momentan aber irgendwie eh hinfällig ist, weil man im Grunde einfach das kauft was man irgendwie in der Nähe der UVP erwischen kann, wenn man wirklich eine neue Karte will.

Die 1080Ti war mMn. zu Ihrer Zeit tatsächlich eine der wenigen Karten die man mehr oder weniger ohne Einschränkung empfehlen konnte, weils einfach keine wirklichen Alternativen gab.
 

Kondar

BIOS-Overclocker(in)
Die 1080Ti war mMn. zu Ihrer Zeit tatsächlich eine der wenigen Karten die man mehr oder weniger ohne Einschränkung empfehlen konnte, weils einfach keine wirklichen Alternativen gab.

Stimmt irgendwie.

Es gab in den letzten 25+Jahren (für mich) nur einmal die Zeit als man mit einer Karte ALLES und ohne -mehr oder weniger starke- Einschränkung leben konnte.
=> Voodoo 1 :ugly:
 

DragonX1979

PC-Selbstbauer(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Gemeint sind vermutlich die harten Verhandlungen mit dem lokalen Energieversorger (als Großabnehmer kriegt man da bessere Konditionen, aber einen Kredit kann nicht jeder aufnehmen etc.).

;)

MfG
Raff
 

Scorpionx01

Software-Overclocker(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)

DLSS Performance sieht schon nicht mehr so scharf aus und da schafft eine 3090 immer noch keine 60fps. Von daher muss man schon noch etwas mehr runterschrauben. Bei absolut stabilen 60fps muss man noch mehr an der Grafik schrauben.

Das ist sicherlich auch ein Ausnahmetitel, ebenso wie der MS Flight Simulator.

EDIT: Bei DLSS UltraPerformance rendert das Spiel schon nur noch in 720p. Das packt die KI von nvidia dann auch schon nicht mehr vernünftig. Das Spiel sieht gefühlt nur noch nach FullHD aus.
 

Dudelll

BIOS-Overclocker(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Naja 500€ drauf zu zahlen ist find ich schon ein Kompromiss den man eingehen müsste. Wenn man ne 6900xt oder ne 3090 zum gleichen Preis kriegen würde, würde ich auch ohne zu überlegen ne 3090 nehmen.

Wenn Geld keine Rolle spielt ists natürlich keine Einschränkung, aber das kann man vermutlich nicht verallgemeinern ^^
 

DragonX1979

PC-Selbstbauer(in)
Gemeint sind vermutlich die harten Verhandlungen mit dem lokalen Energieversorger (als Großabnehmer kriegt man da bessere Konditionen, aber einen Kredit kann nicht jeder aufnehmen etc.).

;)

MfG
Raff
Na ja, mag sein aber "zurückhaltend" sind die Radeon's mit 300W ja auch nicht gerade.
Wie's allerdings mit der Effizienz im Vergleich aussieht müsste man mal ausrechnen (6900 XT zu RTX 3090).

(Zudem kann man ja noch was mit undervolting rauskitzeln...)

Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...

Nur schade dass man, um alle Performance-Features nutzen zu können, auf ne aktuelle Plattform angewiesen ist. (PCIe 4.0; Rez. BAR) :klatsch:
Naja 500€ drauf zu zahlen ist find ich schon ein Kompromiss den man eingehen müsste. Wenn man ne 6900xt oder ne 3090 zum gleichen Preis kriegen würde, würde ich auch ohne zu überlegen ne 3090 nehmen.

Wenn Geld keine Rolle spielt ists natürlich keine Einschränkung, aber das kann man vermutlich nicht verallgemeinern ^^
Die hat aber auch 30% mehr speicher UND mehr Performance in den meisten Games und isb. GPU Computing...

Zur Zeit ist der größte Konkurrent der 3090 aber ehr die 3080 weniger die 6900XT - mal abgesehen vom Speicher...
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Na ja, mag sein aber "zurückhaltend" sind die Radeon's mit 300W ja auch nicht gerade.
Wie's allerdings mit der Effizienz im Vergleich aussieht müsste man mal ausrechnen (6900 XT zu RTX 3090).

Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...

Nur schade dass man, um alle Performance-Features nutzen zu können, auf ne aktuelle Plattform angewiesen ist. (PCIe 4.0; Rez. BAR) :klatsch:
Sieht man von den Anschaffungskosten ab, ist die RTX 3090 eine weitestgehend kompromisslose Grafikkarte, da bin ich ganz bei dir. Meine FE läuft beispielsweise seit mehreren Wochen mit der Minimalspannung von 0,737 Volt @ 1,7 GHz – und somit selbst bei den gemeinsten GPU-Tötern (inkl. Cyberpunk und Witcher) meist mit weniger als 300 Watt. "Normale" Spiele und Einstellungen liegen in 4K ohne Framelimit irgendwo zwischen 200 und 250 Watt. Sehr zu empfehlen, den berechtigten Kritikpunkt der laufenden Kosten derart zu beseitigen.

MfG
Raff
 
T

-THOR-

Guest
Schon heftig.

Aber ich denke, dass die RT Anforderungen in absehbarer Zeit nicht mehr steigen werden.
Zumindest der initiale Performancehit um RT überhaupt zu aktivieren und nen optischen Gewinn daraus zu ziehen (in CP z.B. Reflexionen und Beleuchtung auf Mittel) dürfte künftig in anderen Spielen deutlich weniger dramatisch sein.
Irgendwie muss das ja auch auf den Konsolen laufen. Man wird also stark optimieren müssen bzw. die effekte sparsam und klug einsetzen müssen.

Bin gespannt, wie sich das entwickelt, aber ich denke mit ner Nvidia Karte und DLSS wird man die nächsten Jahre problemlos RT nutzen können.
 

Fabifablos

Schraubenverwechsler(in)
Na ja, mag sein aber "zurückhaltend" sind die Radeon's mit 300W ja auch nicht gerade.
Wie's allerdings mit der Effizienz im Vergleich aussieht müsste man mal ausrechnen (6900 XT zu RTX 3090).

(Zudem kann man ja noch was mit undervolting rauskitzeln...)

Ich kann mich über die 3090 FE jedenfalls nicht beschweren... Da hat NV beim Kühler keine halben Sachen gemacht...

Nur schade dass man, um alle Performance-Features nutzen zu können, auf ne aktuelle Plattform angewiesen ist. (PCIe 4.0; Rez. BAR) :klatsch:

Die hat aber auch 30% mehr speicher UND Mehr Performance in den meisten Games und isb. GPU Computing...

Zur Zeit ist der Größte Konkurrent der 3090 aber ehr die 3080 weniger die 6900XT - mal abgesehen vom Speicher...
Jetzt mal ernstes Interesse: Bei welchen Spielen gibt’s bei der 3080 10GB ein Problem mit dem Speicher?
 

dampflokfreund

Freizeitschrauber(in)
Schöner Test. Dass Nvidia so davonzieht und dass sogar die kleinsten Turings mit den deutlich potenteren High End GPUs von AMD in Raytracing mithalten können (ohne DLSS wohlgemerkt) liegt einfach daran, dass bei Nvidia zwei Schritte von Raytracing beschleunigt werden, nämlich traversal und Intersection tests, bei AMD werden nur intersections tests beschleunigt, traversal findet immer noch auf den shader cores statt was natürlich lahm ist.

Nichtsdestotrotz darf man nicht vergessen, wie unfassbar aufwendig RT in Cyberpunk ist. Dafür machen die AMD Karten doch eine ganz passable Figur, wenn man die RT Effekte und Raster Effekte ein bisschen runterstellt (z.B. Volumetric Fog und Clouds) sollte man doch eine ganz gute Erfahrung haben.

Auch schön finde ich, wie man sieht, dass die Unterschiede von Medium auf Ultra in Cyberpunk nicht der Rede wert sind, aber sobald Raytracing ins Spiel kommt sieht das Spiel deutlich besser aus. Das ist bei vielen Spielen so, die Unterschiede zwischen High und Ultra oder auch Medium und Ultra sind in vielen Fällen vernachlässigbar, dank Raytracing aber haben wir jetzt endlich wieder Fortschritt!
 

DragonX1979

PC-Selbstbauer(in)
Jetzt mal ernstes Interesse: Bei welchen Spielen gibt’s bei der 3080 10GB ein Problem mit dem Speicher?
LOOOOL Sorry! :lol:

Keine Ahnung ein oder Zwei?

Ernsthaft Ich weiß es nicht... Glaub' bei Horizon Zero Dawn... Hab mir die "10GB is' mir zu wenig" Diskussion die letzten Wochen schon zu oft angetan... Ich kann zwar verstehen wenn einige sagen dass sie "weniger" Zukuftstauglich ist was das angeht,
aber ich bin immer noch der Meinung, dass wenn das wirklich zum Thema wird, die GPU ohnehin schon zum alten Eisen gehören wird...

Ich bin da mal ganz ehrlich - Ich wollte keine Kompromisse eingehen.
Allerdings halten meine GPU's idr. auch gute 4-5 Jahre...
 

dampflokfreund

Freizeitschrauber(in)

DLSS Performance sieht schon nicht mehr so scharf aus und da schafft eine 3090 immer noch keine 60fps. Von daher muss man schon noch etwas mehr runterschrauben. Bei absolut stabilen 60fps muss man noch mehr an der Grafik schrauben.

Das ist sicherlich auch ein Ausnahmetitel, ebenso wie der MS Flight Simulator.

EDIT: Bei DLSS UltraPerformance rendert das Spiel schon nur noch in 720p. Das packt die KI von nvidia dann auch schon nicht mehr vernünftig. Das Spiel sieht gefühlt nur noch nach FullHD aus.
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
 

DragonX1979

PC-Selbstbauer(in)
Sieht man von den Anschaffungskosten ab, ist die RTX 3090 eine weitestgehend kompromisslose Grafikkarte, da bin ich ganz bei dir. Meine FE läuft beispielsweise seit mehreren Wochen mit der Minimalspannung von 0,737 Volt @ 1,7 GHz – und somit selbst bei den gemeinsten GPU-Tötern (inkl. Cyberpunk und Witcher) meist mit weniger als 300 Watt. "Normale" Spiele und Einstellungen liegen in 4K ohne Framelimit irgendwo zwischen 200 und 250 Watt. Sehr zu empfehlen, den berechtigten Kritikpunkt der laufenden Kosten derart zu beseitigen.

MfG
Raff
Hilft bei mir nur bedingt - Hab... 2Stk. :klatsch: Bin von daher auch etwas über Nvidia's kapitalen Abschuss von SLI entsetzt... Grade da wo es dank Memory Pooling interessant wird, wird quasi der Stecker gezogen...

Und CDPR macht scheinbar auch keine Anstalten explizites mGPU nachzureichen... :ka:

Da ich bei Gelegenheit aber beide unter Wasser setzen werde, muss ich mal schauen wie viel man dann effektiv an Strom einsparen kann...
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Das hat folgenden Grund:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/inde...1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-im...g-nvidia-dlss/

Das bedeutet, wenn man zwischen DLSS und nativer Auflösung in Cyberpunk vergleicht, dann vergleicht man ein ungeschärftes Bild mit einem Bild, das stark nachgeschärft wurde. Ich hab keine Ahnung, warum CDPR das nicht berücksichtig hat, denn so wird zu Unrecht DLSS als unscharf abgetan. Ich hab hier mal einen Vergleich erstellt mit DLSS Performance (540p) und nativem 1080p, aber das DLSS Bild hab ich manuell mit CAS Reshade auf ungefähr einem ähnlichen Level nachgeschärft, wie das Spiel TAA schärft:


Um den Unterschied zwischen ML Rekonstruktion und Upscaling zu verdeutlichen, ist auch ein Vergleich mit FidelityFX Upscaling hinzugefügt (50%, also ebenfalls 540p)


Ich hoffe, das erklärt es. Was den Ultra Performance Modus angeht: der sollte nur für 8K verwendet werden.
Interessant finde ich, dass Nvidia als Technikpartner da nichts unternimmt. Immerhin steht die Geschichte mit dem zu adjustierenden MIP-Bias in den Richtlinien zur Implementierung von DLSS, wird aber von mehreren Studios nicht umgesetzt (u. a. auch in Nioh 2, wie Digital Foundry zeigte). Wir haben aber nicht geprüft, ob das bei Cyberpunk 2077 v1.2 tatsächlich noch ein Thema ist. Du?

MfG
Raff
 

dampflokfreund

Freizeitschrauber(in)
Interessant finde ich, dass Nvidia als Technikpartner da nichts unternimmt. Immerhin steht die Geschichte mit dem zu adjustierenden MIP-Bias in den Richtlinien zur Implementierung von DLSS, wird aber von mehreren Studios nicht umgesetzt (u. a. auch in Nioh 2, wie Digital Foundry zeigte). Wir haben aber nicht geprüft, ob das bei Cyberpunk 2077 v1.2 tatsächlich noch ein Thema ist. Du?

MfG
Raff
Ja ich finde das auch sehr unverständlich. Wenn ich Nvidia wäre, hätte ich sowas doch sofort überprüft und bei CDPR mal angeklingelt, sie sollen doch das TAA Sharpening etwas reduzieren und Sharpening bei DLSS aktivieren, damit das Bild wieder gleichwertig aussieht. Oder besser noch: vor dem Release noch mal überprüft. Es ist doch ziemlich offensichtlich, dass DLSS in CP2077 unscharf aussieht.

Ja, leider ist das bei 1.2 immer noch so... :/ Das mit den Mip-Level Bias erachte ich aber nicht als so tragisch, denn sobald man Cas per Reshade aktiviert, ist die Texturqualität auf einem Level, ohne dass man etwas am Bias drehen müsste. Ich gehe also eher davon aus, dass es fast nur am fehlenden Sharpening liegt im Vergleich zur nativen Auflösung.
 

Herr_Bert

Komplett-PC-Aufrüster(in)
Also ich wüsste gerne mal mit welcher/m ominösen Einschränkung bzw. Kompromiss
ihr meint man bei einer 3090 leben "müsste"? :hmm:

(Abegesehen davon dass die DP-Leistung besser sein könnte, aber wer nutzt das schon...)
Naja, man kriegt jede GPU irgendwie klein ;) Das merk ich ja schon mit der 3090 in WQHD inkl. RT. Nur mit DLSS hält sich dieser Performance-Einbruch in Grenzen und ist das Spiel auch flüssig spielbar.

Danke für den tollen Test! Ich finde auch, dass RT bei CP2077 einen wirklichen Unterschied in der Qualität und Immersion macht und die Atmosphäre des Spiels extrem anhebt. Hoffentlich wird die RT-Performance mit den nächsten Patches auf den Radeons auch noch besser und AMD schiebt bald ne Alternative zu DLSS nach. Es wäre zumindest wünschenswert in RT an Turing vorbei zu kommen.

Ja, leider ist das bei 1.2 immer noch so... :/ Das mit den Mip-Level Bias erachte ich aber nicht als so tragisch, denn sobald man Cas per Reshade aktiviert, ist die Texturqualität auf einem Level, ohne dass man etwas am Bias drehen müsste. Ich gehe also eher davon aus, dass es fast nur am fehlenden Sharpening liegt im Vergleich zur nativen Auflösung.
Kann man hier, bei aktiviertem DLSS, nicht einfach mit dem Sharpener aus dem Nvidia Control Panel nachhelfen oder entsteht dadurch irgendein Nachteil?
 

Blackout27

Volt-Modder(in)
Eine 1080TI ist immer noch verdammt schnell und völlig ausreichend

und ich kaufe mir eine High End GPU und dann muss ich mit Einschränkungen leben ?

Nö !

Deshalb RTX 3090 !

Meine RTX1080ti war für 1440p gnadenlos überfordert bei Cyberpunk. Mehr wie Mittel war da nicht möglich und sah einfach nicht gut genug aus.

Mit der RTX3090 musste ich aber auch mit Einschränkungen leben (2160p + DLSS Qualität) inkl. angepasster Settings waren beim benchen grob 50-60Fps möglich. Das war schon ein gigantischer Sprung. Ohne RT schneiden die AMD Karten aber auch sehr gut ab in dem Spiel.

Für mich sollte man das Spiel aber nicht überbewerten. Technisch ist es nach wie vor eine Baustelle und mit mehr Optimierung sind sicher auf allen Plattformen noch deutlich mehr FPS möglich.
 

Fabifablos

Schraubenverwechsler(in)
LOOOOL Sorry! :lol:

Keine Ahnung ein oder Zwei?

Ernsthaft Ich weiß es nicht... Glaub' bei Horizon Zero Dawn... Hab mir die "10GB is' mir zu wenig" Diskussion die letzten Wochen schon zu oft angetan... Ich kann zwar verstehen wenn einige sagen dass sie "weniger" Zukuftstauglich ist was das angeht,
aber ich bin immer noch der Meinung, dass wenn das wirklich zum Thema wird, die GPU ohnehin schon zum alten Eisen gehören wird...

Ich bin da mal ganz ehrlich - Ich wollte keine Kompromisse eingehen.
Allerdings halten meine GPU's idr. auch gute 4-5 Jahre...
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 50+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.
 

Gurdi

Kokü-Junkie (m/w)
Die Performance auf den Radeons ist derzeitin dem Titel deutlich zu schlecht, da geht eindeutig mehr. Ob wir mehr sehen werden,wird sich zeigen. Einerseits hält NV die Hand drauf im einzigen wirklichen Vorzeigetitel derzeit, andereseits werden die Entwickler was brauchbares für die Konsolen abliefern müssen.

Ein sehr ägerlicher Nebeneffekt mit RT ist leider das wirklich sehr unsaubere Bild, das auch teils stark verrauscht ist durch RT.
 

DragonX1979

PC-Selbstbauer(in)
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 60+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.
Na da wollen wir mal hoffen, dass die Komponenten und Chipknappheit nicht noch bis 2023 andauert. Sonst verschieben die Hersteller wohl möglich noch ihre dann neuen Modelle ein Jahr nach hinten...
 

dampflokfreund

Freizeitschrauber(in)
Kann man hier, bei aktiviertem DLSS, nicht einfach mit dem Sharpener aus dem Nvidia Control Panel nachhelfen oder entsteht dadurch irgendein Nachteil?
Ja, geht genauso und sieht auch sehr gut aus. Für Vergleiche ist das aber doof, da man dann das Spiel neustarten muss, denn sonst wäre logischerweise TAA doppelt nachgeschärft. Deswegen hab ich CAS genommen, da man Reshade Effekte easy on off toggeln kann.
Ich finde aber schon, dass CAS einen kleinen Ticken besser aussieht, vermutlich wird das auch bei TAA verwendet (haben ja eh schon FX CAS Upscaling implementiert, dann macht das schon Sinn, dass sie gleich CAS fürs TAA Sharpening verwenden)
 

Accolade

Komplett-PC-Aufrüster(in)
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

hanfi104

Volt-Modder(in)
Sieht man von den Anschaffungskosten ab, ist die RTX 3090 eine weitestgehend kompromisslose Grafikkarte, da bin ich ganz bei dir. Meine FE läuft beispielsweise seit mehreren Wochen mit der Minimalspannung von 0,737 Volt @ 1,7 GHz – und somit selbst bei den gemeinsten GPU-Tötern (inkl. Cyberpunk und Witcher) meist mit weniger als 300 Watt. "Normale" Spiele und Einstellungen liegen in 4K ohne Framelimit irgendwo zwischen 200 und 250 Watt. Sehr zu empfehlen, den berechtigten Kritikpunkt der laufenden Kosten derart zu beseitigen.

MfG
Raff
Hättest du mal Lust die Karte hier mit einzufügen oder die Werte hier im Forum zu posten? Mich interessiert UV eh am meisten. Momentan läuft meine Karte auch bei nur 2150 Mhz @ 0,881V bei 163W ASIC, also knapp unter 200W
 

Blackout27

Volt-Modder(in)
Also ich habe tatsächlich CP und Horizen Zero Dawn auf einer 3080 gespielt. Beides UHD auf einem LG OLED mit 50+ FPS über HDMI 2.1. hatte keine Probleme.

Was interessieren mich „Vielleicht-Zukunfts-Probleme“, wenn die AMD-Alternative schon heute kaum RT kann. Darüber hinaus bin ich mir ziemlich sicher, dass DLSS die Karte länger über Wasser halten wird als weitere 8GB RAM.

Ich hatte die 3090 übrigens schon im Einkaufswagen und hab mir überlegt auf die 3080 downzugraden. Grund war, dass ich mir für die Preis Differenz einfach die 4080 zum Release gönnen kann.

Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^
Ich glaub die haben gar nix gepachted. Schaut euch das mal an. Genauso sehe ich es auch.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
 

Basileukum

Software-Overclocker(in)
"Cyberpunk 2077 ist bereits ohne Raytracing sehr grafiklastig."

Stimmt, ich hab da auch RT abgestellt, dann war auch DLSS aufeinmal nicht mehr nötig, und dazu ein paar Details runtergeregelt und wurde so zum WQHD 40-50 FPS Spieler. :D Fiel jetzt nicht so auf, eigentlich garnicht (ob da nun 80FPS hast, 60 FPS oder eben 45 FPS). Gemerkt hast es dann, wenn alles aufgedreht hast (max Details, RT etc.) und und die FPS unter 20 gefallen sind, das war dann unspielbar.

Als PC Spieler hatte ich jetzt auch keine großen Probleme, einmal nahe Spielstart gegen nen Stein gerannt und tot umgefallen, das war eher ungeil, eine Mission war glaub ich dann auch mal verbugt, neuladen und gut wars. Klar auch zwischendrin das eine oder andere Ding, aber bei fast 90h nichts was mir dauerhaft aufgestoßen wäre. Gibt aber halt noch generell viel einzubauen um das geniale Spiel abzurunden.

Von dem her war und ist das Negativgegacker für mich als PCler bis heute nicht nachvollziehbar. Entweder haben da viele ein anderes Spiel gezockt oder es hat sich um eine Art Massenhysterie gehandelt, wo sich dann allerhand Hansel mal abreagieren konnten.
 

dampflokfreund

Freizeitschrauber(in)
Ich bin zwar auch kein Freund der 10GB aber man sollte auch nicht vergessen, das in Zukunft auch RTX I/O funktionieren wird. Wer weiß, vielleicht senkt das den realen VRam Verbrauch enorm sodass wirklich nur noch das im VRam ist was auch aktiv benötigt wird. Mal sehen was MS Direct Storage für den PC veröffentlicht.

Dennoch, die RTX3080 hätte einfach 12GB verdient. Punkt ^^

So sieht es leider aus. Sowas zerstört die Immersion einer Welt bei mir komplett :(
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.
 

Blackout27

Volt-Modder(in)
Wahre Next Gen Titel werden eine Kombination aus Sampler Feedback und DirectStorage verwenden, Microsoft bezeichnet das als Sampler Feedback Streaming (SFS). Sampler Feedback ist im Grunde eine PRT ähnliche Technik, aber so stark verbessert und so viel genauer, dass man es durchaus als Game-Changer betiteln kann. Vereinfacht gesagt werden, wie du schon sagtest, nur Texturen geladen die auch wirklich benötigt werden. Laut Microsoft führt das zu 2-3x höherem effektivem VRAM. Heißt, eine 8 GB Karte würde sich dann eher wie eine 16-24 GB Karte verhalten. Der Vergleich funktioniert natürlich nur, wenn man es mit Titeln vergleicht, die heute auf den Markt sind, also normales PRT und Streaming von der HDD nutzen. Wenn also wahre Next Gen Titel auf dem Markt sind, kann man diese Analogie natürlich nicht mehr nutzen, 8 GB sind dann wieder 8 GB. Jedoch entspricht das dann halt immer noch 16-24 GB einer Karte die kein SFS unterstützt (zum Beispiel eine Pascal, GCN oder RDNA1 Karte).

https://i.blogs.es/0fcc7f/dfsaf23/1366_2000.jpg

Deswegen haben die Xbox Konsolen, insbesondere die Series S, auch so wenig RAM. Weil der Next Gen Sprung durch solche Technologien folgen wird. Mit SFS kann man deutlich höher wertige Texturen verwenden, ohne dass es notwendig ist, mehr VRAM zu verbauen als es heute der Fall ist.

Danke für die Ausführung :daumen:
Hoffentlich kommen bald auch mal solche Spiele ^^
 
Oben Unten