Special Cyberpunk 2077: Phantom Liberty - 20 Grafikkarten im Benchmark-Vergleich

Mit allen Einstellungen auf Maximum läufts ganz gut, vorher war nur Mittel/Hoch möglich für ähnliche FPS.
Bekommt man eigentlich irgendwie das Flimmern von feinen Okjekten bzw. deren Kanten in den Griff oder muss man damit leben?
CP2077.jpg


da FSR 2.1 schrecklich aussieht
RT zu viel Leistung frisst
wenn ich das Stressgame irgendwie schaffe dann wohl ohne RT, was jetzt nicht so schlimm ist
Probier mal XESS aus, von der Bildqualität her ist das in meinen Augen besser als FSR, bringt zwar nicht so viele FPS wirkt aber auch nicht so unscharf.
 
Zuletzt bearbeitet:
Naja, wie Metro Exodus zeigt, geht es ja auch anders. Ja, das ist kein PT, aber die Beleuchtung setzt dort voll auf RT und das läuft auf AMD Karten ebenfalls ganz gut.
Da wird RT dennoch begrenzt genutzt. Die Umfangreiche Nutzung wie in CP wird dort nicht im Ansatz betrieben. Gut, CP ist auch mittlerweile so etwas wie ein Technologiespiel für Nvidia. Der Vorzeigetitel wenn es darum geht, alles zu zeigen was aktuell möglich ist.
Allerdings zeigt man in CP auch damit deutlich, wie sehr AMD hinter her hinkt. Es fehlt AMD einfach an etwas Vergleichbarem wie die Tensor Cores. Das merkt man auch im Professionellem Bereich wenn es um KI geht. Da spielt AMD gar keine Rolle. Einfach weil AMD die Zeichen der Zeit irgendwie verpennt hat. Vielleicht auch einfach Pech. Rasterleistung alleine wird aktuell immer unbedeutender.
Selbst die neue Switch 2 soll DLSS und RT nutzen können für 4k bei 60FPS. Und man kann Nintendo ja wahrlich nicht als Hersteller sehen, der Performante Konsolen auf den Markt bringt.
 
Hab den Benchmark bei mir auch alles auf Höchste eingestellt und dlss auf Qualität, läuft mit meiner 4080RTX in Uwqhd mit 70fps, im Game sind das 10 bis 30fps mehr! Ist halt stark Szenen abhängig!
 
Stimmt, Direct Storage sorgt ja auch nur für geringere Ladezeiten :schief:
Aktuell noch, wenn man den Bereich Ladezeiten auch auf das Lader neuer Spielwelten im Spiel bezieht. Der Ansatz, die SSD als First-Lavel_Cache" zu nutzen, ist noch nicht umgesetzt

"... Durch die Änderung wird die Datenbereitstellung um Dimensionen beschleunigt - nicht nur beim anfänglichen Laden, sondern auch beim Navigieren durch die Spielwelt -, außerdem fällt die Abhängigkeit von der CPU- und RAM-Leistung weg. Der Hauptprozessor kann sich künftig um andere Dinge kümmern, etwa eine bessere KI und Physik, während die Grafikkarte sicherstellt, dass noch bessere Grafik ohne Wartezeit auf dem Bildschirm erscheint. ..."
 
hat das eigentlich einen speziellen Grund das Ihr bei den GPU Tests grundsätzlich die Radeon 6800XT und bei euren CPU Tests den 5600X auslasst?
 
hat das eigentlich einen speziellen Grund das Ihr bei den GPU Tests grundsätzlich die Radeon 6800XT und bei euren CPU Tests den 5600X auslasst?
Nur um dich zu ärgern =)
Ich hatte mich bei den 20 Grafikkarten auf eine bunte Mischung einigen müssen, und da schon 6700 XT und 6900 XT drin sind, musste die 6800 XT weichen. Und der Ryzen 5 5600X steht derzeit nicht für CPU-Tests zur Verfügung, doch der 5600 ist nur zwischen 1-2 Prozent langsamer, insofern ist das kein Verlust.
 
Zurück