Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

Wieso hat die RTX 4060TI eigentlich mit Frame Generation weniger FPS als ohne? @ UWQHD - UHD Auflösung.

Ist doch beides der Cyberpunk 2077 (GOG, v1.62), GPU-Worstcase-Benchmark 'Cherryflections'

Heißt mit Frame Generation ist die 4060TI immer langsamer als eine 7900XTX ohne.
Während sie ohne Frame Generation immer an der 7900XTX vorbei zieht?
 
Allerdings kann ich sagen das ich eine RX 6900XT und jetzt eine RX 7900XTX habe.
Die Karten Performance gut, die 7900XTX sogar unerwartet gut - hatte von der Karte durch das Forum und die Beiträge in dem Forum hier ein wesentlich schlechteres Bild von der 7900XTX als es jetzt der Fall ist.
Man muss in jeden Fall schauen, ob die gemeldeten Probleme für einen persönlich relevant sind. Mir z.B. reicht die RT Leistung einfach nicht, weil die 7900XTX nicht mal eine 3090 durchgängig oder gar nennenswert schlägt. Und dann kommt die VR Performance, bei der z.T. das gleiche beobachtet werden kann, oder der Bug in VR, dass mit DP nicht die eingestellte Auflösung ausgegeben die Karte nicht in P0 schaltet. Das ist mir keine 1100€ wert.
Edit: Blödsinn korrigiert.
 
Zuletzt bearbeitet:
Steht doch drüber – die FG-Benchmarks sind mit DLSS Q statt P (und daher nicht in einem Chart). :-)

MfG
Raff
Mir haben die nativen Benchmarks von früher einfach besser gefallen.
Vielleicht geht mir das auch die ganze Zeit so auf die Nerven bei diesem Thema.

Wenn ich etwas selbst vergleiche findet das auch immer mit möglichst wenig Einflüssen statt... deswegen hab ich wirklich teilweise ganz andere Beobachtungen.

Ist ja gleichzeitig auch noch das Performance Upsampling was hier einen Unterschied generiert...


Hab mir anfangs hier auch gar nicht die Resultate angeguckt weil ich den Beitrag noch gelesen hatte als die 4060TI noch nicht drin war... Dann ist man hier im Threat Bereich unterwegs weil mich das Thema ja generell sehr interessiert und liest nur das derneuemann die 1000€ GPU in Vergleich zur 4060TI setzt und diese als besser hinstellt. Tut mir leid habe den Test Ergebnisse so noch nicht gesehen gehabt - bei gleichzeitig Erfahrungswerten aus gänzlich anderen Einstellungen Upsampling aus.

Da ist mir die "Behauptung" (wie sie es in dem Fall aus meinen Augen war) einfach zu extrem gewesen.
 
Dieses eine Spiel, von dem wir gerade reden, ist ohne Upsampling ungenießbar und daher eine Ausnahme. Ansonsten machen wir nach Möglichkeit TAA-Benchmarks.

MfG
Raff
 
Wieso hat die RTX 4060TI eigentlich mit Frame Generation weniger FPS als ohne? @ UWQHD - UHD Auflösung.
Weil der Speicher ja nicht reicht! Weswegen die in der realen Welt sicher die schlechtere Karte ist!
Ist doch beides der Cyberpunk 2077 (GOG, v1.62), GPU-Worstcase-Benchmark 'Cherryflections'
"Cherry XY" So etwas hast du hier nicht nötig. Oder mach mal ein Statement und sag einfach das deine Tests mehr zählen, als die von PCGH zum Beispiel. Ich persönlich betrachte lieber eher eine anspruchsvollere Szene, denn es bringt nichts, wenn man wie bei vielen anderen Tests suggeriert bekommt, das ein Spiel gut läuft und man aber in mehereren anspruchsvolleren Szenen dann beim Spielen feststellen muss, das die Performance noch stark einbricht.
Heißt mit Frame Generation ist die 4060TI immer langsamer als eine 7900XTX ohne.
Zumindest in Cyberpunk 2077, mit Pathtracing.
Während sie ohne Frame Generation immer an der 7900XTX vorbei zieht?
In CP2077 mit PT aber eben nicht in 99,99% aller anderen Spiele, dort ist die 7900XTX eher doppelt so schnell.

Und immer würde ich noch nicht einmal für CP2077 sagen, denn eine andere Szene kann auch wieder ein anderes Ergbnis zeigen.

So ein benchmark ist nur eine kurze Momentaufnahme eines kleinen Teilstücks.
Mir haben die nativen Benchmarks von früher einfach besser gefallen.
Vielleicht geht mir das auch die ganze Zeit so auf die Nerven bei diesem Thema.

Wenn ich etwas selbst vergleiche findet das auch immer mit möglichst wenig Einflüssen statt... deswegen hab ich wirklich teilweise ganz andere Beobachtungen.
Ist ja gleichzeitig auch noch das Performance Upsampling was hier einen Unterschied generiert...


Hab mir anfangs hier auch gar nicht die Resultate angeguckt weil ich den Beitrag noch gelesen hatte als die 4060TI noch nicht drin war... Dann ist man hier im Threat Bereich unterwegs weil mich das Thema ja generell sehr interessiert und liest nur das derneuemann die 1000€ GPU in Vergleich zur 4060TI setzt und diese als besser hinstellt. Tut mir leid habe den Test Ergebnisse so noch nicht gesehen gehabt - bei gleichzeitig Erfahrungswerten aus gänzlich anderen Einstellungen Upsampling aus.

Da ist mir die "Behauptung" (wie sie es in dem Fall aus meinen Augen war) einfach zu extrem gewesen.
Ich habe und wollte die 4060ti sicher nicht über eine 7900XTX stellen!

Ich habe nur die Aussage getroffen, das ich mit der aktuellen Situation nicht so zufrieden bin, was man am Markt so kaufen kann. Mir geht die Schere zu weit auseinander, zwischen Nvidia geizt am Speicher und AMD bietet, im Vergleich zu Nvidia deutlich schlechtere RT Leistung.

Dazu nutze ich das Extrembeispiel, das die 4060ti in 1080p, bei spielbaren Frameraten, mit PathTracing in CP2077 schneller ist, in dem PCGH Bench als die 7900XTX.

Als Gegenbeispiel kann man sehen, das immer öfter 8-12GB nicht mehr reichen, für die maximalen Texturen. Das ist nicht zufriedenstellend.

Da ich persönlich mit der RT Leistung der 7900XTX zurecht kommen werde (meine heutige Prognose), zumindest für die nächsten 18 Monate etwa ;) kaufe ich mir lieber eine 7900XTX...
 
Zuletzt bearbeitet:
Jupp. Bei viel Wasser beispielsweise ist die AMD überraschend stark im Vergleich zu anderen Szenen, obwohl dort ja auch PT eingesetzt wird.
 
Jupp. Bei viel Wasser beispielsweise ist die AMD überraschend stark im Vergleich zu anderen Szenen, obwohl dort ja auch PT eingesetzt wird.
Also gegen einen echten Wundertreiber, wie damal sbei der Ur HD7970 und 7950 habe ich sicher nichts ;)... Vielleicht geht ja noch was.

Aber auch ohne kann man mit der RT Leistung ganz gut zurecht kommen und andere Szenen, Spiele ist eben immer eine andere Sache.
 
Führt doch bite auch wie von der8auer vorgeschalgen den Verbrauch mit ein.
Ansonsten ist die AMD Bubble hier im Forum algemein schon sehr stark verteten, soviele Leute die VRAM als das Allheilmittel hinstellen, hab ich echt selten in anderen Foren gelesen.
 
Führt doch bite auch wie von der8auer vorgeschalgen den Verbrauch mit ein.
Ansonsten ist die AMD Bubble hier im Forum algemein schon sehr stark verteten, soviele Leute die VRAM als das Allheilmittel hinstellen, hab ich echt selten in anderen Foren gelesen.
Wieso, ist doch allgemein bekannt das eine 7900XTX zum Beispiel rund 50W, auch mal 60W mehr nimmt unter Spielelast, wie eine RTX4080.

Auch die Idle Verbräuche sind bekannt. Was wünscht du dir denn da?
 
Die Polen zeigen unverholen, dass sie AMD auch bei CPUs mit Intention ausbremsen, sie zeigen ohne der geringsten Scham der kompletten Branche: Nö, wir müssen gar nichts fixen und belassen es bei der Benachteiligung. Das hat schon Userbenchmark-vibes. Ich könnte als Redaktion so einer Farce nicht immer wieder die große Bühne bzw. Plattform bieten. Und daher werden diese Artikel von mir weiterhin maximal eine Minute überflogen, aha alles beim alten, next.
Mit der Benachteiligung hast Du recht. CDPR geht da über Leichen. Den Artikel habe ich trotzdem aufmerksam gelesen (Danke PCGH). Er zeigt auch, wie schlecht programmierte manipulative Software Einfluss auf die Hardware hat.

Deswegen verzichte ich auch auf die High End. Was gut programmiert ist läuft irgendwie auf meiner RTX 3060 Ti zu einigermaßen vernünftigem Verbrauch.

Unabhängig davon ist DLSS 3 die richtige Richtung, Weil der Verbrauch massiv gesenkt wird. Nur 16 GB fehlen mir da!!
4060 Ti verbraucht mir schon fast zu viel. Wollte ne RTX 4060 (ti) für Starfield. Die bevorzugen aber wohl AMD. Gibt es irgendwo Frieden?
Mir haben die nativen Benchmarks von früher einfach besser gefallen.
Vielleicht geht mir das auch die ganze Zeit so auf die Nerven bei diesem Thema.

Wenn ich etwas selbst vergleiche findet das auch immer mit möglichst wenig Einflüssen statt... deswegen hab ich wirklich teilweise ganz andere Beobachtungen.

Ist ja gleichzeitig auch noch das Performance Upsampling was hier einen Unterschied generiert...


Hab mir anfangs hier auch gar nicht die Resultate angeguckt weil ich den Beitrag noch gelesen hatte als die 4060TI noch nicht drin war... Dann ist man hier im Threat Bereich unterwegs weil mich das Thema ja generell sehr interessiert und liest nur das derneuemann die 1000€ GPU in Vergleich zur 4060TI setzt und diese als besser hinstellt. Tut mir leid habe den Test Ergebnisse so noch nicht gesehen gehabt - bei gleichzeitig Erfahrungswerten aus gänzlich anderen Einstellungen Upsampling aus.

Da ist mir die "Behauptung" (wie sie es in dem Fall aus meinen Augen war) einfach zu extrem gewesen.
Ich denke der "native" Vergleich ist veraltet. Durch Machine Learning sind die Möglichkeiten vielfältiger geworden. Und es ist auch gut, dass dies genutzt wird.
Framegeneration ist bei Cyberpunk sehr effektiv. Zumindest laut Video.
 
Hi,

CDPR und NVIDIA präsentieren RTX Pathtracing und es wundert, dass AMD-Karten hier abschmieren?

Es wird gerne argumentiert, dass AMD Pathtracing nicht könne, dann entwickelt wohl der eine Mitarbeiter von AMD für NVIDIA, mit seinem Wolfenstein-Project, welches auch Pathtracing beinhaltet? :D

Spiele die auf AMD-Karten besser laufen, sind aber dafür natürlich nur besch*ssen optimiert.

Das Internet ist immer wieder toll! :D

NVIDIA und AMD haben unterschiedliche Ansätze für das gleiche Ziel (Raytracing):

NVIDIA hat spezialisierte Hardware in ihre Karten eingebaut, die "RT-Kerne", die nichts anderes können als Raytracing zu berechnen. Klingt gut, hat aber auch den Nachteil, dass Platz für andere Bereiche eingespart werden musste. Darauf beruht vielleicht auch die vergleichsweise eher schwache Rasterization-Performance.

AMD hat die TMU (Texture Mapping Unit) um einen sogenannten Ray Accelerator erweitert. Diese können optional 4 Texturen pro Takt filtern, oder 4 Strahlenberechnungen vornehmen. Das ist etwas flexibler als bei NVIDIA, da ohne Raytracing kein Bereich brach liegt, aber Programmierer müssen im Gegenzug darauf eingehen. (Soweit ich gelesen habe, werden Rays immer am Anfang berechnet, stimmt das?)

Wir haben hier jetzt also ein Spiel. welches von NVIDIA unterstützt wird, welches NVIDIA-Bibliotheken nutzt und es auch speziell RTX Pathtracing nennt. Wie hoch ist die Chance, dass sie auch auf die Besonderheiten der AMD-Karten eingegangen sind?

CP2077 ist ein schöner NVIDIA Showcase, aber er eignet sich meiner Meinung nach nicht für einen Vergleich.


Gruß

Alef
 
Zuletzt bearbeitet:
Ich könnte jetzt Hass-Eskapaden vom Stapel lassen: mach ich aber nicht. Es bringt nämlich nichts.

Cyberpunk 2077 ist mit Pathtracing ein Geforce-Showcase wie kein anderer.
Ich, mit meinem Ryzen 3600 und einer RX 6800, weiß sehr genau, was damit gemeint ist. Aber: ich muss trotz allem auch ein Lob an CD Projekt Red abgeben, denn CP2077 sieht auch ohne Raytracing und ohne Pathtracing richtig super aus!
 
88FPS mit meinem 5800X3D, da würd ich vielleicht in 4k mit DLSS Ultra Performance ins CPU-Limit kommen...
Aber alles darunter benötigt keine bessere CPU.

Kurze Frage: Ist der Ryzen Fix immer noch nötig, bzw auch für meinen 5800X3D?
 
Cyberpunk, das einzige spiel was selbst mit „pathtracing“ absolut beschi**en aussieht. Change my mind. Dieses drecksgame was nicht mal mit ner 8090ti flüssig laufen würde
 
Zurück