Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

und ein schwammiges Mausgefühl durch DLSS3 herbei zaubert
Gott, ich kann den Bullshit echt nicht mehr hören. Hier mal zur Verdeutlichung wie die Latenz wirklich aussieht:
1684855878731.png

Quelle: https://www.computerbase.de/2023-05...itt_nvidia_dlss_3_in_the_witcher_3_untersucht

Der untere ganz lange Balken stellt da wie es mit JEDER nicht Nvidia Grafikkarte und auch bei Nvidia vor Reflex aussieht. Du willst mir jetzt also allen Ernstes erzählen das man nur noch mit Nvidia Karten inkl. Reflex zocken kann und alles andere schwammig ist? :ugly:

Man kann ja an DLSS3 FG eine Menge aussetzen aber die Latenz zu kritisieren ist lächerlich.
 
Gott, ich kann den Bullshit echt nicht mehr hören. Hier mal zur Verdeutlichung wie die Latenz wirklich aussieht:
Anhang anzeigen 1427251
Quelle: https://www.computerbase.de/2023-05...itt_nvidia_dlss_3_in_the_witcher_3_untersucht

Der untere ganz lange Balken stellt da wie es mit JEDER nicht Nvidia Grafikkarte und auch bei Nvidia vor Reflex aussieht. Du willst mir jetzt also allen Ernstes erzählen das man nur noch mit Nvidia Karten inkl. Reflex zocken kann und alles andere schwammig ist? :ugly:

Man kann ja an DLSS3 FG eine Menge aussetzen aber die Latenz zu kritisieren ist lächerlich.
Eine zusätzliche Berechnung wie DLSS soll schneller sein als es direkt auszugeben? Lol
 
Eine zusätzliche Berechnung wie DLSS soll schneller sein als es direkt auszugeben? Lol
Frame Generation inkludiert immer Reflex. Nicht abschaltbar. Das ist eine Kompensation/Zwangsmaßnahme, da sich Nvidia der Tatsache bewusst ist, dass niemand Lag toll findet. Das führt zu der interessanten Tatsache, dass die Kombination aus Reflex und Zusatz-Frame-Erstellung direkter sein kann als eine halbgare Umsetzung von "Reflex aus, FG aus" - also Arc- und Radeon-Standardbildausgabe.

MfG
Raff
 
Frame Generation inkludiert immer Reflex. Nicht abschaltbar. Das ist eine Kompensation/Zwangsmaßnahme, da sich Nvidia der Tatsache bewusst ist, dass niemand Lag toll findet. Das führt zu der interessanten Tatsache, dass die Kombination aus Reflex und Zusatz-Frame-Erstellung direkter sein kann als eine halbgare Umsetzung von "Reflex aus, FG aus" - also Arc- und Radeon-Standardbildausgabe.

MfG
Raff
Ahoj Raff !

Also wenn ich mit die Slider Bilder so anschaue und auf das "strahlen" der Leuchtreklame achte, komm ich zu dem Entschluss, dass auf dem 1. Slider (im Vergleich zum 2. und 3.) die Bilder vertauscht sind.
 
Wie jeder Test auch zeigt, umso höher die RT Last umso schlechter AMD. Wenn im Schnitt es für 3090 Niveau reicht und da auch die Soft RT Spiele drin sind, bei denen AMD tatsächlich auch auftrumpfen kann, ist doch auch klar, das es in RT Schwergewichten auch schlechter sein muss.

Diese Tendenz kann man ohne große Mühe in jedem aktuellen Test erkennen.
Das Argument je schwerer der Workload desto schlechter die AMD ist halt nonsense.

Das Problem bei dieser Logik ist einfach die RTX 2080TI ist überall langsamer als die 7900XTX mit Raytracing in so gut wie jedem Game. Das schließt ein das es mal eine sehr hohe mal eine niedrigere Raytracing Last ist.
Das schließt auch Cyberpunk 2077 mit Raytracing maximal ein, sogar gemoddeter also noch höherer Raytracing Last ist die 2080TI langsamer. Selbst der Abstand zu ihr bleibt quasi immer Identisch.

Du kannst den Workload von den Raytracing Effekten ja noch massiv verstärken...
Doch nur sobald man Pathtracing anschaltet ist sie das plötzlich nicht mehr!?
Toller Zufall...

Je höher die RT Last ist umso schlechter ist AMD greift also überhaupt nicht - es passt nur für diese eine Situation in Cyberpunk und nicht generell.
 
Das Argument je schwerer der Workload desto schlechter die AMD ist halt nonsense.

Das Problem bei dieser Logik ist einfach die RTX 2080TI ist überall langsamer als die 7900XTX mit Raytracing in so gut wie jedem Game. Das schließt ein das es mal eine sehr hohe mal eine niedrigere Raytracing Last ist.
Das schließt auch Cyberpunk 2077 mit Raytracing maximal ein, sogar gemoddeter also noch höherer Raytracing Last ist die 2080TI langsamer. Selbst der Abstand zu ihr bleibt quasi immer Identisch.

Du kannst den Workload von den Raytracing Effekten ja noch massiv verstärken...
Doch nur sobald man Pathtracing anschaltet ist sie das plötzlich nicht mehr!?
Toller Zufall...

Je höher die RT Last ist umso schlechter ist AMD greift also überhaupt nicht - es passt nur für diese eine Situation in Cyberpunk und nicht generell.
Du meinst also nicht, das Nvidia seit RTX2000 die Möglichkeiten heavy RT Workloads zu händeln verbessert hat?


Also nein, das es bei RTX2000 ähnlich zu RX7000 ist, ist kein Zufall, sondern war logisch anzunehmen. Was aber nichts daran ändert, das es bei RTX3000 und 4000 eben anders ist und die Aussage schon richtig zu sein scheint.
 
Doch nur sobald man Pathtracing anschaltet ist sie das plötzlich nicht mehr!?
Toller Zufall...
Ich kann mir vorstellen, dass es an den reflektierten Bounces bei Path Tracing liegt, dass AMD und ihre Software-Lösung dort an ihre Grenzen stößt. Entweder ist diese zustätzliche Strahlenverfolgung noch nicht so gut berücksichtigt, oder für eine Softwarelösung zu aufwendig.
 
Du meinst also nicht, das Nvidia seit RTX2000 die Möglichkeiten heavy RT Workloads zu händeln verbessert hat?


Also nein, das es bei RTX2000 ähnlich zu RX7000 ist, ist kein Zufall, sondern war logisch anzunehmen. Was aber nichts daran ändert, das es bei RTX3000 und 4000 eben anders ist und die Aussage schon richtig zu sein scheint.
Achso und das ist dann nur in Cyberpunk der Fall?
Bei einer Pathtracing Mod für ein anderes Game passiert das nicht... :what:

Das ist es ja was ich sage, es ist halt wirklich auffällig nur in Cyberpunk so das ein derartiger Leistungsverlust passiert.
Ich kann mir vorstellen, dass es an den reflektierten Bounces bei Path Tracing liegt, dass AMD und ihre Software-Lösung dort an ihre Grenzen stößt. Entweder ist diese zustätzliche Strahlenverfolgung noch nicht so gut berücksichtigt, oder für eine Softwarelösung zu aufwendig.
Möglich aber wie gesagt, warum ist es dann nicht generell so sondern nur in einem von 20 Spielen.
 
Frame Generation inkludiert immer Reflex. Nicht abschaltbar. Das ist eine Kompensation/Zwangsmaßnahme, da sich Nvidia der Tatsache bewusst ist, dass niemand Lag toll findet. Das führt zu der interessanten Tatsache, dass die Kombination aus Reflex und Zusatz-Frame-Erstellung direkter sein kann als eine halbgare Umsetzung von "Reflex aus, FG aus" - also Arc- und Radeon-Standardbildausgabe.

MfG
Raff
Dann ist die Grafik in meinem Zitierten Post aber falsch da Reflex gesondert angegeben wird.
 
Achso und das ist dann nur in Cyberpunk der Fall?
Bei einer Pathtracing Mod für ein anderes Game passiert das nicht... :what:

Das ist es ja was ich sage, es ist halt wirklich auffällig nur in Cyberpunk so das ein derartiger Leistungsverlust passiert.
Das ist ja eben nicht so. Man kann in verschiedenen Tests und Spielen sehen, umso höher die RT Last umso schwächer schneidet AMD ab.

Bzw. das ist was ich aus den verfügbaren Tests heraus lese. Scheint ja auch nicht nur mir so zu gehen. So zeihen ja auch die meisten Tests ein entsprechendes Fazit.
Möglich aber wie gesagt, warum ist es dann nicht generell so sondern nur in einem von 20 Spielen.
Das ist so nicht richtig. Aber ja in CP2077 am deutlichsten, oder zumindest mit am deutlichsten.
 
Die 4060Ti zieht die 3070 ab, das ist schon stark.
Was ist denn daran stark...
Also, was stark ist, bzw. totaler Käse für Kunden, das sich ein totales entweder, oder entwickelt.
Nvidia bietet für die Nahe zukunft zu wenig Speicher, im direkten Vergleich ( Beispiel 7900XTX und 4080, oder 7900XT und 4070ti und AMD schwächelt bei RT so sehr, das selbst eine fast zum Tode verkrüppelte Karte, wie die 4060ti schön deutlich stärker ist.

Es gib kein gesundes Gesamtprodukt.
 
Was ist denn daran stark...
Also, was stark ist, bzw. totaler Käse für Kunden, das sich ein totales entweder, oder entwickelt.
Nvidia bietet für die Nahe zukunft zu wenig Speicher, im direkten Vergleich ( Beispiel 7900XTX und 4080, oder 7900XT und 4070ti und AMD schwächelt bei RT so sehr, das selbst eine fast zum Tode verkrüppelte Karte, wie die 4060ti schön deutlich stärker ist.

Es gib kein gesundes Gesamtprodukt.

Versteift euch halt auf exakt dieses eine Cherry gepickte Spiel bei dem es so ist und gut...

Holst jetzt sogar zur Provokation die 4060TI hervor, langsam wirds echt lächerlich die Behauptungen hier.

Ich zocke derweil Star Wars: Jedi Survivor 10320x1440 nativ inklusive Raytracing mit wunderbaren 45 FPS.
Zeig mir mal eine Nvidia Karte unter einer 3090 /4070 die das schafft.
 
Versteift euch halt auf exakt dieses eine Cherry gepickte Spiel bei dem es so ist und gut...

Holst jetzt sogar zur Provokation die 4060TI hervor, langsam wirds echt lächerlich die Behauptungen hier.
Fakt ist doch, dass man bei einer Karte über 1000€ genau auf solche Gegenbenheiten stößt. Und in Zukunft wird das bestimmt häufiger vorkommen. Und dazu kommt, dass AMD nicht so eine konstante Leistung über verschiedene Spiele hinweg liefert, wie Nvidia. Grade bei Nischentiteln, schneidet AMD manchmal gar nicht gut ab. Auf Navi 2 lief über ein halbes Jahr Elite Dangerous mit dem neusten Treiber nicht.
 
Fakt ist doch, dass man bei einer Karte über 1000€ genau auf solche Gegenbenheiten stößt. Und in Zukunft wird das bestimmt häufiger vorkommen. Und dazu kommt, dass AMD nicht so eine konstante Leistung über verschiedene Spiele hinweg liefert, wie Nvidia. Grade bei Nischentiteln, schneidet AMD manchmal gar nicht gut ab. Auf Navi 2 lief über ein halbes Jahr Elite Dangerous mit dem neusten Treiber nicht.
Ich kann nicht sagen was bei Elite Dangeous ist und war.

Allerdings kann ich sagen das ich eine RX 6900XT und jetzt eine RX 7900XTX habe.
Die Karten Performance gut, die 7900XTX sogar unerwartet gut - hatte von der Karte durch das Forum und die Beiträge in dem Forum hier ein wesentlich schlechteres Bild von der 7900XTX als es jetzt der Fall ist.

Ich habe in anderen Threats sogar schon mit kompletten Ergebnissen z.B. zum Cyberpunk Threat selbst gezeigt das die Karte mit normal angeschaltetem Raytracing sehr äquivalent zur 3090 operiert.
Pathtracing ist sie nicht auf 3090 Niveau aber immer über einer 4060TI.... man hängt knapp hinter einer 3080.
AMD hängt nun mal eine Generation zurück das ist so... Es ist aber nicht das derart düstere Bild was hier von einigen Nutzern gezeigt wird. Nutzer die sich vermutlich wundern würden wenn sie die Performance mal live vor Augen sehen würden.

Und ja auch ich habe eine RTX 3070 zum testen zur Verfügung gehabt.

Bei Nvidia läuft auch nicht immer alles einwandfrei - was ich aber sagen kann das ich in den letzten 4 Jahren seit der 5700XT alles einwandfrei spielen konnte und noch nicht einmal Probleme mit Schatten beobachten konnte. Das einzige was abgestürzt ist ist Anno 1800 und da war ich auch schon auf Treiber Problem Suche weil das ja "immer" so oft bei AMD der Fall ist. Was war es am Ende? Direct X12 implementierung in Anno selbst. Hat überhaupt nichts mit dem Grafikkarten Treiber zu tun - tritt nämlich auch unter Nvidia Karten auf!
 
Versteift euch halt auf exakt dieses eine Cherry gepickte Spiel bei dem es so ist und gut...

Holst jetzt sogar zur Provokation die 4060TI hervor, langsam wirds echt lächerlich die Behauptungen hier.

Ich zocke derweil Star Wars: Jedi Survivor 10320x1440 nativ inklusive Raytracing mit wunderbaren 45 FPS.
Zeig mir mal eine Nvidia Karte unter einer 3090 /4070 die das schafft.
mach dich mal Locker!

Du solltest aus anderen Threads, durch häufigere Schnittpunkte eigentlich wissen, das ich persönlich AMD aktuell bevorzuge.

Auch hier habe ich schon neutral geschrieben, das es entweder, oder ist und nicht bei Grün ist alles top. Ganz sicher nicht.

Die Provokation findet nur in deinem Kopf statt.

Du kannst lesen, denke ich, also lies dir die Tests durch, zur not reicht auch Balken schauen. Da findest du mehr Beispiele als nur Cyberpunk2077. Hier, bei PCGH, bei alles Plattformen im Netz kannst du das schaffen.


Ich persönlich tendiere bei 7900XTX und RTX4080 eher zur 7900XTX, weil für mich aktuell der Speicher schwerer wiegt, als die RT Leistung. Zumal es auch viele Titel gibt, die RT nicht so intensiv nutzen und da auch oft AMD eine sehr starke Figur macht.

Das ändert aber nichts daran, das AMD bei hoher RT Last einbricht.

Das was du Behauptung nennst, ist übrigens ein Fakt. Siehe Test zu dem wir hier gerade schreiben. Das war die Aussage...
Allerdings kann ich sagen das ich eine RX 6900XT und jetzt eine RX 7900XTX habe.
Und ich will mir auch eine 7900XTX zulegen.
Die Karten Performance gut, die 7900XTX sogar unerwartet gut - hatte von der Karte durch das Forum und die Beiträge in dem Forum hier ein wesentlich schlechteres Bild von der 7900XTX als es jetzt der Fall ist.
Was hat das mit der hier getätigten Aussage zu tun. Wäre deine Aussage eine andere, wenn du eine RTX4080 gekauft hättest? Ich hoffe nicht.

Es bezweifelt doch gar keiner, das eine 7900XTX eine starke Leistung abliefert, weswegen ich auch eine kaufen möchte.
Ich habe in anderen Threats sogar schon mit kompletten Ergebnissen z.B. zum Cyberpunk Threat selbst gezeigt das die Karte mit normal angeschaltetem Raytracing sehr äquivalent zur 3090 operiert.
Schön und danach...nichts. Das hat doch nichts damit zu tun. Da muss man sich nicht verfolgt fühlen und allen unterstellen, das Firma x, Tester, oder Spieleschmiede beeinflusst usw.

Cyberpunk 2077 ist heute nicht Relevant, mit PathTracing, sondern nur ein Ausblick auf die mögliche Zukunft. Genau wie manche Speicherfresser und, oder die UE5 Engine.

Daher meine Aussage zu "Entweder, oder" Es gibt nicht das perfekte Rundumsorglospaket. (Wobei die 4090 dieses schon verkörpern würde)
Pathtracing ist sie nicht auf 3090 Niveau aber immer über einer 4060TI.... man hängt knapp hinter einer 3080.

Ich verlinkte das nochmal, wobei das unnötig sein sollte.
Die 4060ti ist bereits 44% vor der 7900XTX! in 1080p, auch 1440p geht klar an die 4060ti. (1080p ist absolut im spielbaren Bereich mit der 4060ti, bei 7900XTX eigentlich nicht mehr.

So zumindest in der von PCGH gewählten Szene. Das mag ein Worstcase sein, aber wir können auch nicht nur auf geschönte Messungen Wert legen.

AMD hängt nun mal eine Generation zurück das ist so...
Was auch kein Problem ist.
Es ist aber nicht das derart düstere Bild was hier von einigen Nutzern gezeigt wird.
Ach, das ist nicht real passiert. Man hat ausgesprochen, was hier im test zu sehen war. Das muss nicht von dir wegignoriert werden! Das ändert nichts an deiner 7900XTX, die immer noch eine ausgeziechnete Karte ist.
Nutzer die sich vermutlich wundern würden wenn sie die Performance mal live vor Augen sehen würden.
Was ein grober Unfug. Lies doch erstmal und verstehe, bevor du anderen irgendein Unfug unterstellst.
Und ja auch ich habe eine RTX 3070 zum testen zur Verfügung gehabt.
Es mag sein, das auch eine 7900XTX in einer anderen Szene besser abschneidet.
1. versucht PCGH meistens eher ein Worstcase aufzuzeigen.
2. ist die Erhebung der Daten bei PCGH gesicherter, als deine Daten. So das sich eher von PCGH Aussagen ableiten lassen.
Bei Nvidia läuft auch nicht immer alles einwandfrei
natürlich nicht, der einzige echte Treiberbug, der mir in den letzten 20 jahren unter gekommen ist, war mit einer Nvidia.
- was ich aber sagen kann das ich in den letzten 4 Jahren seit der 5700XT alles einwandfrei spielen konnte
Das ändert doch nichts an den Aussagen, die hier getätigt wurden. Ich fürchte du verwechselst deine persönlichen Erfahrungen mit einem objektiven Test.
und noch nicht einmal Probleme mit Schatten beobachten konnte. Das einzige was abgestürzt ist ist Anno 1800 und da war ich auch schon auf Treiber Problem Suche weil das ja "immer" so oft bei AMD der Fall ist.
Das ist eine Aussage, dich ich so nicht tätigen würde. Meine Erfahrung sagt mir das es keinen großen unterschied zwischen AMD und Nvidia gibt, was die Treiberqualität angeht. Das ist aber auch nur meine Erfahrung.
Was war es am Ende? Direct X12 implementierung in Anno selbst. Hat überhaupt nichts mit dem Grafikkarten Treiber zu tun - tritt nämlich auch unter Nvidia Karten auf!

Willst du jetzt ein Eis.


Bist du jetzt auf einem Kreuzzug gegen Nvidia, oder verteidigst du deinen Kauf, oder grundsätzlich AMD. Egal, alles unnötig.

Pro AMD / RX7900XTX könnte man zum Beispiel viel eher hervorheben, das Computerbase zum Beispiel auch immer die jüngsten Spiele separat nochmal testet und dort schneidet die 7900XTX sogar besser, als im normalen Parcour ab. Auch mit RT macht die da eine etwas bessere Figur!
 
Zuletzt bearbeitet:
Es gib kein gesundes Gesamtprodukt.

Natürlich gibt es das, heißt 4090. Des weiteren denke ich das die 16GB der 4080 ne Weile reichen werden. Der enorme VRam Sprung ist der neuen Konsolen Generation geschuldet und da wird sich in den nächsten Jahren nicht viel bewegen. Ich denke 3 - 4 Jahre bist du auch mit einer 4080 auf der sicheren Seite wobei mir einen 4080 mit 20GB natürlich auch besser gefallen würde.
 
Natürlich gibt es das, heißt 4090. Des weiteren denke ich das die 16GB der 4080 ne Weile reichen werden. Der enorme VRam Sprung ist der neuen Konsolen Generation geschuldet und da wird sich in den nächsten Jahren nicht viel bewegen. Ich denke 3 - 4 Jahre bist du auch mit einer 4080 auf der sicheren Seite wobei mir einen 4080 mit 20GB natürlich auch besser gefallen würde.
Naja, bei 1600+ € widerstrebt es mir einfach von Gesund zu reden ;), aber ja, die wäre am nächsten dran.

Den VRam Sprung finde ich nicht in den Konsolen. Eine PS5 wird kaum mehr als 8-9GB für die GPU nutzen können und selbst wenn es 10 wären, ändert das nichts.

Der enorme Speicherbedarf ist eher schlampige Arbeit.
Ich kann die 16GB , wenn ich wollte jetzt schon eng werden lassen. Ja, für die Allgemeintheit reichen die 16GB der 4080 und die RT Leistung der 7900XTX. Aber bei über 1000€ würde ich mir ein runderes Produkt wünschen, ohne nochmal 600€ mehr auf den Tisch legen zu müssen.
 
Zurück