News "Maximale Raytracing-Leistung": AMD demonstriert Radeon RX 7900 XTX und 7900 XT mit FSR 2.x in aktuellen Spielen

Man ist auf dem Niveau einer 3060 TI. Hybride RT Titel spiegeln nicht ansatzweise die RT Leistung wieder.
AMD hinkt also nicht nur eine Generation hinterher, sondern erreicht nicht mal die Leistung einer Mittelklassekarte der letzten Generation. Das ist peinlich.

Peinlich finde ich, dass NV RT und vor allem Pathtracing promotet wie ein Großer, am Ende aber mit DLSS 3 und Co.
tricksen muss, um überhaupt auf vernünftig spielbare Leistung zu kommen.

Ich wiederhole mich gerne: Richtiges RT OHNE irgendwelche Tricks mit 100+ FPS,
erst dann lohnt sich meiner Meinung nach die Investition in so teure Hardware.
Kaufe doch keinen Porsche und manipuliere die Steuerrgeräte um mehr Leistung zu bekommen.

Nächstes Jahr kommt die 50er Serie und die 40/30 Serie wird, wie auch deren Vorgänger aktuell,
Treibertechnisch vernachlässigt, dann kannst wieder 2k für ne neue GPU ausgeben, die immer noch
DLSS3 (oder bis dahin4) braucht um spielbare Ergebnisse zu liefern.
Kannst dir natürlich nen FullHD Monitor kaufen, dann könnte es auch nativ passen. ;)
 
Interessant das sich die eigenen Bechmarks unterscheiden
Ich habe ja explizit UHD genommen um die 4090 möglichst wenig zu limitieren.

Und ich bin halt auch in Call of Duty unterwegs.
Wie gut war die 3090TI da? :D
Es gibt in beide Richtungen diverse Titel die dem einen oder anderen Hersteller besser schmecken, genau deswegen sind im Index ja so viele Titel...
 
Ich sag mal so mit meiner gtx970 hab ich damals in fhd spiele wie Bf4 gezockt. Mit der gtx1070 dann bf1/5 in 1440p. Dann kam ein 5120x1440 Monitor ran und eine rtx3060ti. Dort packt die zumindest in hunt showdown 75-90 fps in hohen settings. Nur Schatten und anti aliasing habnich reduziert da ich dies für nicht wichtig erachte. Für mich ganz persönlich ist daher jede Karte ab rtx4070 definitiv eine 4k Karte alles andere würde ich lächerlich finden. Die packt so ziemlich jedes gut optimierte spiel in 4k in hohen (vielleicht nicht ultra) settings >60fps. Schlecht optimierten/programmierten Spiele muss man natürlich etwas vernachlässigen. Spiele wie zb. Star Citizen die einfach alpha und nicht mehr als spielbare Techdemos sind nicht von Relevanz.
Aber natürlich hast du recht, das ist meine persönliche Sichtweise. Geht ja auch nicht anders sonst würde ich schreiben "der und der hat die Sichtweise". Alles was irgendwo geschrieben steht ist immer rein subjektiv die Ansicht des Schreibers. Es gibt keine "Objektive Sicht/Meinung". Das ist der größte Denkfehler der Menschheit. Alles ist relativ.
Na dann schreibt man aber auch nicht so ist es, sondern meiner Meinung nach. ;)

Für mich ist eine 3060TI die untere Kotzgrenze für 1080p, wenn man möglichst wenig investieren will/wollte.
Eine 4070 ist für mich eine neuere 1080p Karte, die es ermöglichen sollte alles in 1080p, auch mit RT sehr gut spielbar zu machen.

Eine ti vielleicht für 1440p, wer einen höheren Anspruch hat eben eine 4080.

Letztlich ist nur wichtig, was jedem einzelnen wichtig ist. Das aber Karte a, b, c nur für bestimmte Auflösungen ist, gibt es aber nicht.
 
Peinlich finde ich, dass NV RT und vor allem Pathtracing promotet wie ein Großer, am Ende aber mit DLSS 3 und Co.
tricksen muss, um überhaupt auf vernünftig spielbare Leistung zu kommen.
In 4K. In anderen Auflösung ist es auch ohne DLSS3 flüssig und DLSS3 ist kein tricksen.
Die Bildqualität steigt gegenüber Nativ und der Verbrauch sinkt. Es ist nur logisch DLSS zu nutzen, wenn es verfügbar ist.

Ich wiederhole mich gerne: Richtiges RT OHNE irgendwelche Tricks mit 100+ FPS,
erst dann lohnt sich meiner Meinung nach die Investition in so teure Hardware.
Das ist ein sehr dummes Argument und untermauert nur, dass du keine Ahnung hast, wovon du redest.
Nach dem Prinzip dürftest du gar nichts Spielen, weil alles nur "Tricks" sind.
Du ziehst getrickste Cube Maps/Spiegelungen und Fake Schatten den richtigen Effekten durch RT vor aber betitelst DLSS als "getrickse". Merkste selbst, oder? :lol::lol:

Sämtliche Tests attestieren DLSS2+ ein sehr gutes Ergebnis und es gibt immer noch User wie dich, die durch die Foren Ragen und ihr Unwissen verbreiten, obwohl sie nicht mal die Hardware haben, um es überhaupt nutzen zu können. Vermutlich ist das auch der Grund für deine Abneigung, weil du es selbst nicht nutzen kannst, deshalb musst du es anderen schlecht machen.

Auf Tests von Profis der Fachmagazine und Nutzer mit entsprechender Hardware gibst du anscheinend nichts, also woher nimmst du dein "fundiertes Wissen", dass Nativ viel besser ist, wenn du es nicht mal selbst testen könntest?

Kaufe doch keinen Porsche und manipuliere die Steuerrgeräte um mehr Leistung zu bekommen.
Der Vergleich hinkt so dermaßen, aber was interessiert es mich, wie die Leistung erzielt wird, solange sie erzielt wird?

Nächstes Jahr kommt die 50er Serie und die 40/30 Serie wird, wie auch deren Vorgänger aktuell,
Treibertechnisch vernachlässigt, dann kannst wieder 2k für ne neue GPU ausgeben, die immer noch
DLSS3 (oder bis dahin4) braucht um spielbare Ergebnisse zu liefern.
DLSS2 unterstütze auch die alte Generation und DLSS3 setzt Hardware voraus bzw. Optimierungen der vorhandenen HW-Einheiten. DLSS3 läuft technisch auch auf Ampere und Turing, aber bringt dir dort keinen Mehrwert, weil die HW-Einheiten zu langsam sind.
Das wüsstest du, wenn du dich informieren würdest, bevor du deinen Nonsense in die Tasten hämmerst.

Kannst dir natürlich nen FullHD Monitor kaufen, dann könnte es auch nativ passen. ;)
Du hast ne 1080, für dich ist 4K max Settings sowieso kein Thema ;)
 
Zuletzt bearbeitet:
Na dann schreibt man aber auch nicht so ist es, sondern meiner Meinung nach. ;)

Für mich ist eine 3060TI die untere Kotzgrenze für 1080p, wenn man möglichst wenig investieren will/wollte.
Eine 4070 ist für mich eine neuere 1080p Karte, die es ermöglichen sollte alles in 1080p, auch mit RT sehr gut spielbar zu machen.

Eine ti vielleicht für 1440p, wer einen höheren Anspruch hat eben eine 4080.

Letztlich ist nur wichtig, was jedem einzelnen wichtig ist. Das aber Karte a, b, c nur für bestimmte Auflösungen ist, gibt es aber nicht.
"Untere Kotzgrenze"?...kann man definitiv so sehen vorallem wenn man selbst eine rtx4080 oder ähnliches Besitzt. Für mein persönlichen Anspruch ist es ok...Mittelklasse halt für damals horende 600€. Immerhin schafft die in meinem Spiel in hunt showdown in 5120x1440 in hohen settings 70-90fps. Daher hab ich zumindest keine upgrade Zwang bei den aktuellen Wucherpreisen.
 
In hybriden Titeln, aber ihr redet hier von RT Leistung und dort kämpft man mit der 3060 TI bzw. 3070.
wer ist denn "ihr" schon wieder ?
Und wer bist Du ? Jensen (Vertretung DE) ??
und RX7900XTX ab 1169€, ohne tagesabhängige Rabattaktionen.
ab 1099 € (gestern im Mindstar 999 €)

 

Anhänge

  • 7900XTX.jpg
    7900XTX.jpg
    615,5 KB · Aufrufe: 49
Zuletzt bearbeitet von einem Moderator:
In 4K. In anderen Auflösung ist es auch ohne DLSS3 flüssig und DLSS3 ist kein tricksen.
Die Bildqualität steigt gegenüber Nativ und der Verbrauch sinkt. Es ist nur logisch DLSS zu nutzen, wenn es verfügbar ist.
.....................

:lol::lol:made my day, dann verstehe ich die ganzen Nutzer nicht, die dann Schlieren oder andere Fehler sehen.

Du hast ne 1080, für dich ist 4K max Settings sowieso kein Thema ;)

Bezüglich der 1080 hast fast Recht, aber keine Angst, deiner ist immer noch länger...:rolleyes:
...noch!

Bin dir aber jetzt auf den Fersen* und dank NVs Supportpolitik in ein paar Jahren dann voraus, aber dann hast
du ja eine 5090 und in 4 Jahren dann eine 6090 damit es besser läuft. Dafür hast dann wieder den Längeren. ;)
Während ich mit meiner aktuellen GPU noch immer Spaß haben werde.

*Habe gerade die HW Daten neu hochgeladen, wirst es dann in ein paar Stunden sehen, mein Profil ist schon aktuell.
 
In hybriden Titeln, aber ihr redet hier von RT Leistung und dort kämpft man mit der 3060 TI bzw. 3070.
Du glaubst das eine 7900XTX wirklich mit einer 3060TI oder 3070 im RT kämpft?
Leute kommt mal auf dem Boden an...!

Die Frage ist nicht eindeutig geklärt, finde ich kann eine 7900XTX eine 3090 im Raytracing schlagen?

Wenn sie vor einer 3090T liegt - dürfte es ja leicht sein die 3090 hier wegzuputzen...
Hier auch noch mal das du es siehst. Owned139 hat mich jetzt dann doch zu sehr getriggert.
Du hattest ja 29,66 oder?
 

Anhänge

  • 1681835034344.png
    1681835034344.png
    3,9 MB · Aufrufe: 38
Du hattest ja 29,66 oder?
Mit der neuen Afterburner Kurve sind es mittlerweile 30,97 geworden, gibt aber Durchläufe mit 30,60 auch noch - aber immer sicher über 30. - Vor zwei Tagen aber, mit der alten Kurve, waren es noch 29,66.

Nun sind alle Zeiten aktualisiert... bis... ich muss echt diese Woche noch den 5800X3D (liegt mittlerweile schon 5 Monate da herum) einbauen ...damit ich sicher aus dem CPU-Limit rauskomme. Zumindest weiß ich dann genau, was an Leistung dazugekommen sein wird.
 
Zuletzt bearbeitet:
DLSS3 läuft technisch auch auf Ampere und Turing, aber bringt dir dort keinen Mehrwert, weil die HW-Einheiten zu langsam sind.
Das wüsstest du, wenn du dich informieren würdest, bevor du deinen Nonsense in die Tasten hämmerst.

Warum lässt uns Nvidia das dann nicht wie damals zu RT Zeiten einfach mal testen. Auf einer GTX1080TI konnte man auch RT einschalten um zu sehen wie schlecht es läuft.

Irgendwie glaube ich diesen Punkt Nvidia nicht. Schade das es zu dem Thema keine RTX3000 DLSS3 Mod gibt in einzelnen Games.
 
Mit der neuen Afterburner Kurve sind es mittlerweile 30,97 geworden, gibt aber Durchläufe mit 30,60 auch noch - aber immer sicher über 30. - Vor zwei Tagen aber, mit der alten Kurve, waren es noch 29,66.

Nun sind alle Zeiten aktualisiert... bis... ich muss echt diese Woche noch den 5800X3D (liegt mittlerweile schon 5 Monate da herum) einbauen ...damit ich sicher aus dem CPU-Limit rauskomme. Zumindest weiß ich dann genau, was an Leistung dazugekommen sein wird.
Du meinst mit OC?
Da geht mit Sicherheit dann auch noch was bei mir :)

Ich finde die Karten sind aber sehr ebenbürtig im Raytracing! :)
 
Du meinst mit OC?
Da geht mit Sicherheit dann auch noch was bei mir :)
Mit UV - weil ich mit weniger Strom mehr MHz mache als bei Werkszustand;

die voreingestellte Kurve geht auf 1095mV / 2025MHz hinauf nur kommt sie dort sowieso nicht an, weil die GPU zuvor schon zu heiß geworden ist, meine 3090 wird schon vor 900mV heißer - als die Luftkühler sie noch vorm runtertakten hindern könnten. 887 oder 993 und mehr machen keinen Sinn ohne Wasserkühlung... oder sonst was besser kühlendes.
Afterburner_Men.jpg

Ich hab weder die Core Voltage angehoben - noch das Temperatur-Limit entkoppelt... also mache ich kein OC. Wenn die Karte Innendrin wo gemessen wird 83° erreicht - geht der Takt runter... (Vermute ich)

Die graue Kurve ist der Werkszustand, und die grüne jene die ich heute gemacht habe - 1935MHz bei 881mV der maxTakt und max Strom den die Karte erreichen kann / darf.

Cyb_Bench Kurve 881mV 2.jpg

... nach der grauen Kurve müsste sie 981mV bekommen um 1935MHz machen zu können - der Taktverlauf beim Spielen folgt aber nur ungefähr der Kurve und nicht exakt.

Der Speichertakt ist bei mir bis 10674MHz stabil - eine Stufe (6Watt) höher möglicherweise auch noch.

Zudem bin ich vorerst noch mit dem 3700X immer etwas im CPULimit bei dem min fps - vermute ich - Dave macht mit seiner 3090 2-3 fps mehr wie es aussieht.
 
Zuletzt bearbeitet:
Weil es ein schlechtes Licht auf DLSS3 werfen würde. Gibt ja jetzt schon so Helden wie @h_tobi die hier ne Kampagne gegen DLSS fahren.

Wie du meinst...

Nur weil es mir nicht gefällt, dass die FPS künstlich angehoben werden, verteufel ich den Kram nicht.

Weder DLSS noch FSR jucken mich, ich will es nur nicht nutzen. Ich habe lieber meine native Auflösung
mit der mir gebotenen Leistung. Wenn es nicht reicht, gehe ich mit den Einstellungen zurück und warte
auf die nächste Generation, die es besser kann.
Ob ich die Auflösung reduziere um sie dann wieder hochzurechnen (meist mit kleinen Nachteilen), oder
gleich in der niedrigeren Auflösung, dafür aber nativ spiele, ist für mich noch ein Unterschied.

Das sieht jeder anders und das ist auch gut so, wer will, soll es nutzen, nur musst du auch akzeptieren,
dass ich kein Freund von solchen Spielchen bin und deswegen nicht alles in den Himmel lobe, nur weil
die FPS dann wieder stimmen.

So, damit bin ich hier raus, ich gebe jedenfalls nicht so viel Geld aus, um am Ende wieder die Einstellungen
"künstlich" (DLSS/FSR) zu reduzieren, damit es am Ende wieder flüssig spielbar wird...:rollen:
 
Mit der neuen Afterburner Kurve sind es mittlerweile 30,97 geworden, gibt aber Durchläufe mit 30,60 auch noch - aber immer sicher über 30. - Vor zwei Tagen aber, mit der alten Kurve, waren es noch 29,66.

Nun sind alle Zeiten aktualisiert... bis... ich muss echt diese Woche noch den 5800X3D (liegt mittlerweile schon 5 Monate da herum) einbauen ...damit ich sicher aus dem CPU-Limit rauskomme. Zumindest weiß ich dann genau, was an Leistung dazugekommen sein wird.
Nicht schlecht, hab jetzt auch mal undervoltet da kommt auch echt Performance rüber.
Müsste jetzt mal den Speicher auch noch feintunen.

Wie gesagt Red Devil 7900XTX nur undervoltet kein OC:

Benchmark5.jpg



Also kann eine 7900XTX schneller Raytracing als eine RTX 3090? ;)


Sind bei mir übrigens 1025mV anliegend an der GPU.
 
Zuletzt bearbeitet:
Also kann eine 7900XTX schneller Raytracing als eine RTX 3090? ;)
Es gibt ein Forums-Cyberpunk-Community-Path-Tracing-Event ausgerufen von Raff PCGH Community-Benchmark] Cyberpunk 2077 Path Tracing- dort kann derzeit jeder seine Path-Tracing-Benchmark in Thread posten - ich denke dass wird am Ende irgendwie in eine Tabelle zusammengefasst. Von den Auflösungen ist dort alles etwas durcheinander - das wird sicher ganz fein das auszuwerten

ich hab in 3 Auflösungen eingestellt: 2560x1440 (fenstermodus), 3440x1440, 5160x2160
(4k kann ich nicht auswählen) - damit eine passende Auflösung dabei ist (jeweils nativ, automatisch, Qualität
 
"Untere Kotzgrenze"?...kann man definitiv so sehen vorallem wenn man selbst eine rtx4080 oder ähnliches Besitzt. Für mein persönlichen Anspruch ist es ok...Mittelklasse halt für damals horende 600€. Immerhin schafft die in meinem Spiel in hunt showdown in 5120x1440 in hohen settings 70-90fps. Daher hab ich zumindest keine upgrade Zwang bei den aktuellen Wucherpreisen.
Ich sage als noch Besitzer einer 3060ti das ist die untere Kotzgrenze ;)
Aber umrüsten will ich auch nur, weil mir für mein Lieblingsspiel in VR der Speicher ausgeht (12GB wäre das minimum für mich) und ich dort auch gerne, 30 bis 100% mehr Leistung brauchen könnte.

Hunt Showdown noch gut im rennen, hätte nicht gedacht das sishc das so lange an Beliebtheit erfreut.

Macht schon richtig Bock?
Wie du meinst...

Nur weil es mir nicht gefällt, dass die FPS künstlich angehoben werden, verteufel ich den Kram nicht.

Weder DLSS noch FSR jucken mich, ich will es nur nicht nutzen. Ich habe lieber meine native Auflösung
mit der mir gebotenen Leistung. Wenn es nicht reicht, gehe ich mit den Einstellungen zurück und warte
auf die nächste Generation, die es besser kann.

Ich würde das nicht so pauschal sehen. Ich habe FSR und DLSS schon ausprobiert und bin mit beidem eigentlich zufrieden.
Manchmal funktioniert FSR besser, manchmal DLSS und manchmal bleibt man lieber bei nativ.

Jedoch habe ich selbst gesehen, das mir persönlich das Bild in Deathloop war es meine ich, mit FSR besser gefiel als nativ.

Diese Methoden können wenn es gut läuft besser aussehen, als nativ. Haben aber auch noch immer ihre Probleme, hier und da und je nach Spiel.
Ob ich die Auflösung reduziere um sie dann wieder hochzurechnen (meist mit kleinen Nachteilen), oder
gleich in der niedrigeren Auflösung, dafür aber nativ spiele, ist für mich noch ein Unterschied.
Ja, das eine sieht manchmal besser aus als nativ und das ander sicher nicht.
Das sieht jeder anders und das ist auch gut so, wer will, soll es nutzen, nur musst du auch akzeptieren,
dass ich kein Freund von solchen Spielchen bin und deswegen nicht alles in den Himmel lobe, nur weil
die FPS dann wieder stimmen.
Jupp, Gott sei dank.

So, damit bin ich hier raus, ich gebe jedenfalls nicht so viel Geld aus, um am Ende wieder die Einstellungen
"künstlich" (DLSS/FSR) zu reduzieren, damit es am Ende wieder flüssig spielbar wird...:rollen:
Ne, das tut man ja für die brachiale Leistung und nicht für die DLSS3 gedöns...

Eine 4090 ist schon kein schlechter Kauf, wenn man bereit ist viel Geld dafür auszugeben. Ab 1650€ mittlerweile ist schon eine Ansage.
Ok, Ich weiß nicht wie repräsentativ ein Spiel ist (Cyberpunk) dazu auch noch im Overdrive... Aber man kann festhalten das die Möglichkeit besteht, das eine 7900XTX unter eine 3060ti einbrechen kann.

Liegt aber immer auch im Auge des betrachters.

Wie damals mit Tessellation... Bis zu einem gewissen Grad kann AMD aktuell mit, dann bricht es aber ein.

Dennoch kann man gut und gerne auch mit einer 7900XT(X) Cyberpunk genießen. Auch in 4k und auch mit RT. Halt eine Einstellungssache.

Die 7900XT(X) hat auch ihre stärken und die liegen halt abseits von RT. Ist doch für alle etwas dabei.

Meine Preisgrenze wäre aktuell bei sagen wir bei Neukauf 1100€ und da wäre die 7900XT(X) die bessere Wahl, gegenüber der 4070ti für mich.
 
Zuletzt bearbeitet:
Wie ich dir halt den gegen Beweis bereits geliefert habe und du dich immer noch auf irgendwelche Quellen aus dem Netz stützt.
Wenn ich nochmal nachfragen darf, wie sieht der Gegenbeweis aus?

Möchtest du sagen, das CB falsch getestet hat, oder etwa falsche Werte angibt?

Und nicht falsch verstehen, ich selbst bin der Meinung, das man auch mit einer 7900XT(X) heute sehr viel Spaß auch mit RT haben kann. Im Schnitt der RT fähigen Spiele ist man auf rtx3090 Niveau. Mal besser, mal schlechter...
 
Zurück