News "Maximale Raytracing-Leistung": AMD demonstriert Radeon RX 7900 XTX und 7900 XT mit FSR 2.x in aktuellen Spielen

Maximale Raytracing Leistung mit AMD Hardware aber schon und so ist es zu lesen ;). Es ist ja nicht so das man mit AMD Karten kein RT einschalten kann. 4K Ultra mit 3 Stelligen FPS gibt es dann mit DLSS3.0 + Frame Generation und gesalzenen Preisen bei NV.
du meinst zum selben P/L Verhältnis wie AMD bei RX7000.

RT kann man mittlerweile in den Spielen relativ gut nutzen, auch mit AMD. Bei Nvidia geht halt mehr. Auch Nativ, ohne DLSS, oder gar Framegeneration.
Mich würde mal interessieren wer wirklich mit raytracing im High-End-Segment zockt. Fakt ist man muss sich dabei ausschließlich auf zocker die min 3-4k Auflösung nutzen beschränken. Für mich ist alles ab rtx4070ti/rx7900xt reine 3-4k Karten denn High-End-Preis, High-End Auflösung/Monitor.
Warum?
 
Da Raytracing selbst in Vorzeigespielen wie Cyberpunk 2077 gegenüber Raster teils ziemlich meh aussieht und Pathtracing selbst für die schnellsten Karten auf dem Markt kaum mit anderweitigen Qualitätseinbussen wie aufskalierter sehr niedriger Auflösung, problematischer Zwischenbildberechnung, sehr schlechten LOD-Vorgaben und grässlichem Ghosting realisierbar ist, ist es mir egal, was in dem Bereich derzeit hardwaremässig geboten wird.

Es ist und bleibt immer noch eine nette Technikspielerlei in Kinderschuhen, mehr nicht.
Das Ganze wird frühestens ab RDNA4/5 und RTX5000/6000 langsam richtig interessant.
 
Zuletzt bearbeitet:
Da Raytracing selbst in Vorzeigespielen wie Cyberpunk 2077 gegenüber Raster teils ziemlich meh aussieht und Pathtracing selbst für die schnellsten Karten auf dem Markt kaum mit anderweitigen Qualitätseinbussen wie aufskalierter sehr niedriger Auflösung, problematischer Zwischenbildberechnung, sehr schlechten LOD-Vorgaben und grässlichem Ghosting realisierbar ist, ist es mir es egal, was in dem Bereich derzeit hardwaremässig geboten wird.

Es ist und bleibt immer noch eine nette Technikspielerlei in Kinderschuhen, mehr nicht.
Das Ganze wird frühestens ab RDNA4/5 und RTX5000/6000 langsam richtig interessant.
Auf jeden Fall nicht überlebenswichtig! ;)
 
Seit wann ist denn Globale Beleuchtung per RT = NIX ?
Das ist vllt. neben RT-AO das einzige sinnige Feature mit Hybrid-RT.
Dann erkläre mir, was sich da ändert.
In der Reihenfolge: RT aus, RT an, RT-Schatten an, RT-Reflexionen an, RT alles an, sonst höchste Details

Für dich gilt Bild 1 und Bild 2. Ich sehe da keinen Unterschied, da tut sich gar nichts. Die Sonnenschatten sind auch ein Witz. Einzig die Spiegelungen erzeugen einen ganz anderen optischen Eindruck, kosten aber auch am meisten Performance. Spiel selbstverständlich neu gestartet zwischen RT an und RT aus, funktioniert ja sonst nicht.

Zeige mir gerne Bilder, wo sich deiner Meinung nach etwas verändert. Bei mir sehe ich nur, dass der VRAM etwas mehr gefüllt wird, aber nicht, warum. Die drei Fps Unterschied schenken wir uns, die Szene ist dynamisch und alle NPCs bewegen sich, da ist es schwierig, exakt die gleiche Szene zu vergleichen.
 

Anhänge

  • _1 RT aus.jpg
    _1 RT aus.jpg
    2,6 MB · Aufrufe: 55
  • _2 RT an.jpg
    _2 RT an.jpg
    2,6 MB · Aufrufe: 61
  • _3 RT S.jpg
    _3 RT S.jpg
    2,6 MB · Aufrufe: 48
  • _4 RT R.jpg
    _4 RT R.jpg
    2,4 MB · Aufrufe: 54
  • _5 RT S+R.jpg
    _5 RT S+R.jpg
    2,5 MB · Aufrufe: 55
Ja wir wissen jetzt dass AMD in RT langsamer ist als NV.

Wir wissen aber genauso, dass man bei NV dafür auch ordentlich drauf zahlt. Ob es das Wert ist, muss jeder selbst wissen.
Mir ist es das nicht wert, ganz ehrlich. Und ohne RT kann man alles Games mit AMD HW auch sehr toll zocken und man muss sich nicht rumärgern mit "welches DLSS1,2,3 + FG brauch ich denn nun damit RT läuft und ich endlich mal zocken kann".
In der Zeit macht der AMD User eben RT aus, und hat schon Spaß am Game. Das geht also auch ohne RT, sogar sehr gut.

Weil die meisten, die ihr RT so vehement verteidigen, haben ja mindestens eine überteuerte Midrange RTX4070 oder eine 900€ teure Speicherkrüppel 4070ti und müssen DLSS3 FG nutzen, damit RT in ihrem geliebten CP2077 Pathtracing überhaupt gebacken bekommt...und dann geht erstmal der VRAM aus, wenn nicht heute, dann spätestens im nächsten AAA RT Titel. :D

Also hat jeder seine Vor- und Nachteile. Aber die wenigen Vorteile von NV, sind mir wie gesagt, keine hunderte oder sogar tausende (T)-Euros wert. Nur damit ich prahlen kann, und mir die überteuerte GPU rechtfertigen kann.

Da nehme ich lieber die AMD P/L Sieger in Raster und spiele entspannt ohne RT Krampf.
Dann erkläre mir, was sich da ändert.
In der Reihenfolge: RT aus, RT an, RT-Schatten an, RT-Reflexionen an, RT alles an, sonst höchste Details
Das offensichtlichste zw dem "RT aus" - Bild und dem "RT alles an" - Bild sind die ~100FPS Unterschied :D

Ok, Schatten und Reflexionen sieht man auch, aber nicht dass ich dafür 100FPS weniger in Kauf nehmen würde. Ist so.

Das sichtbare RT würde vermutlich auch mehr oder weniger beim Zocken (wenn ich nicht gerade Standbilder ingame vergleiche) untergehen und kaum auffallen, die 100FPS weniger aber durchaus viel mehr.
 
Zuletzt bearbeitet:
Für mich sind die gezeigten Bildraten locker ausreichend, aber AMD sollte langsam mal bisl an ihrer Raytracing-Performance schrauben. Das RT auf lange Sicht im PC-Spielebereich erhalten bleibt und sich mit der Zeit sicher zum Standard mausern wird, dürfte immer klarer werden.
 
Ok, Schatten und Reflexionen sieht man auch, aber nicht dass ich dafür 100FPS weniger in Kauf nehmen würde. Ist so.

Das sichtbare RT würde vermutlich auch mehr oder weniger beim Zocken (wenn ich nicht gerade Standbilder ingame vergleiche) untergehen und kaum auffallen, die 100FPS weniger aber durchaus viel mehr.
Ich war RT auch eher skeptisch gegenüber. Als ich mir dann jedoch eine 3080 verbaut ubd die ersten Spiele in RT genießen konnte, war die Skepsis verschwunden.
Es macht schon einen großen Unterschied, auch im Getümmel bekommt man es jederzeit mit und es trägt einen guten Teil zur Immersion bei. Probleme RT zum laufen zu bringen hatte ich nie, ob nun mit dlss oder ohne.

Ich habe mir keine RT-fähige Karte gekauft, um damit zu prahlen. Ich liebe einfach nur schön detaillierte und technisch aufwändige Spiele.

Es ist mir auch völlig egal, ob meine Karte nun von AMD oder NVIDIA kommt, entscheidend für mich sind Technik und Effizienz und da hat das grüne Lager momentan die Nase vorn ;)
 
du meinst zum selben P/L Verhältnis wie AMD bei RX7000.

RT kann man mittlerweile in den Spielen relativ gut nutzen, auch mit AMD. Bei Nvidia geht halt mehr. Auch Nativ, ohne DLSS, oder gar Framegeneration.

Warum?
Da man 2023 definitiv bei Monitoren so einstufen sollten: fhd = low End, 1440p midrange, 4k high-end/Oberklasse. Und wenn man von high-end/Oberklasse PC spricht dann ist entsprechende Auflösung auch das Ziel.
Für 1440p reicht z.B. locker eine kleine alte rtx3060 (ti) um 100-140hz/fps zu erzeugen. Und bei den meisten Monitoren ist eh nei grob 140hz Schluss daher bringt eine rtx4080 nix wenn diese bei 1440p über 140fps packt im jeweiligen Spiel. Raytracing/esports würde ich mal aussen vor stellen. Raytracing ist nach wie vor eine neue Hardware fressende Technologie die man noch nicht als Standard bezeichnen kann. Wenige Spiele haben es und nur 1 GPU Hersteller bringt gerade akzeptabele Leistung in mittleren Auflösungen.
Dann erkläre mir, was sich da ändert.
In der Reihenfolge: RT aus, RT an, RT-Schatten an, RT-Reflexionen an, RT alles an, sonst höchste Details

Für dich gilt Bild 1 und Bild 2. Ich sehe da keinen Unterschied, da tut sich gar nichts. Die Sonnenschatten sind auch ein Witz. Einzig die Spiegelungen erzeugen einen ganz anderen optischen Eindruck, kosten aber auch am meisten Performance. Spiel selbstverständlich neu gestartet zwischen RT an und RT aus, funktioniert ja sonst nicht.

Zeige mir gerne Bilder, wo sich deiner Meinung nach etwas verändert. Bei mir sehe ich nur, dass der VRAM etwas mehr gefüllt wird, aber nicht, warum. Die drei Fps Unterschied schenken wir uns, die Szene ist dynamisch und alle NPCs bewegen sich, da ist es schwierig, exakt die gleiche Szene zu vergleichen.
So sehe ich es auch. Würde mir jemand die Bilder zeigen und ich müsste die aussuchen auf welchen RT an und aus ist...ich wüsste nicht ob ich die fibden würde. Die "refakten" Schatten und Reflexionen also die nicht Raytracing sehen schon lange auch mega aus.
Finde Raytracing gut aber auch nicht so wichtig.
 
Dann erkläre mir, was sich da ändert.
In der Reihenfolge: RT aus, RT an, RT-Schatten an, RT-Reflexionen an, RT alles an, sonst höchste Details

Für dich gilt Bild 1 und Bild 2. Ich sehe da keinen Unterschied, da tut sich gar nichts. Die Sonnenschatten sind auch ein Witz. Einzig die Spiegelungen erzeugen einen ganz anderen optischen Eindruck, kosten aber auch am meisten Performance. Spiel selbstverständlich neu gestartet zwischen RT an und RT aus, funktioniert ja sonst nicht.

Zeige mir gerne Bilder, wo sich deiner Meinung nach etwas verändert. Bei mir sehe ich nur, dass der VRAM etwas mehr gefüllt wird, aber nicht, warum. Die drei Fps Unterschied schenken wir uns, die Szene ist dynamisch und alle NPCs bewegen sich, da ist es schwierig, exakt die gleiche Szene zu vergleichen.
Rt aus sieht viel besser aus finde ich aber alle Rt Effekte an da freuen sich Nvidia und AMD das Lemminge die schnellsten Karten kaufen wegen den FPS, allgemein ist seitdem es Raytracing gibt grafisch nix nennenswertes mehr passiert. In 10 Jahren guck ich mal wieder rein ins Gaming, vielleicht sind sie dann eeeeendlich beim Fotorealismus angekommen,solange genieße ich lieber die Grafik vor der Haustür. :D
 
finde die beschattung oder beleuchtung sieht man deutlich besser als die spiegelung. bei witcher hab ich auch ganz gute fps mit spiegelung auf aus. und sonst rt an
Naja für mich sieht das halt einfach anderes beleuchtet aus als ob jemand eine Licht quelle dazu oder wegnimmt, aber das macht es für mich nicht optisch "besser". Nur anders Beleuchtet. Wie wenn ich die Tageszeit im Spiel verändere.
 
Ja wir wissen jetzt dass AMD in RT langsamer ist als NV.

Wir wissen aber genauso, dass man bei NV dafür auch ordentlich drauf zahlt. Ob es das Wert ist, muss jeder selbst wissen.
Mir ist es das nicht wert, ganz ehrlich. Und ohne RT kann man alles Games mit AMD HW auch sehr toll zocken und man muss sich nicht rumärgern mit "welches DLSS1,2,3 + FG brauch ich denn nun damit RT läuft und ich endlich mal zocken kann".
In der Zeit macht der AMD User eben RT aus, und hat schon Spaß am Game. Das geht also auch ohne RT, sogar sehr gut.

Weil die meisten, die ihr RT so vehement verteidigen, haben ja mindestens eine überteuerte Midrange RTX4070 oder eine 900€ teure Speicherkrüppel 4070ti und müssen DLSS3 FG nutzen, damit RT in ihrem geliebten CP2077 Pathtracing überhaupt gebacken bekommt...und dann geht erstmal der VRAM aus, wenn nicht heute, dann spätestens im nächsten AAA RT Titel. :D

Also hat jeder seine Vor- und Nachteile. Aber die wenigen Vorteile von NV, sind mir wie gesagt, keine hunderte oder sogar tausende (T)-Euros wert. Nur damit ich prahlen kann, und mir die überteuerte GPU rechtfertigen kann.

Da nehme ich lieber die AMD P/L Sieger in Raster und spiele entspannt ohne RT Krampf.

Das offensichtlichste zw dem "RT aus" - Bild und dem "RT alles an" - Bild sind die ~100FPS Unterschied :D

Ok, Schatten und Reflexionen sieht man auch, aber nicht dass ich dafür 100FPS weniger in Kauf nehmen würde. Ist so.

Das sichtbare RT würde vermutlich auch mehr oder weniger beim Zocken (wenn ich nicht gerade Standbilder ingame vergleiche) untergehen und kaum auffallen, die 100FPS weniger aber durchaus viel mehr.
Ordentlich drauf zahlt?

RTX4080 ab 1249€
und RX7900XTX ab 1169€, ohne tagesabhängige Rabattaktionen.

Das ist mal nichts... In der Midrange gibt es von AMD nichts aktuelles und bei Nvidia fällt dort auf, das es alte Leistung zum selben Preis gibt.

Der letzte Speicherkrüppel ist heute noch stärker, als die damalige Konkurrenz (3080 vs 6800Xt).

Also etwas weniger Nvidia hate und etwas mehr Objektivität ;)

Ich verteidige RT jederzeit, denn selbst meine 3060TI (immer noch) machte es schon möglich, RT zu nutzen.

Natürlich kann man ohne, aber dann kann man auch ohne die höchste Texturstufe, ohne Umgebungsverdeckung, ohne 4k, ohne... ohne... ohne...

Du hast schon richtig erkannt, das es hier und dort Vor- und Nachteile gibt, aber das sind weder hier noch da wenige, oder viele. Das ist schon ausgewogen.

So kann jeder für sich entscheiden.

Das AMD aber derzeit bei der aktuellen Generation, einen P/L Vorteil hat ist einfach mal nicht so. Das kommt immer nur, wenn einzelne nicht objektiv betrachten.

(Jetzt mal von plus, minus 50€ abgesehen)
Da man 2023 definitiv bei Monitoren so einstufen sollten: fhd = low End, 1440p midrange, 4k high-end/Oberklasse. Und wenn man von high-end/Oberklasse PC spricht dann ist entsprechende Auflösung auch das Ziel.
Das ist deine individuell Sichtweise und sicher kein allgemeiner Maßstab.
Für 1440p reicht z.B. locker eine kleine alte rtx3060 (ti) um 100-140hz/fps zu erzeugen.
Mit reduzierten Details.
Und bei den meisten Monitoren ist eh nei grob 140hz Schluss daher bringt eine rtx4080 nix
Doch alle Details.
wenn diese bei 1440p über 140fps packt im jeweiligen Spiel. Raytracing/esports würde ich mal aussen vor stellen
Würdest du, aber sicher nicht alle.
. Raytracing ist nach wie vor eine neue Hardware fressende Technologie die man noch nicht als Standard bezeichnen kann.
Naja RT schon, aber ja es ist noch ein frühes Stadium, weiß noch als Umgebungsverdeckung 66% Fps gekostet hat, ganz am Anfang und das hat man oft noch weniger gesehen.
Wenige Spiele haben es und nur 1 GPU Hersteller bringt gerade akzeptabele Leistung in mittleren Auflösungen.
In allen Auflösungen. Auch AMD bringt relativ gute Performance so das man das gut nutzen kann, aber halt nicht auf Augenhöhe.
So sehe ich es auch. Würde mir jemand die Bilder zeigen und ich müsste die aussuchen auf welchen RT an und aus ist...ich wüsste nicht ob ich die fibden würde.
Da gibt es Beispiele bei denen man es gut sieht und dann wieder nicht. Im zweifel das realistischere ;) (außer bei den ganzen Spiegelungen, die schreien manchmal nach overshoot)
Die "refakten" Schatten und Reflexionen also die nicht Raytracing sehen schon lange auch mega aus.
Sehen je nach Aufwand auch gut aus. Das ist so, aber nie so real, wie mit RT möglich.
Finde Raytracing gut aber auch nicht so wichtig.
Da geh ich mit, bzw. ich finde RT schon gut, aber es geht auch ohne!
 
Zuletzt bearbeitet:
Naja für mich sieht das halt einfach anderes beleuchtet aus als ob jemand eine Licht quelle dazu oder wegnimmt, aber das macht es für mich nicht optisch "besser". Nur anders Beleuchtet. Wie wenn ich die Tageszeit im Spiel verändere.
nein ich meine siehe mal witcher wo dann jeder buschen extra schatten wirft das macht schon einiges aus
 
Ich brauche das aktuelle RT nicht und ohne haben die Karten mehr als genug Leistung und vor allem Speicher für die nächsten Jahre. ;)
Du brauchst auch kein 4K oder AA. Streng genommen brauchst du auch keinen Gaming PC.
und nur/ausschließlich beim RT (was momentan hoch gehypt wird) liegt sie ungefähr gleich auf.
Nein, ganz und gar nicht. In RT ist eine 3070 schneller als eine 7900XTX:
Man ist auf dem Niveau einer 3060 TI. Hybride RT Titel spiegeln nicht ansatzweise die RT Leistung wieder.
AMD hinkt also nicht nur eine Generation hinterher, sondern erreicht nicht mal die Leistung einer Mittelklassekarte der letzten Generation. Das ist peinlich.
 
Zuletzt bearbeitet:
Habe ja auch weniger bezahlt dafür... also ich finds okay.
Zusätzlich hat man natürlich massiv mehr nicht Raytracing Performance.
Games die ich spiele profitieren davon auch: Overwatch, Warzone, Anno, Flight Simulator z.B.

Also ja ich kann auch mit der Raytracing Grafikfirma auf Platz 2 leben - bitter ist das nicht.
Absolut massive 22% in UHD :D

1681801640910.png


Der Abstand zwischen 3090 Ti und 7900 XTX ist kleiner als der zwischen 7900 XTX und 4090.

Das ist doch nicht massiv ^^
 
Ordentlich drauf zahlt?

RTX4080 ab 1249€
und RX7900XTX ab 1169€, ohne tagesabhängige Rabattaktionen.

Das ist mal nichts... In der Midrange gibt es von AMD nichts aktuelles und bei Nvidia fällt dort auf, das es alte Leistung zum selben Preis gibt.

Der letzte Speicherkrüppel ist heute noch stärker, als die damalige Konkurrenz (3080 vs 6800Xt).

Also etwas weniger Nvidia hate und etwas mehr Objektivität ;)

Ich verteidige RT jederzeit, denn selbst meine 3060TI (immer noch) machte es schon möglich, RT zu nutzen.

Natürlich kann man ohne, aber dann kann man auch ohne die höchste Texturstufe, ohne Umgebungsverdeckung, ohne 4k, ohne... ohne... ohne...

Du hast schon richtig erkannt, das es hier und dort Vor- und Nachteile gibt, aber das sind weder hier noch da wenige, oder viele. Das ist schon ausgewogen.

So kann jeder für sich entscheiden.

Das AMD aber derzeit bei der aktuellen Generation, einen P/L Vorteil hat ist einfach mal nicht so. Das kommt immer nur, wenn einzelne nicht objektiv betrachten.

(Jetzt mal von plus, minus 50€ abgesehen)

Das ist deine individuell Sichtweise und sicher kein allgemeiner Maßstab.

Mit reduzierten Details.

Doch alle Details.

Würdest du, aber sicher nicht alle.

Naja RT schon, aber ja es ist noch ein frühes Stadium, weiß noch als Umgebungsverdeckung 66% Fps gekostet hat, ganz am Anfang und das hat man oft noch weniger gesehen.

In allen Auflösungen. Auch AMD bringt relativ gute Performance so das man das gut nutzen kann, aber halt nicht auf Augenhöhe.

Da gibt es Beispiele bei denen man es gut sieht und dann wieder nicht. Im zweifel das realistischere ;) (außer bei den ganzen Spiegelungen, die schreien manchmal nach overshoot)

Sehen je nach Aufwand auch gut aus. Das ist so, aber nie so real, wie mit RT möglich.

Da geh ich mit, bzw. ich finde RT schon gut, aber es geht auch ohne!
Ich sag mal so mit meiner gtx970 hab ich damals in fhd spiele wie Bf4 gezockt. Mit der gtx1070 dann bf1/5 in 1440p. Dann kam ein 5120x1440 Monitor ran und eine rtx3060ti. Dort packt die zumindest in hunt showdown 75-90 fps in hohen settings. Nur Schatten und anti aliasing habnich reduziert da ich dies für nicht wichtig erachte. Für mich ganz persönlich ist daher jede Karte ab rtx4070 definitiv eine 4k Karte alles andere würde ich lächerlich finden. Die packt so ziemlich jedes gut optimierte spiel in 4k in hohen (vielleicht nicht ultra) settings >60fps. Schlecht optimierten/programmierten Spiele muss man natürlich etwas vernachlässigen. Spiele wie zb. Star Citizen die einfach alpha und nicht mehr als spielbare Techdemos sind nicht von Relevanz.
Aber natürlich hast du recht, das ist meine persönliche Sichtweise. Geht ja auch nicht anders sonst würde ich schreiben "der und der hat die Sichtweise". Alles was irgendwo geschrieben steht ist immer rein subjektiv die Ansicht des Schreibers. Es gibt keine "Objektive Sicht/Meinung". Das ist der größte Denkfehler der Menschheit. Alles ist relativ.
 
Raytracing.....das Feature das irgendwie nur noch die Marketingabteilungen interessiert. War in Cyberpunk ganz nett und dann?
Daran geilen sich echt nur noch Nerds auf die ihre Speccs in Signaturen knallen oder bei jedem Thema sich verbiegen sie zu nennen. Ziemlich peinlich.
Ich finde Raytracing/Pathtracing ebenfalls sehr interessant und nett anzuschaun, wenn man es denn im Game vertieft überhaupt bemerkt:D

Allerdings kann ich auch ohne in Spielen leben und mal schaun, wie es in ein paar Jahren performt. Gut Ding wollte schon immer Weile haben...

Gruß
 
Absolut massive 22% in UHD :D

Anhang anzeigen 1424020

Der Abstand zwischen 3090 Ti und 7900 XTX ist kleiner als der zwischen 7900 XTX und 4090.

Das ist doch nicht massiv ^^
1681805275065.png



Interessant das sich die eigenen Bechmarks unterscheiden, es ist durchaus noch Spielraum nach oben, je nach dem welches Game im Overall ist. Und ich bin halt auch in Call of Duty unterwegs.
Wie gut war die 3090TI da? :D
 
Zurück