News Meilenstein: Nvidia RTX jetzt in 500 Spielen und Anwendungen

Das war auch nur auf mich bezogen. Natürlich ist das auch schon extrem... Nur eben nicht auf RT ausgerichtet.

Für mich wäre das ein Schritt, um einerseits die Konkurrenz von morgen zu stärken, wenn auch das nicht meine Aufgabe wäre.

Dazu habe ich auch AMD Aktien, also kann man schon machen. ;)

Und damit hätte ich selbst für 4k, ohne RT immer eine starke Kombi. Auch in zwei Jahren.
Aber die (keine) HighEnd GPU Gerüchte dämpfen mich auch... Denke das AMD spätestens 2027 einen raus haut, spätestens dann könnte es wieder eine AMD werden.

Aber mein Kopf ist ein abenteuerlicher Spielplatz, dachte schon ich hole mir demnächst mal lieber einen Laptop mit einer 4080, oder gar 4090... Zwar nicht mehr Leistung als jetzt, aber das portable und die Effizienz sind schon verlockend für mich.

Die Tage noch mal in 1080p und 1440p gezockt. So unfassbar groß finde ich den Unterschied gar nicht.
1080p war auch in 1440p gerechnet und das mit nativ 1440p verglichen.

Für 1080p, ist man mit 400-450€ doch auch gut dabei.
Mit der 7900XTX hat man nicht "ohne" RT.... wird ja immer so getan als gäbe es das nur bei Nvidia. Die XTX performt mit RT ja immerhin auf 3090-Niveau.... und das war bis vor einer Weile ja auch nicht das Schlechteste :-).

Selbst mit meiner 7800XT kann ich RT ganz passabel nutzen. Wobei ich dennoch da nicht so einen Wert drauf lege.

Ich persönlich denke, den meisten würde es im Spiel weniger auffallen ob es an oder aus ist. Klar auf den ersten Blick sieht es gut aus... aber wenn ein Spiel fesselt und man sich in einer Welt bewegt, ist das doch eher Nebensache . Wichtiger sind mir da zumindest saubere und schöne Texturen, saubere Kanten, kein Flimmern etc. Ein gutes Spiel macht mir auch ohne RT Spaß. Darauf kommt es doch letztendlich an. ... Meine Meinung
 
Die Treiberunterstützung von Nvidia ist schon verdammt gut und beispiellos. Allerdings wird sich halt noch zeigen müssen, wie lange sie die GPU-Generationen zurück mit RX unterstützen...das ist ja immer des Pudel's Kern ;)
 
DLSS ist eine der beste Erfindungen im Bereich der Computer Grafik. Echt ein Bomben Feature!

Hat einer von euch eigentlich irgendwo gelesen dass DSR von Nvidia eingestellt worden ist? Ich finde das Feature nicht mehr im Treiber.
 
Ich finde RTX kann je nach Umsetzung schon eine wirkliche Bereicherung darstellen. Die nötige HW-Power vorausgesetzt.

Aktuell habe ich mit A Plague Tale: Requiem begonnen welches "nur" Raytracing für Schatten unterstützt. Hier habe ich zum ersten Mal RTX deaktiviert, weil es meiner Meinung nach viel zu viele Ressourcen frisst. Meine FPS werden fast halbiert und zudem gibt es extrem nervigen Nachladeruckler, egal ob in 1440p oder 4k, obwohl genug Speicher da ist und die Hardware das auch packen sollte.

Bei Cyberpunk konnte ich bis v2.02 RTX mit Psycho auf Anschlag drehen und das lief über viele Stunden hinweg problemlos flüssig und ruckelfrei.

Sobald Raytracing für Schatten deaktiviert ist sind die Nachladeruckler komplett weg und das Spiel läuft wie ein heißes Messer durchs Butter und sieht trotzdem bombastisch aus. Ich konnte ehrlich gesagt auch keine so großen Unterschiede feststellen, die den Hardwarehunger dieses Features in irgendeiner Form gerechtfertigt hätten.

Allerdings ist auch Letzteres von Spiel zu Spiel verschieden. In Cyberpunk zum Beispiel finde ich die RTX Effekte sehr gelungen und konnte mich kaum daran sattsehen.
 
Mit der 7900XTX hat man nicht "ohne" RT.... wird ja immer so getan als gäbe es das nur bei Nvidia. Die XTX performt mit RT ja immerhin auf 3090-Niveau.... und das war bis vor einer Weile ja auch nicht das Schlechteste :-).
Zwei Gedanken dazu.
1. Wenn RT intensiv genutzt wird, fällt eine 7900XTX unter RTX3090 Niveau zurück und das ist für mich ein zu großer Rückschritt. Daher formuliere ich das so... Ich meine aber
2. damit nur die hauptsächliche Ausrichtung. Mit der 7900XTX lege ich mehr wert auf 4K Rasterleistung und weniger auf RT. (mit der 4070ti habe ich halt mehr Wert auf RT in meiner bisherigen Auflösung 1440p gelegt)

Damit sage ich nicht, das man mit der 7900XTX nicht RT nutzen kann. Gibt gerade jetzt in der Zwischenzeit, Übergangszeit einige Spiele mit nur Soft RT.

Mir persönlich wäre die 7900XTX in RT zu lahm, wenn ich mir die RT Schwergewichte anschaue. (Das ist nur meine ganz persönliche Sicht), daher wäre es für mich die Entscheidung erstmal auf RT so weit wie nötig zu verzichten, bzw. den Stellenwert nach unten zu schrauben.
Selbst mit meiner 7800XT kann ich RT ganz passabel nutzen. Wobei ich dennoch da nicht so einen Wert drauf lege.

Ich persönlich denke, den meisten würde es im Spiel weniger auffallen ob es an oder aus ist.
Bei mir ist es so, zum Beispiel in AW2:
Natürlich kann man auch ohne zocken, aber unterschwellig verleiht RT der Szene so viel mehr... Das ist für michnicht auf den ersten Blick, sondern eher der Eindruck der Szene. Gibt einiges das ich im direkten an / aus Vergleich nicht direkt benennen kann, aber das ganze Bild wirkt mit RT einfach deutlich glaubwürdiger.
Klar auf den ersten Blick sieht es gut aus... aber wenn ein Spiel fesselt und man sich in einer Welt bewegt, ist das doch eher Nebensache . Wichtiger sind mir da zumindest saubere und schöne Texturen, saubere Kanten, kein Flimmern etc. Ein gutes Spiel macht mir auch ohne RT Spaß. Darauf kommt es doch letztendlich an. ... Meine Meinung

Ja fesselnde Spiele sind immer gern genommen und nur weil man über RT redet, bedeutet das nicht, dass man das nicht sowieso haben will.

Ach ja,

Ultra zu Mittel/Hoch im Mix macht für mich keinen größeren Unterschied, als RT an / aus.
Ein gutes Spiel macht auch heute noch in 1080p Spaß.
Hast du die Child Prozesse/Dienste welche Epic aufmacht auch überprüft?
Ich habe den TRaffic verglichen. Weil die Rede von Daten ins Netz, aus dem Netz gesagt wurde.
 
Zuletzt bearbeitet:
Oh, das heißt du zweifelst die Benchmarks von unserer PCGH-Crew an?
Hier mal aus dem Raytracingindex Overall, also über alle Auflösungen...
1000003952.png
 
Ich hab von Daten nach China gesprochen.
Und die müssen doch durchs Netz, sonnst kommen die doch nie an.
Oh, das heißt du zweifelst die Benchmarks von unserer PCGH-Crew an?
Hier mal aus dem Raytracingindex Overall, also über alle Auflösungen...
Anhang anzeigen 1445620
Das ist eine Durchschnittsleistung, über mehrere Spiele, die mal RT intensiver, wie auch weniger RT intensiv sind.
In den Spielen, die RT intensiver sind, kann man schon sehen, das die RT Leistung der 7900XTX unter der 3090 liegt.

Erst unter Zuhilfenahme, der weniger intensiven RT Spiele, kann eine 7900XTX im Schnitt das 3090(TI) Niveau erreichen.
Ein gutes Beispiel ist dazu auch Alan Wake 2.
Hier ist eine 4080 wenn ich mich richtig erinnere um 138% schneller, oder waren es gar 238%...


Bei PCGH sind es in 1080p mit maximalen RT, für die 4080 ein Plus von 127%. (Also mehr als doppelt so schnell)
Die 4070 ist schon 31% schneller, als die XTX.
Die 3090TI ist 40% schneller.

Das spiegelt die RT leistung wieder.

Dabei darf man nicht vergessen, das bisher nur wenige Titel so RT intensiv sind.


Demnach wäre für mich die richtige Aussage zu dem Thema,

auch wenn die isolierte RT Leistung der 7900XTX deutlich unter der RTX3090 liegt, ist die 7900XTX in vielen noch aktuellen Spielen für die da verfügbaren RT Berechnungen nicht weniger gut geeignet, als die 3090ti, oder die 4070ti. Da viele Spiele nicht sonderlich RT intensiv sind.
 
Zuletzt bearbeitet:
Siehe Beitrag von Cleriker bzw, PCGH :-)
Kann dort nicht erkennen, dass den Radeons die RT Fähigkeit abgesprochen wird.

Oh, das heißt du zweifelst die Benchmarks von unserer PCGH-Crew an?
Hier mal aus dem Raytracingindex Overall, also über alle Auflösungen...
Nö, tu ich nicht. Die RT Leistung der RDNA3 Karten liegt ein gutes Stück unterhalb der 3090.
Der Index zeigt u.a. Spiele, die minimalen Gebrauch von RT machen. Logischerweise knickt AMD dort nicht so stark ein, sobald du dir aber Spiele anschaust, die RT intensiv nutzen (Pathtracing), bricht AMD sowas von weg:
Selbst die 2080 TI zieht hier vorbei.

Hier ein anderes Beispiel:
Screenshot 2023-12-06 114331.jpg


In den Benchmarks von PCGH und co. fällt das bei overall Index nicht so stark auf, weil AMD sich mit sowas wie Far Cry den Poppes rettet, aber FC nutzt RT nur in homöopathischen Mengen. Je mehr heavy RT Titel releaset werden, desto weiter fällt AMD im Ranking.
Man kann also sagen, dass die reine RT Leistung von AMD ein gutes Stück unterhalb der 3090 TI liegt.
 
Zuletzt bearbeitet:
Kann dort nicht erkennen, dass den Radeons die RT Fähigkeit abgesprochen wird.


Nö, tu ich nicht. Die RT Leistung der RDNA3 Karten liegt ein gutes Stück unterhalb der 3090.
Der Index zeigt u.a. Spiele, die minimalen Gebrauch von RT machen. Logischerweise knickt AMD dort nicht so stark ein, sobald du dir aber Spiele anschaust, die RT intensiv nutzen (Pathtracing), bricht AMD sowas von weg:
Selbst die 2080 TI zieht hier vorbei.

Hier ein anderes Beispiel:


In den Benchmarks von PCGH und co. fällt das bei overall Index nicht so stark auf, weil AMD sich mit sowas wie Far Cry den Poppes rettet, aber FC nutzt RT nur in homöopathischen Mengen. Je mehr heavy RT Titel releaset werden, desto weiter fällt AMD im Ranking.
Man kann also sagen, dass die reine RT Leistung von AMD ein gutes Stück unterhalb der 3090 TI liegt.
Sehe ich genau so.
 
Okay, ihr habt weder "die reine Raytracingperformance" geschrieben, geschweige denn Pathtracing. Bisher war Pathtracing in den meisten, wenn nicht allen Titeln und Tests hier separat betrachtet worden und nicht gleich Raytracing. Also vom Sprachgebrauch her.
Jetzt wollt ihr aber genau das.
Vielleicht drückt ihr euch demnächst etwas präziser aus, dann kommt es nicht zu solchen Verständnisproblemen.
 
Okay, ihr habt weder "die reine Raytracingperformance" geschrieben, geschweige denn Pathtracing.
Ich sprache war von RT und nicht von einem Spielparcour:
Die XTX performt mit RT ja immerhin auf 3090-Niveau....
AMD performt bei den meisten Spielen nicht so akzeptabel, weil ihre RT Leistung so gut ist, sondern weil der Großteil dort Rasterleistung benötigt und das AMD den Ar*** rettet.
Benötigt ein Spiel aber viel RT Leistung, guckst du als AMDler in die Röhre, wenn FSR3 nicht vorhanden ist.

Bisher war Pathtracing in den meisten, wenn nicht allen Titeln und Tests hier separat betrachtet worden und nicht gleich Raytracing. Also vom Sprachgebrauch her.
Pathtracing war ein Beispiel. AMD kackt auch ab, wenn Spiele grundsätzlich viel RT Effekte nutzen, unabhängig davon, ob es PT ist oder nicht.
Bei Desordre ist es ja auch kein Path Tracing und trotzdem ist die 7900 XTX hier nicht ebenbürtig.
Warum willst du das nicht wahrhaben?
 
Zuletzt bearbeitet:
Wo steht denn, dass ich das nicht wahrhaben will? Ich kaufe immer das für den Anwendungszweck passende Produkt, egal was für ein Name darauf prangt. Warum sitzt wohl im Wohnzimmer-PC (also Minecraft) eine 4080 statt einer 7900XTX? Eben weil es Pathtracing nutzt und AMD da hinten an steht.
Ich weiß sehr wohl was welchem Hersteller gut liegt. Nur tu ich mich schwer zu erraten was jeder einzelne hier gerade meint.

Spiele wie AW2 sind aktuell noch die Ausnahme, der Großteil nutzt RT noch in geringerem Umfang. Das kann man ja nicht einfach ignorieren. Was Spiele betrifft, aktuell, zeichnet der Parcours von PCGH einen super Querschnitt ab und aus dem geht halt hervor, dass die RT Leistung seitens AMD noch! ausreichend ist.

Nur hatte ich zum Zeitpunkt des Posts nicht verstanden (weil ihr es auch nicht so geschrieben habt), dass es euch nicht allgemein um RT-Spiele-Performance dabei geht (also alle Spiele), sondern um cherrypicking der ausschließlich intensiven RT Spiele.
Würden wir über den Markt von in zwei Jahren sprechen, wäre ich der gleichen Meinung wie ihr, nur ist das eben Zukunftsmusik.

Nehmen wir mal den aktuellen Test zu Avatar. Außer der 4090 mit DLSS und FG ist keine Karte am Markt fähig das Spiel mit 60 min fps wiederzugeben. Demnach sind sowohl meine 4080, als auch meine 7900XTX untauglich für das Spiel, ganz egal ob eine von beiden die RT-Last besser stemmt als die andere.
Wenn man dann bedenkt, dass die meisten 4090 User in den Testthreads gern von 120fps sprechen, dann ist auch die 4090 untauglich und demnach zwar stärker, aber ebenfalls in der gleichen Schublade wie alle anderen Karten. Nämlich in der "packt die RT-Last nicht (unter den gewünschten Voraussetzungen)" Schublade.

Das Spiel zeigt super wieviel mehr Rays die 4000er verfolgen können, aber eben auch, dass sie dennoch nicht taugen. Das wiederum macht mir Spaß, denn dann hat man wie bei Crysis damals dieses schafft die nächste Karte es Gefühl. Ich sehe da keine Gewinner oder Verlierer, nur Karten mit unterschiedlichen Balken, auf Grund von unterschiedlichen Schwerpunkten.
 
Ich hatte mir auch für Minecraft eine Geforce geholt, aber nach wenigen Wochen habe ich Minecraft wieder ohne RTX gezockt, weil es einfach keinen Mehrwert hat. Klar kann man durch die Demos von NV laufen und es sieht nett aus, aber im echten Spiel stört es eher.
 
Zurück