Raytracing-Leistungsindex 2021: 12 Grafikkarten in 10 Spielen und 4 Auflösungen getestet - plus DLSS

Was genau machst Du nicht an einem Spiel fest? Eben hast Du doch das Beispiel aus einem Spiel gebracht? :huh:
Ja, aber ich mache mich deswegen nicht gemein damit. Es wird hunderte oder mehr Spiele geben, die mich widerlegen. Und vielleicht genau soviele, die es nicht tun. Trotzdem: Ich bevorzuge weder AMD noch nVidia.
 
nvidia entfernt sich prozentuel. und da ist dlss noch nichtmal dabei hier ausser in einer extra spalte

Nein, es ist genau umgekehrt, je stärker die RT Last wird desto größer wird der Abstand. Kann man wunderbar an Minecraft sehen, dem einzigen vollen Pathtracing Titel im Parcour.

Aber... aber... das ist doch nur, weil wegen Nvidia sponsered und so. ^^

Das genau Gegenteil, je höher die RT Last, desto größer wird der Abstand zu RDNA2.

Hat irgendjemand von Euch meinen Beitrag bzw. den ART-Mark Test von PCGH richtig gelesen? Das ist ein reiner RT-Test und AMD holt mit steigender RT-Last auf in Richtung Ampere und setzt sich von Turing ab:

ART-Mark Benchmark

Ich sehe Ampere auch uneinholbar vorne in Sachen RT-Leistung, was ich auch geschrieben hatte. Trotzdem sind viele RT-Implementationen aus völlig logischen Gründen wohl in Richtung RTX optimiert bzw. wurden einfach mit Hilfe dieser Hardware entwickelt. Einfach weil Nvidia deutlich früher RTRT fähige GPUs angeboten hatte. Daran ist auch nichts schlimmes und AMD muss eben nachziehen. Wo ich etwas von "Nvidia sponsered" geschrieben haben soll, erschließt sich mir nicht...

Aus völlig absurden Negativbeispielen wie Cyberpunk dann aber ein Urteil über die allgemeine Leistungsfähigkeit von RDNA 2 zu bilden, ist halt einfach gewagt bis daneben. Genauso wie ich die 6900xt nicht aufgrund von Dirt 5 oder WOW in 1080p zum absoluten RT-Monster ernennen würde.
 
Zuletzt bearbeitet:
Hat irgendjemand von Euch meinen Beitrag bzw. den ART-Mark Test von PCGH richtig gelesen? Das ist ein reiner RT-Test und AMD holt mit steigender RT-Last auf in Richtung Ampere und setzt sich von Turing ab [...]
Mir scheint eher du hast dich "verguckt" oder dort etwas missverstanden.

RTX 3090 zu RX 6900 XT
RT High: +128 %
RT Abs.Overkill: +105 %

Da gibt es keinen nennenswerten Leistungszugewinn und Ampere bleibt hier mehr als doppelt so schnell. Und wenn man den Vergleich noch etwas schräger haben will:

RTX 3060 Ti zu RX 6900 XT
RT High: +23 %
RT Abs.Overkill: +22 %

Hier bleibt AMDs Topmodell im gleichen Maße langsamer als das Mittelklassemodell der Konkurrenz.
Was du hier zu erklären versuchtest entbehrt jedweder Substanz. Der "Benchmark" zeigt eher sehr drastisch (aufgrund der extrem überzogenen RT-Last) wie schlecht RDNA2 hier abschneidet.


Unabhängig davon ist aber auch die Frage ob der ART-Mark ein guter/sinnvoller Vergleich bzgl. der Raytracing-Funktionalität ist. Der Autor erklärt leider keine Details, sodass nur zu vermuten bleibt, dass hier grundlegend die Funktionalität der UE4 genutzt wird und die ist selbstredend implementationstechnisch nicht auf eine derart extreme Nutzung ausgelegt und daher bzgl. zukünftigen Raytracingtiteln wohl eher nicht repräsentativ, denn bei einem derart hohen RT-Anteil müsste man die Engine sinnvollerweise umstrukturieren.
Bereits das "No RT Extreme"-Setting im ART-Mark zeigt eine deutlich Schieflage, denn hier konkurriert eine RX 6900 XT gerade mal mit Mühe mit einer kleinen RTX 3060 Ti, was eigentlich nicht sein sollte.
Die UE4 ist grundlegend eine Rasterizer-Engine die (relativ spät) um zusätzliche RT-Funktionalität erweitert wurde, wobei das RT hier optional und im überschaubarem Rahmen zur grafischen Aufwertung dienen soll. Bei einer derartigen Extremnutzung wird man voraussichtlich mit vielerlei Ineffizienzen in der Engine kämpfen müssen. Der "Benchmark" ist sicherlich nett und schafft es mit einem synthetischen Workload die Hardware an ihre Grenzen zu bringen, wird aber keinesfalls repräsentativ für die allgemeine Leistungsfähigkeit oder aber etwa zukünftige, echte Titel sein.

Der mit Abstand beste Kandidat dürfte derzeit die Metro Exodus Enhanced Edition sein, deren Engine explizit auf RT ausgelegt und die in diesem Zuge um unnötigen Rasterizer-Balast im Beleuchtungssystem befreit wurde. Hier zeigt sich auch ein weitaus stimmigeres Bild bzgl. der Leistung von RDNA2.

Ultra Quality + Ultra Raytracing (PCGH), RTX 3090 zu RX 6900 XT
FullHD: +33 %
QHD: +40 %
4K: +51 %

Der Unterschied zwischen Ampere und RDNA2 ist nun nicht mehr ganz so groß.
Der Abfall in (Richtung) 4K ist schlicht auf den beschränkten Infinity Cache zurückzuführen, der mit zunehmender Auflösung eine geringere Hit Rate aufweist, sodass die Speicherbandbreite leidet, da immer mehr Speicherzugriffe bis auf das langsame GDDR6 durchgereicht werden müssen.
Die RTX 3060 Ti rangiert hier deutlich unterhalb der RX 6900 XT. Beides sind erwartbare und plausible Beobachtungen und sicherlich plausibler, als dass Ampere hier mehr als doppelt so schnell sein soll und dass selbst eine Mittelklassekarte AMDs Topmodell in den Boden rendert.

Da ME EE auch für die NextGen-Konsolen mit den erweiterten Features erschienen ist, kann man hier nicht einmal nennenswert annehmen, dass hier RDNA2 optimierungstechnisch vernachlässigt wurde. Auch auf den Konsolen wird die stark überarbeitete RT-Engine genutzt und ebenso mitsamt einer deutlich erhöhten Bounce-Zahl. Lediglich advanced raytraced reflections fehlen hier, verschmerzbarerweise, da in der Natur nicht allzu viel spiegelt und die überwiegend für Wasserflächen angewendet werden und letzten Endes sind die Leistungsreserven der Konsolen deutlich beschränkter.
Unterm Strich könnte man wohl bestenfalls einwerfen, dass das ein erster derart hochgradig spezialisierter und angepasster Wurf für die NextGen-Konsolen und damit RDNA2 ist, darüber hinaus erscheint es jedoch eher abwegig hier mehr anzunehmen, d. h. ich würde mit Blick auf diese Engine-Modifikation annehmen, dass die derzeit am ehesten einen halbwegs verwertbaren Blick auf die RT-Zukunft geben dürfte.

 
Zuletzt bearbeitet:
Die mit inbegriffenen niedrigen Auflösungen retten AMD in der Gesamtrangliste wirklich den Arsch.
Abgesehen davon wird das Ergebnis noch mieser, wenn man bei dem Vergleich versteht, dass die 6900 XT in 4K mit RT grob auf 2080 Ti Level ist, bei deutlich höherer Rasterleistung der 6900 XT (die fast immer relevant ist da reine RT Spiele eher nicht so häufig sind), sprich auch die erste RT Gen Core ist effektiv klar überlegen.
AMD sollte in ihrer nächsten Generation dringend auch dedizierte Einheiten verbauen.
Wenn einem RT auch nur irgendetwas bedeutet ist AMD aktuell einfach keine sinnvolle Wahl.
 
Zuletzt bearbeitet:
Mir scheint eher du hast dich "verguckt" oder dort etwas missverstanden.

RTX 3090 zu RX 6900 XT
RT High: +128 %
RT Abs.Overkill: +105 %

Da gibt es keinen nennenswerten Leistungszugewinn und Ampere bleibt hier mehr als doppelt so schnell.
Was heißt keinen nennenswerten Leistungsgewinn? in allen desaströsen Beispielen verliert AMD massiv mit steigender Last, hier gewinnt man mit steigender Last selbst bei diesen extremen Bedingungen an Boden. Und ja, ich schrieb dass Ampere uneinholbar in Front liegt. In Anbetracht des Verhaltens in Minecraft z.B. ist das dennoch ein erwähnenswerter Unterschied.

Und wenn man den Vergleich noch etwas schräger haben will:

RTX 3060 Ti zu RX 6900 XT
RT High: +23 %
RT Abs.Overkill: +22 %

Hier bleibt AMDs Topmodell im gleichen Maße langsamer als das Mittelklassemodell der Konkurrenz.
Was du hier zu erklären versuchtest entbehrt jedweder Substanz. Der "Benchmark" zeigt eher sehr drastisch (aufgrund der extrem überzogenen RT-Last) wie schlecht RDNA2 hier abschneidet.
Die 3060Ti Werte sind etwas kurios: bei den Min. FPS holt die 6900XT ebenfalls auf und der Abstand zwischen 3090 und 3060Ti bleibt relativ konstant. Bei den Average Werten holt die 3060Ti da plötzlich auch zur 3090 auf...

Den Vergleich zu Turing hast du auch versehentlich ganz unter den Teppich gekehrt? Hier kann sich die 6900XT mit steigender spürbar von der 2080Ti absetzen (von ~ Gleichstand zu +32% Avg. / +40% Min.) Die 6700 XT verkürzt den Vorsprung der 2080Ti trotz noch kleinerem Infinity-Cache von 80% auf 27%.

Beim Metro Beispiel gebe ich Dir recht, das bildet die Verhältnisse mit steigendem Abstand bei höherer Pixellast recht gut wieder.

Man könnte natürlich noch Resident Evil (natürlich auch speziell auf RDNA2 hin ausgelegt):

FullHD: +23%
QHD: +20%
4K: +15 %

oder Watch Dogs (keine AMD Partnerschaft):

FullHD: +22%
QHD: +26%
4K: +35 %

betrachten. Für mich sind diese Beispiele für zukünftige Spiele aussagekräftiger als ein Minecraft RTX oder ein Full-HD Dirt 5.
 
Schöner Test. Zeigt, wie stark Ampere im RT ist und auf DLSS wird auch hingewiesen. Genau so muss es sein!

1626042638865.png
 
Was heißt keinen nennenswerten Leistungsgewinn? in allen desaströsen Beispielen verliert AMD massiv mit steigender Last, hier gewinnt man mit steigender Last selbst bei diesen extremen Bedingungen an Boden. Und ja, ich schrieb dass Ampere uneinholbar in Front liegt. In Anbetracht des Verhaltens in Minecraft z.B. ist das dennoch ein erwähnenswerter Unterschied.


Die 3060Ti Werte sind etwas kurios: bei den Min. FPS holt die 6900XT ebenfalls auf und der Abstand zwischen 3090 und 3060Ti bleibt relativ konstant. Bei den Average Werten holt die 3060Ti da plötzlich auch zur 3090 auf...

Den Vergleich zu Turing hast du auch versehentlich ganz unter den Teppich gekehrt? Hier kann sich die 6900XT mit steigender spürbar von der 2080Ti absetzen (von ~ Gleichstand zu +32% Avg. / +40% Min.) Die 6700 XT verkürzt den Vorsprung der 2080Ti trotz noch kleinerem Infinity-Cache von 80% auf 27%.

Beim Metro Beispiel gebe ich Dir recht, das bildet die Verhältnisse mit steigendem Abstand bei höherer Pixellast recht gut wieder.

Man könnte natürlich noch Resident Evil (natürlich auch speziell auf RDNA2 hin ausgelegt):

FullHD: +23%
QHD: +20%
4K: +15 %

oder Watch Dogs (keine AMD Partnerschaft):

FullHD: +22%
QHD: +26%
4K: +35 %

betrachten. Für mich sind diese Beispiele für zukünftige Spiele aussagekräftiger als ein Minecraft RTX oder ein Full-HD Dirt 5.
Zum einen hast Du den ART-Mark auf den Tisch geworfen und auf den Bezog ich mich auch und im dem deklassiert Ampere RNDA2 regelrecht. Da sind die paar Prozentpunkte weniger Differenz in RT Absolute Overkill nur Augenwischerei. Letzten Endes bleibt das jedoch ein synthetischer Benchmark, auch wenn der die UE4 nutzt, weil in der Art absehbar keine Engine massives RT prozessieren wird, taugt also eher weniger für Ableitungsversuche.
Wie schon erklärt Metro dürfte hier den verlässlichsten Ausblick liefern, weil die Engine weitaus stärker auf RT ausgelegt ist als alles andere, also auch als ResEvil oder WDLegion. Bei letzteren handelt es sich schlicht um klassische Rasterizer-Engines, bei denen RT-Funktionalität aufgesetzt wurde, dagegen ME EE geht da schon ein Stück drüber hinaus und berücksichtigt zudem auch explizit die RDNA2-Architektur, da die Version auch für die Konsolen ausgelegt wurde.
 
Zum einen hast Du den ART-Mark auf den Tisch geworfen und auf den Bezog ich mich auch und im dem deklassiert Ampere RNDA2 regelrecht. Da sind die paar Prozentpunkte weniger Differenz in RT Absolute Overkill nur Augenwischerei. Letzten Endes bleibt das jedoch ein synthetischer Benchmark, auch wenn der die UE4 nutzt, weil in der Art absehbar keine Engine massives RT prozessieren wird, taugt also eher weniger für Ableitungsversuche.
Wie schon erklärt Metro dürfte hier den verlässlichsten Ausblick liefern, weil die Engine weitaus stärker auf RT ausgelegt ist als alles andere, also auch als ResEvil oder WDLegion. Bei letzteren handelt es sich schlicht um klassische Rasterizer-Engines, bei denen RT-Funktionalität aufgesetzt wurde, dagegen ME EE geht da schon ein Stück drüber hinaus und berücksichtigt zudem auch explizit die RDNA2-Architektur, da die Version auch für die Konsolen ausgelegt wurde.
... und man sieht auch hier, dass mehr Rays (höhere Auflösung der Beleuchtung) RDNA 2 stärker einbrechen lassen als Ampere (und auch Turing). Insofern: Yep (und wie im Artikel dazu geschrieben), der ART-Mark ist natürlich in erster Linie ein Worstcase-Szenario, aber als Pointer/Indikator nicht völlig aus dem Weltraum. :-)

MfG
Raff
 
Von mir aus gerne, aber nicht wegen vermeintlicher Überlegenheit.

Ein nettes feature sollte auch als solches behandelt werden, aber mehr auch nicht. Was bleibt eigentlich übrig von nVidia, wenn man RT wegnimmt?!
Hardware T&L war dann auch nur ein nettes Feature? Oder dynamische Beleuchtung? Echtzeitschatten? Screenspace Reflections? Havok Physics?
Lieber 90er Jahre Forward Rendering mit 16K Auflösung. Alles andere sind zu vernachlässigende Features.
 
Zurück