Raytracing-Showcase getestet: Ampere deklassiert Turing und RDNA 2 - ein Blick in die Zukunft?

Das Problem hatte ich bei spontanen OC-Versuchen auch. Da scheint irgendeine Form von "Clock Stretching" zu greifen. Ab 2,5 GHz hatte ich weniger Fps als mit 2,4 GHz, egal mit welcher Spannung und welchem Speichertakt. Nach kurzem Tweaking landete ich dann bei ~31 Fps bei RT High. Vielleicht magst du dir das genauer ansehen. Ich muss erst mal weiter die Kuh Resi melken. :D

MfG
Raff
 
Den Chiptakt hatte ich gar nicht sooo hoch gezogen. Das Ergebnis ist mit +1300MHz VRam. Mehr Takt auf den VRam verringert die Punktezahl und die min FPS stürzen ab (17FPS).

1080p.PNG
 
Ebenfalls erwartet. :D Ist man hart powerlimitiert, klaut erhöhter Speichertakt (bei Geforces) Energie, die dann für den GPU-Boost fehlt. Und treibt man es deutlich zu weit, fallen im Speicher Bits um, die neu angefordert werden, was die Leistung unabhängig von der Power senkt.

MfG
Raff
 
Ich sehe die selben Kugeln wie aus der NV Präsentation
Reflektierende Kugeln sind jetzt eine Nvidia-Erfindung? Die werden doch schon seit Jahrzehnten für Raytracing-Demonstrationen verwendet. Hier ein Beispiel von 1979:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Die Argumente werden auch immer lächerlicher.
 
Das Planarsetting ist brocken an den Shadows, je höher diese gesetzt sind um so geringer die Auslastung.

ART-Mark_Result_-_Custom_100%_2021_05_01-11_06_00.png


Das RT Ergebnis passt jetzt, etwas über der 6900 das entspricht etwa dem was zu erwarten ist bei Shaderlastiger Belastung. Ich hatte TSS und Schatten aus dem Planarsetup übernommen.
ART-Mark_Result_-_Custom_100%_2021_05_01-11_09_44.png


Und dann noch SSR
ART-Mark_Result_-_Custom_100%_2021_05_01-11_19_46.png


@PCGH_Raff Clockstretching konnte ich bei mir nicht feststellen.
 
Zuletzt bearbeitet:
@Gurdi
Schau mal in dein zweites Bild, da stehen Max Bounces und Rays per Pixel nicht mehr auf 0 und Raytracing ist eingeschaltet. Daher sinkt die Performance.

Oh, oder sollte das kein Vergleich sein?

Habe gerade versucht das zu reproduzieren, doch bei mir ist die Performance wie erwartet:
ART-Mark_Result_-_Custom_100%_2021_05_01-12_11_19_ShadowsUltra.png
ART-Mark_Result_-_Custom_100%_2021_05_01-12_15_35ShadowsHigh.png


Heute Abend kann ich es auch nochmal auf der 6900XT ausprobieren, falls das ein RDNA 2 Problem sein sollte.
 
Naja aber Shadows von Ultra auf High ergibt eine derbe Differenz, zudem liegt dann auch zunehmend Last auf der Karte gegenüber Ultra.
 
Das kann sein, da hohe FPS die GPU generell etwas besser auslasten können als niedrige, genau wie hohe Auflösungen. Mehr Pixel zu schieben lässt sich besser parallelisieren als schwere Pixel zu schieben. Natürlich gilt das nur solange nirgends ein Bottleneck entsteht wie beispielsweise ein CPU oder Vram-Limit. Manchmal ist auch ein bestimmter Effekt ein Bottleneck, den die GPU nicht weiter parallelisieren kann. Dann müssen die anderen Shader zwischendrin erstmal warten, was sich in verringerter Leistungsaufnahme widerspiegeln kann, obwohl die FPS sinken.
 
Zuletzt bearbeitet:
Wow, das sind echt geile Vergleichsbilder, die Du da erstellt hast.
Sag mal, dürfte ich die auf der Website des Benchmarks als ,,Preview-Material" verwenden? :D
Wenn du noch ein bisschen warten kannst, dann warte auf das 4K-Youtube-Video, als Quelle dieser Screenshots, welches gerade am Verarbeiten ist. ^^ Und zur Frage, ja selbstverständlich.

EDIT:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

(Link erneuert - 03.05.21.)

Bezüglich der RT-Einstellungen, das oben links ist mit 8 Bounces und unten rechts mit 32 Bounces. Das Absolute Overkill-Preset habe ich mal weggelassen. Konnte auch nicht wirklich einen optischen Vorteil erkennen. ^^ Letztendlich wirkt das RT den anderen Methoden auch schon auf sehr niedrigen Presets sehr überlegen.

Und DLSS ist in dem Tool irgendwie verbuggt.
Bei mir führt das nur zur Herabsetzung der Auflösung, ohne nachträgliches AI-Upscaling.
Deshalb ist das natürlich aus.
 
Zuletzt bearbeitet:
Hat das Video denn keinen Ton?

DLSS sollte normal funktionieren, jedenfalls habe ich keine Auffälligkeiten festgestellt.
ABER,
spiegelnde Oberflächen sind für DLSS und andere, temporale Rekonstruktionsalgorithmen der Worst-Case, da sie die über die letzten Frames gesammelten Samples mithilfe von Bewegungsvektoren den letztendlichen Pixelkoordinaten zuordnen. Die Bewegungsvektoren stimmen bei spiegelnden Oberflächen jedoch nicht, denn sie gelten für die Objekte selbst und nicht für die eigentlich zu sehenden Spiegelungen. So kann man die Bewegungsvektoren im Prinzip wegwerfen, wodurch temporales Upsampling wie DLSS wesentlich ineffizienter arbeitet.

Diese Szene ist aus diesem Grund der absolute Horror für DLSS, den man sonst noch nirgends zu sehen bekam. Dennoch liefert es meiner Erfahrung nach selbst hier noch minimal bessere Ergebnisse als TAAU und wesentlich bessere als klassisches Upscaling. Zudem sieht das Bild mit vielen Bounces samt DLSS Qualität zwar weicher aus, ist dabei jedoch temporal stabiler als die native Auflösung.

Wirklich lösen lässt sich das ,,Glitzerproblem" erst mit viel mehr Rays pro Pixel oder in Zukunft eventuell mit DLSS Ultra Qualität, welches dann ggf. die native Auflösung als Ausgangslage verwendet. Mehr Rays pro Pixel sind jedoch so performance-intentiv, dass ich mich entschied, nicht mehr als zwei Rays Pro Pixel als Option zu bieten, da der Benchmark auf schwächerer Raytracing Hardware dann bereits dazu neigt abzustürzen.
 
Am Strom scheint es wirklich nicht zu mangeln in dem Ding.
Mein Standard Setting mit 90%PT
ART-Mark_Result_-_High_100%_2021_05_01-20_52_58.png
122% (Slider Max vom Afterburner)
ART-Mark_Result_-_High_100%_2021_05_01-20_57_26.png
Immerhin schneller als Raffs default 2080Ti :ugly:
 
Ich finde es absolut Schwachsinnig für eine veränderte Beleuchtungs- und Schattendarstellung den Stromverbrauch beim Spielen von 150 bis 200 Watt der Vorgängergenerationen auf 300 bis über 400 Watt zu steigern. Sieht man sich die Ergebnisse an, dann sind die "Verbesserungen" fast nicht zu sehen, außer das man massenhaft Strom dafür verballert.

Technisch ein absoluter Rückschritt.
 
@Geldmann3 ist das nicht eher ein Benchmark, der die Reflektion Performance von den aktuellen Architekturen aufzeigt und weniger zukünftige Raytracing Performance? Zukünftige Spiele werden sicher nicht so viele Reflektionen nutzen.

Ich erwarte nicht, dass der Abstand zwischen Ampere, Turing und RDNA2 arg viel größer wird als jetzt.
 
Technisch ein absoluter Rückschritt.
Es vernichtet schon ordentlich FPS und sorgt auch für einen erhöhten Stromverbrauch, aber ich finde, wenn man sich die optischen Unterschiede reinzieht, dann sind das auch Welten. ^^ Und zum Thema FPS und Stromverbrauch gibt es ja normalerweise DLSS, was jetzt hier im Benchmark nicht großartig Beachtung findet. DLSS erhöht nämlich die FPS wieder enorm und sorgt auch für einen erheblich geringeren Stromverbrauch. Somit neutralisiert sich das. Was bleibt sind die optischen Vorteile und die kann man einfach nicht abstreiten.

Im Benchmark-Tool scheint DLSS aber nicht richtig zu funktionieren.
Eventuell müsste der Entwickler das mal fixen.

Sieht man sich die Ergebnisse an, dann sind die "Verbesserungen" fast nicht zu sehen
Äh, wat? ^^
RT on/off sind gefühlt zwei verschiedene Szenen.
Bei reinen screen space reflections haste teilweise ein leeres Bild, weil es nichts zu spiegeln gibt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
(Link erneuert 03.05.21)
 
Zuletzt bearbeitet:
Naja also DLSS und stromsparen ist schon ziemlich albern, wenn man auf einer 350Watt Karte DLSS anschaltet um mehr Fps zu bekommen wie viel verbraucht die dann mit DLSS? Richtig, 350Watt....
 
Naja also DLSS und stromsparen ist schon ziemlich albern, wenn man auf einer 350Watt Karte DLSS anschaltet um mehr Fps zu bekommen wie viel verbraucht die dann mit DLSS? Richtig, 350Watt....
Ist halt Quatsch.
Mache doch den Test mit deiner RTX3070.

Cyberpunk, WQHD und RT-Psycho.
Einmal DLSS-Quality und einmal DLSS-Off.

Wirst sehen, dass DLSS-Quality zum einen deutlich mehr FPS bringt und zum anderen deutlich weniger Strom verbraucht. Ist doch auch ganz logisch, weil die Renderauflösung geringer ist. Solltest gerade du eigentlich wissen. Also DLSS spart definitiv Strom. Klar kann man das so sagen.
 
Zurück