AW: Raytracing: Gothic Remake und Assassins Creed 4: Black Flag aufgehübscht
Also wenn Reshade DXR/Vulcan RT benutzten würde wäre es mit dedizierten RT Hardware Strukturen zu beschleunigen. Da es jedoch nur eine Art Post Processing darstellt kommt es nicht an die Schnittstellen ran, richtig?
Nein, erst wenn man die Shader komplett ersetzt. DXR und Vulkan ( schreibt man mit 'k' ) bieten nur die Api um die Strahlen zu generieren. Was dann mit den Strahlen geschieht ist reine Shaderaufgabe.
ReShade ist ein PostProcessingInjector - es gibt sich als Treiber aus und injiziert dann die Shader. Es ändert NICHT die vorhandenen shader was nötig wäre um Raytracing wirklich ins Spiel zu integrieren (und die Shader spielabhängig machen würde). Das Raytracing von reShade beruht entsprechend rein auf den Daten die fürs postprocessing zur verfügung stehen - meistens Tiefen-, Normal- und Farb-Buffer. Entsprechend kann nur eine sehr vereinfachte und limitiere verison von Raytracing verwendet werden die quasi das selbe macht wie Screen-Space-Reflections nur eben nicht spiegelt sonder für den Shader Beleuchtungs-informationen aus dem Bild berechnet. Nur... die Information von wo das Licht kommt gibt es dort nicht, genauso wenig wie Material-Informationen, oder die 3D-Form der Welt oder Objekte außerhalb des Bildes.
Es gibt genügend Demo-Videos auf YouTube, was dort fast keiner zeigt sind die Artefakte und Probleme die das ganze mit sich bringt weil es eben die ganzen wichtigen informationen nicht hat.
Sprich - Was geschieht wenn man von der Seite auf eine Säule schaut, auf einer Seite ist es hell, auf der andere dunkel. ReShade kann nicht erkennen ob das fette Ding in der Mitte des Bildes eine Säule oder eine Wand ist - der Shader muss sich entscheiden als was das interpretiert wird.
häufig kommt es zu blooming/Haloing, bei Spielen wie Spiderman fangen dann schon mal Wände an in Rot/Blau zu 'leuchten'. Und oh Gott - weil es eben nur sieht was am Bild ist - die Bildhelligkeit kann sowas von flackern wenn zB eine helle Lampe gerade so am Rand des Bildes ist und manchmal sichtbar, manchmal nicht ist.
Oder wie in Borderlands 2 - die Lichter sind dort oft nicht völlig ausgewaschen Weiße Flächen und werden dann nicht als Lichter erkannt - was dann dazu führt das direkt beleuchtete bereiche auf einmal dunkler werden.
Da das ganze so wenig Informationen hat ist auch die Berechnung einfach gehalten - es muss nicht gegen die ganze Szene geraytraced werden, oder geschaut werden wie stark da jetzt ein Material reflektiert (viel Spaß wenn da ein Spiegel in der Szene zu sehen ist) und entsprechend ist es weit weniger rechenaufwendig, kann aber auch nicht mit denselben Strukturen beschleunigt werden wie DXR/Vulkan - es gibt keine Kamera oder Geometrie mehr.
Ich persönlich finde es eine nette technische Spielerei aber für den Einsatz zu Spielen vollkommen ungeeignet - auf Screenshots oder gut ausgewählten video-Szenen kanns dann gut aussehen.