Mitnichten wäre Derartiges ein angebrachter Vergleich, eben weil die Lichtberechnung keinen solchen Einfluss auf die Qualität der optischen Darstellung (und damit die Immersion) hat, wie die von dir erwähnten Vergleiche. RT ist komplett oberflächlich, und auch dort nur ein kleiner Aspekt. Siehe zb. Quake 1 mit Raytracing. Sieht toll aus, aber selbst wenn es komplett (und nicht nur partiell) mit RT berechnet wird, wird es immer noch ganz genau so "unecht" empfunden wie das klassische Quake 1 - nur eben mit RT. Anders wäre es, wenn es Quake 1 mit ultra hoher geometrischer Komplexität wäre, und mit einer Oberfläche so detailliert, dass diese als "echt" empfunden wird - und auch mit einer Lichtberechnungen die nicht auf der "echten" Physik beruht.
Dann nämlich wäre der Unterschied durchaus wie die von dir genannten Beispiele. Aber eben nicht wenn es nur um die Lichtberechnung geht.
Mein Beispiel ist unabhängig von der Immersion richtig, weil jede Abweichung von der Realität, wozu ALLE Computerspiele gehören und auch alle Filme, Kunst darstellen. Bei Kunst entscheidet der persönliche Geschmack, was man besser findet. Manga Fans wollen überhaupt keinen Fotorealismus, sondern schätzen ihre Form der grafischen Abstraktion.
Wie Gamer das bezüglich der Immersion in Computerspielen einschätzen, ist davon völlig unabhängig. Ohne Raytracing wird es keine fotorealistischen Spiele geben, so wie es im Kino sonst auch keine fotorealistischen CGI-Effekte gäbe, eine Szene im Gesamtkonzept muss alle Faktoren berücksichtigen, nicht nur beleuchtung, das ist trivial. Da RT die rechenaufwendigste und damit hardwareseitig teuerste Methode der weiteren Entwicklung Richtung Fotorealismus ist, kann man ruhig weiter Texturen und Mesh verbessern, es ist Billiger für Gamer, bei der Beleuchtung zu sparen. Aber die Grenzen sind da langsam erreicht. Aus meiner Sicht war von Anfang an die Frage der Synergien der Entwicklung wichtiger, ob man es sich als führendes GPU Unternehmen leisten kann, auf diese Technologie dauerhaft zugunsten von Biased Engines zu verzichten und wie sich die Notwendigkeit auf Geschwindigkeit optimierter Renderer für den Game Bereich auf den Profi-Bereich auswirken wird und umgekehrt. Die Entwicklung hat mit der Titan Serie ja schon vor längerem begonnen und die 2080 ti ist im Prinzip eine Profi-GPU, die man abgespeckt hat um zu sehen, ob sich auch im Gamer Bereich dafür Verwendung finden lässt, ähnlich der Radeon VII, auch wenn manche Gamer das nicht begreifen wollen und als reine Preissteigerung sehen und RT als 08/15 Option. Im Prinzip hat man das Angebot um einen neue Enthusiasten Klasse erweitert, die sich nur noch wenige leisten können, die dafür aber auch professionell einsetzbar ist. Und das RT bei fortschreitender technischer Entwicklung dominieren wird, das erkennt man schon an den CGI-lastigen Kinofilmen. Wer da was mit Biased Engines dreht, der geht bestenfalls als B-Movie durch, eher schon als C-Movie. Das wird sich im Game Bereich wiederholen und auch ähnlich lange brauchen. Im Grunde einfach nachvollziehbar.
Das man alte Games auffrischt, ist nur eine Mischung aus PR für RT und der Tatsache geschuldet, das ältere Spiele so wenig Ressourcen brauchen, das moderne Grakas hohe Reserven für RT bereit stellen können. Quake 1 oder andere alte Spiele sind daher kein Maßstab, vergleichbar eher mit einem remastering alter Kinofilme. Man kann sich Klassiker ja auch noch auf einer alten VHS ansehen. Auf einem 4k TV wirkt das dann aber arg aus der Zeit gefallen. Also wird remastered. Das sind dann aber ganz schlechte Beispiele für die Qualität von 4k, HDR oder Immersion, da ist jeder mit moderner Technik gedrehte Film optisch besser, künstlerisch ist dann wieder alles Geschmackssache. Aber niemand wird das Potential neuer TV-Monitore an remasterten Klassikern messen wollen. Da muss man schon aktuelle Werke mit und ohne CGI oder RT vergleichen.