Das ist mir sehr wohl bewusst, und durchaus genehm. Daher schrieb ich ja auch, dass ich nicht verstehe, warum einem die SCHLECHTERE Qualität empfohlen wird.
Ist letzten Endes schlicht eine Marketing-Frage. Simple, plakative Zahlen, wie 109 Fps vs. 77 Fps versteht auch der dümmste Honk ad hoc, da muss man nicht viel zu schreiben. Dagegen etwas wie bspw. 89 Fps vs. 77 Fps ist ein deutlich kleinerer Zugewinn (obwohl durchaus ein signifikanter), denn man gleich unterstützend mit einer Aussage wie "
aber im Quality-Mode ist die Grafik dafür noch einmal besser und fast nicht unterscheidbar von einer nativen Darstellung" flankieren muss und dann geht die Diskussion dennoch weiter mit "
wie nah ist den nun ein 'fast nicht unterscheidbar' am 'Original' dran?", usw. Die einschlägigen Diskussionen kennt man ja hier bereits aus dem Forum.
War übrigens bei AMDs FSR-Präsentation auch nicht anders. Hier hat man bspw. die Lauffähigkeit auf der kleinen Geforce auch lieber mit hohen Fps-Zugewinnen ausgewiesen, dafür aber extrem "matschiges" Bildmaterial gezeigt.
Warum dann der Verweis auf die Latenz, siehe News?
Und wie geht das eigentlich, da es sich doch hier um eine zusätzliche Berechnung handelt?
Mir scheint du missverstehst hier die Definition von Latenz in diesem Kontext. Deinem gespiegeltem Verständnis nach sollte man dann sämtliche Postprocessing-Effekte deaktivieren, man sollte möglichst unnötige Vegitation nicht mitrendern, ebenso am besten gleiche alle nichtessentielle Physik deaktivieren, vielleicht auch noch alle passiven NPCs, ...
Jo, zweifellos, denn sonst würde die Technik keine so guten Resultate abliefern und sich die Konkurrenz so viel Zeit lassen, mit was Vergleichbarem nachzuziehen.
Darüber hinaus scheinst du aber auch nicht zu verstehen, warum da bei nVidia so viele daran rumwerkeln. Das ist eine universell einsetzbare Technik, die mit den natürlicherweise notwendigen Anpassungen in jede Engine integriert werden kann und dementsprechend ist da eine besondere Sorgfalt und Weitsicht bei der Entwickung angeraten. Darüber hinaus wird die Unterstützung für das RSS-Studio vergleichsweise klein ausfallen, da da nicht viel nötig ist; schätzungsweise bestenfalls ein oder vielleicht zwei Grafik-Ingenieuere und die auch nur dann mit einer mäßigen Arbeitsstundenzahl, sofern die ncht noch anderweitig zu optimieren helfen, jedoch vermute/weiß ich nicht, ob dieses RSS-Update noch nennenswert was an der Grafik tuned und von daher würde ich annehmen, dass die direkte Unterstützung seitens nVidia hier vergleichsweise gering ausfällt und möglicherweise nur deshalb gegeben ist, weil man den Titel als Vorzeigeobjekt heranziehen kann.
Btw., wenn irgendwas (auch nur entfernt) mit KI zu tun hat, bedeutet das nicht, dass man da keinen Finger rühren muss, dass sich alles von alleine implementiert, den Bestandscode ändert und wie von Geisterhand läuft auf einmal plötzlich alles und gleich auch noch viel, vieeel besser ... das liest sich dann doch eher nach zu vielen geschauten ScienceFiction-Filmen.
Abseits dessen: Es wäre sicherlich mal interessant zu wissen wie vielen personellen und arbeitsstundentechnischen Aufwand nVidia in DLSS gesteckt hat um den heutigen Stand zu erreichen.
Und ja, selbstredend soll DLSS auch für Gamer die Tensor Cores auf den GPUs in gewisser Weise rechtfertigen ... ändert dennoch nichts daran, dass die Technik tatsächlich einen handfesten Mehrwert schafft, d. h. die ist schon lange und weit über eine Art Alibifunktionalität hinausgewachsen. Wäre dem nicht so, würden andere Mitbewerber nicht versuchen gleichwertige oder gar verbesserte alternative Techniken in den Markt zu bringen.
Das sieht doch schon besser aus - Anscheinend haben sie das Ghosting jetzt deutlich besser im Griff:
Sieht tatsächlich etwas stabiler aus bzgl. bspw. der Oberlandleitungen links, was den Inkrement in der Minor-Versionsnummer durchaus erklären könnte. Man darf gespannt sein bis zu den offiziellen Release-Notes zu v2.2, wenn sie denn mal welche veröffentlichen sollten, ob und was da noch so drin ist oder ob hier im Wesentlichen das zugrundeliegende NN weiteroptimiert wurde?