Du vermutest doch sicher keinen nVidia-Komplott der dahinter steckt, oder?
"Indiana Jones und die große, grüne Dividende"
Natürlich nicht. Warum sollte ich? Ich verstehs nicht. Ist das als Gag gemeint? Wie kommst du zu der Frage?
Hier im thread hat schon einmal jemand Verschwörungstheorien in den Raum gestellt. Mögt ihr nicht lieber in die Rumpelkammer gehen mit solchen Andeutungen?
Aber nix was wirklich den Leistungshunger für mich persönlich rechtfertigt.
Vor allem da man den Leistungshunger mit einer extrem niedrigen Renderauflösung ausgleichen muss (in meinem Fall DLSS-P @rtx4080) ...was sämtliche Optische Gewinne durch PT direkt wieder zunichte macht.
Kann ich voll und ganz nachvollziehen.
Wenn man dann bedenkt, dass wir noch komplett am Anfang stehen, mit teilweise nicht mal einem Strahl und einer Kollision pro Pixel, dabei wollte man 2012 so hoch hinaus mit mindestens 10, besser 20 Strahlen und mindestens 3 Kollisionen pro Pixel, die zudem in unterschiedlichen Winkeln ausgestrahlt werden. Aktuell werden abgelenkte Strahlen, die sich nach der Ablenkung treffen nicht mal miteinander verglichen bzw. verrechnet. Aktuell wird sich fast nur "angenähert" bzw. geschätzt. Der BVH Ansatz teilt das ganze Bild in Sektoren auf und verrechnet diese in kleinen Zahlen. Also das ist noch ein sehr weiter Weg und die benötigte Rechenleistung ist noch lange nicht am Horizont sichtbar.
Bei einem Primärstrahl je Pixel sind wir bei 4K60 schon bei 500 Mio. Primärstrahlen pro Sekunde. und damit schon bei mehr als beispielsweise eine GTX2080ti überhaupt verarbeiten könnte, weil dann schon die Speicherzugriffe für Wartezeit sorgen würden. Da reden wir aber nur über Primärstrahlen. Trifft einer dieser Strahlen beispielsweise etwas transparentes wie Glas, müssen Sekundärstrahlen ausgeschickt werden und die teilen sich nochmals auf. Der Rechenaufwand wächst drastisch.
Diese Rechnung kommt aber oben auf alles andere drauf, beim zuschalten von PT. Also zusätzlich zur Grundlast. Weswegen wir solche Leistungseinbußen wahrnehmen. Eine 4090 ist im RT Index 8x so schnell wie eine 2080ti, aber wenn wir die Werte erreichen wollten die Intel damals beschrieben hat, bräuchte es noch mehrerer solcher Sprünge wie von 2080ti auf 4090 und das nur, um aktuelle Szenen vollumfänglich zu verrechnen.
Das ist auch der Grund, warum das Licht mit DLSS so anders ausschaut als nativ. Weil eben weniger Strahlen verrechnet werden und je nachdem welchen Ansatz der Entwickler gewählt hat, bringt die Reduzierung der Renderauflösung eben unterschiedliche Gewinne.
Ich bin echt gespannt darauf, wie die Reise weitergeht.