Ich denke nicht, dass das notwendig ist. Ich denke, bevor Nvidia die RT leistung erreicht, haben sie das Problem längst mit AI gelöst.
Ich meine schaus dir an. Mit DLSS + Frame Gen wird schon jetzt nur noch 1/8 des Bildes tatsächlich berechnet. RR schafft extrem effektives Denoising. Praktisch hat AI schon jetzt Pathtracing überhaupt erst möglich gemacht.
Wenn diese techniken weiter verbessert werden und neue dazu kommen, dann brauchen wir sicherlich nicht 10x RT Leistung.
Ich glaube, bevor Nvidia eine reine Raytracing GPU auf dem Markt hat, haben sie stattdessen einen reinen AI Beschleuniger. Aktuell scheint das einfach der vielversprechendere Ansatz, Rechenprobleme zu lösen. Ansatt per brute Force irgendwas genau zu berechnen, lässt man es einfach einem AI Algorithmus generieren, der ein nahezu gleiches Ergebnis mit viel weniger Rechenaufwand erzeugen kann. Wie gesagt, DLSS macht das in weiten Teilen schon jetzt.
Das tolle an sämtlichen Entwicklungen im Bereich AI/Deep Learning ist, dass die Algorithmen immer schneller und besser werden können. Im Gegensatz zu per Hand entwickelten Algorithmen, die viel Zeit und noch viel mehr Hirnschmalz brauchen und schneller an Grenzen stoßen.