Das ist Unfug. Ihr solltet doch inzwischen langsam gelernt haben, das größte Marketinggeblubber abzukönnen. "Neuronales Netzwerk" , "KI" ... ein paar Buzzwords, mehr nicht. [...]
gerX7a scheint sich etwas vertiefter reingefuchst zu haben, ja. Zumindest die Aussage, das Training fände in den TCs statt, kam von ihm so nicht.
Trotzdem scheint auch er dem Glauben anzuhängen, [...]
Mir scheint du verstehst nicht wirklich, was mit dem Oberbegriff Neuronales Netz(werk) gemeint ist und wie es angewendet wird, siehe bspw. deine Tensor Cores vs. Shaderprocessors-Verwirrung, dem Unverständnis wofür die MMA-Operationen benötigt werden und dass das "SPs vs. Tensor Cores" lediglich eine Performanceoptimierung darstellt.
Und dass hier eine individuelle Implementation notwendig ist, ist unvermeidlich, da es sich bei DLSS 2.0 um eine weitaus komplexere Implementation handelt, die nun mehrere Frames in die Auswertung mit einbezieht, Zugriff auf diverse Grafik-Buffer sowie Vektorinformationen von der Engine zu jedem Frame benötigt.
Vielleicht hilft dir ja eine andere Quelle:
"[...] So for their second stab at AI upscaling, NVIDIA is taking a different tack. Instead of relying on individual, per-game neural networks, NVIDIA has built a single generic neural network that they are optimizing the hell out of. And to make up for the lack of information that comes from per-game networks, the company is making up for it by integrating real-time motion vector information from the game itself, a fundamental aspect of temporal anti-aliasing (TAA) and similar techniques. The net result is that DLSS 2.0 behaves a lot more like a temporal upscaling solution, which makes it dumber in some ways, but also smarter in others.
The single biggest change here is of course the new generic neural network. Looking to remove the expensive per-game training and the many (many) problems that non-deterministic games presented in training, NVIDIA has moved to a single generic network for all games. This newer neural network is based on a fully synthetic training set rather than individual games, which in turn is fully deterministic, allowing NVIDIA to extensively train the new network in exactly fashion they need for it to iterate and improve over generations. According to NVIDIA, this new network is also faster to execute on the GPU as well, reducing the overhead from using DLSS to begin with. [...]"
Oder sind auch die dem "Marketinggewäsch" aufgesessen? Und dann ebenso all die Entwickler, die sich diese Technik im Detail angesehen haben, weil sie eine Implementation erwogen oder gar vollzogen haben und die haben dennoch alle nichts gesagt, sodass bisher nicht ein einziger Leak durchgesickert ist, der hier nVidia der handfesten Irreführung oder gar Lüge bezichtigt?
Wenn deine einzige Argumentation deine "Skepsis" und dein "Unglaube" ist, wobei man sich fragen muss, was der "Glaube" überhaupt damit zu tun haben soll, dann ist das eine sehr schwache Argumentation.
Fakt ist, dass nVidia am Ende in seinen Aussagen zu DLSS 2.x konsitent ist und sie bisher noch niemand in der Art, wie du es suggerierst, angegriffen oder widerlegt hat, insbesondere nicht die, die sich mit dem Thema hauptberuflich beschäftigen.
Zuletzt bearbeitet: