Sie sind auch beim Nutzung von NN nicht zwingend notwendig. Aber wenn man schon extra Einheiten genau für diese Aufgabenzwecke hat nutzt man diese sinnvollerweise auch.
Diese Einhaiten haben auf den Consumer Karten aber sonst kaum einen Nutzen - abgesehen von RT, dass es aber in weniger Spiele geschafft hat, als DLSS.
DLSS benötigt diese Informationen doch genauso? Ob nun ein klassischer Algorithmus die Daten verarbeitet oder ein NN spielt ja erstmal keine Rolle. Wichtig ist dass es viele nutzen und dass muss bei allen Herstellern erstmal umgesetzt werden.
Du hast offenbar meinen Text nicht verstanden... ich schreib doch extra, dass DLSS und FSR die Informationen benutzen - und es deshalb bedeutet, dass man eben KEIN NN dafür braucht.
Natürlich man hatte so viele Däumchen gedreht weil man ja sonst keine Forschungsprojekte verfolgen könnte. Wenn man führend in dem Bereich ist warum nicht nutzen? Das machen letzten Endes fast alle Firmen so.
Irgendwann muss man mal von der Grundlagenforschung wegkommen und endlich was real nutzbares auf den Tisch bringen.
Siehe Blockchain.
Aktuell gibt es keine reale Anwendung außerhalb der diversen Coins.
Es gibt immer wieder Ansätze, doch nichts davon wird am Ende ein real genutztes Produkt.
Ein ehemaliger Kollege und Blckchain enthusiast ist von seinem Job zu einer Firma gewechselt, die Blockchains in Verbindung mit Warenwirtschaft und Verträgen einsetzen wollte... Tjoa... die gibts nicht mehr.
Das ist grober unfug. Ausgerechnet die Leistungsstärksten Karten bieten ebenfalls das Feature.
Was verrät uns das?
Dass auch die leistungsstärksten Karten nicht genug Power haben, um RT halbwegs flüssig darzustellen, ohne auf diverse Tricks (nur ein Ray pro Pixel Cluster, anstelle mehrerer Rays pro Pixel, copy&paste von Reflexionen... Objekte aus RT ausklammern, Reflexionen teilweise doch wieder als screen space Reflexionen machen...) und dazu noch DLSS zurückgreifen zu müssen.
Eine GPU hat dann genug Power, wenn RT mit Licht, Schatten und Reflexionen bei 4k mit 60fps minimum laufen.
Und zwar nativ.. ohne DLSS.
Dabei mein ich dann eine GPU der 3090 Klasse. Die ist ja für 1080p Gaming vollkommen drüber.
Eine 3060 darf das dann bei 1080p leisten.
Eigentlich sollte es eine 3050 sein, da die aktuell als DIE 1080p Karte von Nvidia angepriesen wird, aber das wäre dann doch etwas zu optimistisch.
Und bei einem gewissen Konkurrenten konnte über Jahre nichts abliefern und war bis vor kurzem bei der Rechenpower "nicht vorhanden".
Für diverse Leute ist DLSS mit ein Kaufargument ob du es magst oder nicht. Es liegt an AMD bzw. Intel mit entsprechenden alternativen dieses Argument zu entkräften. Ich würde mir bspw. keine AMD Karte zum selben Preis und klassischer Rasterisierungsleistung kaufen wenn die Features fehlen.
Natürlich ist DLSS ein Kaufargument.. damit können die zu schwachen Karten nämlich schön so tun, als hätten sie für UHD mit max Details genug Rechenleistung und müssten das Ganze nicht bei 1800p, oder gar 1440p berechnen und dann per DLSS hochskalieren.
DLSS greif ab und an auch mal daneben - bleibt nicht aus, wenn man ein NN schön trainiert hat, die gelernten Handlungen aber nicht auf diese Szene passen.
Passiert natürlich auch bei "'Handgeklöppelten" Algorhithmen. die lassen sich aber feiner abstimmen, als ein NN, bei dem du im Endeffekt am einen Ende Bildinformationen einkippst und irgendwas raus kommt.
Da läuft die bessere Abstimmung über bessere Trainingsdaten.
Lange Rede, kurzer Sinn:
Bei RTX 6000 und Radeon RX 9000 dürften wir dann schon etwas näher dran sein - auch weil die Engines bis dahin besser mit RT umgehen können.
MCM wird es in Zukunft richten. Dann haben Nvidia GPUs auch wirklich mal 18.000 FP32 Shader Kerne und nicht nur die Hälfte plus INT16 Kerne, die auch FP32 beherrschen.. aber in 90% der Fälle zu sehr mit INT Berechnungen beschäftigt sind, als dass sie als FP32 Kerne zählen können.
Ja, mir ist bewusst, dass Ada jetzt GPUs mit 18k Kernen bringen wird - aber sehr wahrscheinlich nicht alle aktiv und erst recht nicht für kleinere GPUs, als den 100er Chip.