Der bessere Denoiser für Raytracing ist, im Gegensatz zu den falschen Frames, eine richtig gute Entwicklung. Man kann ja u.a. in Quake RT einzelne Effekte zu- und abschalten. Darunter auch den im Spiel implementierten Denoiser für Raytracing Strahlen und da merkt man, wie da weiterhin noch ordentlich getrickst werden muss.
Je weniger man tricksen muss bei so einer Technologie, umso besser. Aber, ohne tricksen gehts halt auch bei einer 4090 noch ganz lange nicht.
Ich hoffe jedenfalls für die Nvidia Besitzer, dass man diese Technologien weiterhin getrennt zu- und abschalten kann und man nicht gezwungen wird entweder alles oder nichts zu nehmen.
Beim Rastern wird genauso getrickst. Wo Unterschied?
Also das kaufe ich Nvidia nicht ab, du etwa schon?
Man hätte es sicherlich auch für die "alten" Tensor Kerne implementieren, selbst wenn sie nicht so viele falsche Frames generieren würden.
Hier merkt man wie wenig Du im Thema bist. Die Tensor Kerne werden zwar auch für FrameGen genutzt, aber der OFA (Optical Flow Accelerator) scheint der Knackpunkt zu sein. Wie bereits im Thread gesagt:
Turing - kein OFA
Ampere - OFA mit 125 TOPS
Ada - OFA mit 300 TOPS
Was der OFA genau macht kannst Du ja selbst recherchieren. Alles Online zu finden.
Im übrigen haben auch die Tensor Kerne in jeder Generation ordentlich an Leistung zugelegt.
selbst wenn sie nicht so viele falsche Frames generieren würden.
Dann würde das Feature GARNICHT mehr funktionieren. Aktuell werden 2 Frames generiert und 1 "Tensor Frame" dazwischen gepackt. Wie willst Du es kompensieren wenn das 1 "Tensor Frame" nicht schnell genug berechnet wird? Rein von der Logik her geht das nicht, außer mit einer noch viel größeren Input Lag Erhöhung wenn auf das 1 "Tensor Frame" gewartet wird.
DLSS, jedenfalls ab 2.0, bedingt die RT Kerne.
Falsch. DLSS läuft auf den Tensor Cores, nicht auf den RT-Kernen.
Das denke ich auch.
Und ihre RT Kerne werden sie für so einen Schwachsinn auch nicht einfach umschreiben können. Meines Wissens sind die Tensor Kerne allgemeiner aufgebaut und können somit für, theoretisch z.B. auch wissenschaftliche, andere Zwecke einfacher verwendet werden. Die RT Kerne bei RDNA sind wesentlich spezieller ausgelegt.
Du wirfst hier wild Begriffe durcheinander die nichts miteinander zu tun haben.
Nvidia hat SEPARATE RT-Cores (Raytracing) und Tensor-Cores (DLSS + Frame Gen). Unabhängig von den Shadern.
AMD hat IN ihren Shadern jeweils Ray-Accelerators und AI-Accelerators verbaut und keine dedizierten Einheiten dafür.
https://www.hardwaretimes.com/amd-r...i-cores-not-the-same-as-nvidias-tensor-units/
Wahrscheinlich würd FG auch auf einer 3090 laufen, wenn möglicherweise auch mit weniger fake Frames, sie wollten es halt nicht.
Oder der Input Lag würde dadurch auf 500ms steigen und das Feature wäre somit DOA.
Dennoch gibt es keinen Hinweis, dass die Umsetzung von FG durch den Funktionsumfang der Recheneinheiten eingeschränkt wurde, sondern rein der Leistung wegen.
Dieses Vorgehen ist bei Nvidia nicht neu, dass sie Features einfach softwareseitig sperren, siehe RTX Voice und die RTX API Erweiterung. Beides wurde irgendwann später für Pascal freigegeben, obwohl man zum Launch von Turing erklärt hat, es gebe eine Hardwareanforderung für beides.
Wo sage ich dass der Funktionsumfang dafür verantwortlich ist?
RTX Voice ist ja wohl nicht vergleichbar mit den Anforderungen für komplett KI-berechnete Frames innerhalb weniger Millisekunden...
Was meinst Du mit RTX API? Etwa BEVOR es die RT-Erweiterung in DirectX gab?
Deine Beispiele sind beide sowas von an den Haaren herbeigezogen und absolut nicht vergleichbar. Natürlich entwickelt Nvidia ihre Features erst mal für die aktuelle Gen und schaut dann ob es auf älteren Karten läuft. Das ist einfach nur logisch. Wie "RTX" auf Pascal performed wissen wir alle, diese Freigabe hätten sie sich sparen können.