News DLSS 3.5: Nvidia gibt neues DLSS-Upgrade für alle RTX-GPUs frei

Das erste DLC nach 2,5 Jahren seit Veröffentlichung. Dazu noch etliche Patches und Änderungen am Gameplay, sowas gab es wohl selten bei einem AAA Titel und
ja, man hat das Spiel eigentlich viel zu früh released. Schade eigentlich. Wenn das Spiel in dem Zustand auf den Markt gekommen wäre, der intern gewünscht und extern auch kommuniziert wurde, dann hätte die DLC Entwicklung nicht so lange gedauert (schließlich hat sich während der Entwicklung das Hauptspiel ja auch immer wieder verändert, der Code, die Tools.
Lieber wärs mir gewesen, wenn CP das versprochene Spiel geworden wäre (als Basis) und dann seither Jährlich 1 großes Update/DLC (erweiterung der Welt, verbesserung schon vorhandener Features, technische Features). So könnte man das Spiel 5 Jahre supporten und immer wieder würden es die Spieler spielen. Gerade dank Pathtracing wird es ja in 5 Jahren immer noch technisch erste Sahne sein.
nicht zu vergessen, das die Entwicklung des Spiels 2015 gestartet ist und damit 5 Jahre gebraucht hat.
5 Jahre ist eigentlich ein halbwegs normaler, sogar schon kurzer Entwicklungszyklus für ein neues AAA Spiel (vor allem in dieser Größenordnung).

Die Planung und Entwicklung hat aber indes eh schon früher begonnen.
 
Der bessere Denoiser für Raytracing ist, im Gegensatz zu den falschen Frames, eine richtig gute Entwicklung. Man kann ja u.a. in Quake RT einzelne Effekte zu- und abschalten. Darunter auch den im Spiel implementierten Denoiser für Raytracing Strahlen und da merkt man, wie da weiterhin noch ordentlich getrickst werden muss.
Je weniger man tricksen muss bei so einer Technologie, umso besser. Aber, ohne tricksen gehts halt auch bei einer 4090 noch ganz lange nicht.
Ich hoffe jedenfalls für die Nvidia Besitzer, dass man diese Technologien weiterhin getrennt zu- und abschalten kann und man nicht gezwungen wird entweder alles oder nichts zu nehmen.

Beim Rastern wird genauso getrickst. Wo Unterschied? :huh:

Also das kaufe ich Nvidia nicht ab, du etwa schon?
Man hätte es sicherlich auch für die "alten" Tensor Kerne implementieren, selbst wenn sie nicht so viele falsche Frames generieren würden.

Hier merkt man wie wenig Du im Thema bist. Die Tensor Kerne werden zwar auch für FrameGen genutzt, aber der OFA (Optical Flow Accelerator) scheint der Knackpunkt zu sein. Wie bereits im Thread gesagt:

Turing - kein OFA
Ampere - OFA mit 125 TOPS
Ada - OFA mit 300 TOPS

Was der OFA genau macht kannst Du ja selbst recherchieren. Alles Online zu finden.

Im übrigen haben auch die Tensor Kerne in jeder Generation ordentlich an Leistung zugelegt.
selbst wenn sie nicht so viele falsche Frames generieren würden.

Dann würde das Feature GARNICHT mehr funktionieren. Aktuell werden 2 Frames generiert und 1 "Tensor Frame" dazwischen gepackt. Wie willst Du es kompensieren wenn das 1 "Tensor Frame" nicht schnell genug berechnet wird? Rein von der Logik her geht das nicht, außer mit einer noch viel größeren Input Lag Erhöhung wenn auf das 1 "Tensor Frame" gewartet wird.

DLSS, jedenfalls ab 2.0, bedingt die RT Kerne.

Falsch. DLSS läuft auf den Tensor Cores, nicht auf den RT-Kernen.

Das denke ich auch.
Und ihre RT Kerne werden sie für so einen Schwachsinn auch nicht einfach umschreiben können. Meines Wissens sind die Tensor Kerne allgemeiner aufgebaut und können somit für, theoretisch z.B. auch wissenschaftliche, andere Zwecke einfacher verwendet werden. Die RT Kerne bei RDNA sind wesentlich spezieller ausgelegt.
Du wirfst hier wild Begriffe durcheinander die nichts miteinander zu tun haben.

Nvidia hat SEPARATE RT-Cores (Raytracing) und Tensor-Cores (DLSS + Frame Gen). Unabhängig von den Shadern.
AMD hat IN ihren Shadern jeweils Ray-Accelerators und AI-Accelerators verbaut und keine dedizierten Einheiten dafür.

https://www.hardwaretimes.com/amd-r...i-cores-not-the-same-as-nvidias-tensor-units/


Wahrscheinlich würd FG auch auf einer 3090 laufen, wenn möglicherweise auch mit weniger fake Frames, sie wollten es halt nicht.
Oder der Input Lag würde dadurch auf 500ms steigen und das Feature wäre somit DOA.


Dennoch gibt es keinen Hinweis, dass die Umsetzung von FG durch den Funktionsumfang der Recheneinheiten eingeschränkt wurde, sondern rein der Leistung wegen.
Dieses Vorgehen ist bei Nvidia nicht neu, dass sie Features einfach softwareseitig sperren, siehe RTX Voice und die RTX API Erweiterung. Beides wurde irgendwann später für Pascal freigegeben, obwohl man zum Launch von Turing erklärt hat, es gebe eine Hardwareanforderung für beides.
Wo sage ich dass der Funktionsumfang dafür verantwortlich ist?

RTX Voice ist ja wohl nicht vergleichbar mit den Anforderungen für komplett KI-berechnete Frames innerhalb weniger Millisekunden... :schief:

Was meinst Du mit RTX API? Etwa BEVOR es die RT-Erweiterung in DirectX gab?

Deine Beispiele sind beide sowas von an den Haaren herbeigezogen und absolut nicht vergleichbar. Natürlich entwickelt Nvidia ihre Features erst mal für die aktuelle Gen und schaut dann ob es auf älteren Karten läuft. Das ist einfach nur logisch. Wie "RTX" auf Pascal performed wissen wir alle, diese Freigabe hätten sie sich sparen können.
 
Ich tausche die DLSS Datei "nvgnx_dlss_...." , in bestimmten Games schon länger aus, um so auf die Version 3.0 und höher zu kommen.
Mittlerweile manuell auf Version 3.1.30 geupdatet.

Es geht hier weniger um den FPS Boost, sondern um die Qualität zu erhöhen und ein Beispiel wäre Cyberpunk 2077.
Die Schriftanzeige wurde dadurch rühig und es läuft sauber.

Interessant. War mir bisher wirklich noch nicht bewusst, dass das geht. :daumen:
Doch das ging schon immer. Es gibt den Technologie Stack DLSS und der umfasst, mit Ray Reconstruction, insgesamt 3 Technologien. Super Resolution und Ray Reconstruction sind allen RTX GPUs nutzbar, Frame Generation nur auf Ada Lovelace GPUs.

Wie gesagt, wie die Unterteilung genau ausschaut, ist mir absolut bekannt.
Mir geht es wirklich nur darum das mir persönlich bislang nicht bekannt war, das DLSS 3 auch unabhängig von FG für ältere RTX Karten nutzbar gewesen ist. ;)
Doch wurde unterstützt, schon immer. Das hat Nvidia auch selbst gesagt. Alle Verbesserungen am Upscaler werden weiterhin auch auf den älteren Karten laufen.

Nvidia hat mit DLSS3 eben neben dem bisherigen Upscaling noch Frame Generation hinzugefügt, welches nur auf RTX 4000 läuft.

Ich weiß nicht, was da so kompliziert sein soll. Gut, manchmal wurde DLSS3 als Synonym für Frame Generation genutzt, weil DLSS3 Spiele eben auch Frame Generation unterstützen. Teotzdem war in der Releasewoche von DLSS3 damals sofort klar, welche Features von DLSS3 von welchen GPUs unterstützt wird.

Daran ist überhaupt nichts kompliziert zu verstehen. Hab doch selbst geschrieben wie die Unterteilung genau ausschaut. :D :D :D

Es ging mir einzig darum das bisher von Nvidia eingetrichtert wurde, das DLSS 3 im Allgemeinen nicht für Karten unter der RTX 4000 Reihe überhaupt nutzbar wäre. Darum ging´s mir. Eigentlich auch nicht kompliziert. :)

Das war übrigens damals die Aussage:
"Auf der GTC hat Nvidia nicht nur die ersten drei Karten der Geforce RTX 4000 vorgestellt, sondern auch DLSS 3. Einer der wichtigsten Fragen, die sich zur neuen Ausbaustufe von Deep Learning Super Sampling aufdrängt, ist, ob DLSS 3 exklusiv für die RTX-40-Serie ist oder nicht? Die kurze Antwort ist: Ja, es ist exklusiv. Die lange Antwort ist etwas komplizierter.

Bryan Catanzaro, Vice President of Applied Deep Learning Research bei Nvidia, bestätigte, dass in seiner jetzigen Form DLSS 3 nur auf der Geforce RTX 4000 funktioniert. Es ist laut ihm aber theoretisch möglich, dass auch ältere Generationen mit DLSS 3 versorgt werden. Theoretisch - ob Nvidia DLSS 3 jemals auf die RTX 30 (Ampere), RTX 20 (Turing) oder sogar noch ältere Karten bringt, ist eher fraglich. Laut Catanzaro bietet DLSS 3 für Besitzer älterer Geforce-Grafikkarten keine großen Vorteile."



Daher so klar wie du behauptest war es nämlich nicht. Diese Info hat man als Leser erst einmal so mitgenommen und abgespeichert.

Gegenfrage ist nun wozu jetzt DLSS 3.5 wenn sich im Grunde nichts ändert?
Das einzige Feature was ich hier sehe, wäre Ray Reconstruction was nun hinzukäme. ;)
 
Zuletzt bearbeitet:
Also das kaufe ich Nvidia nicht ab, du etwa schon?
Man hätte es sicherlich auch für die "alten" Tensor Kerne implementieren, selbst wenn sie nicht so viele falsche Frames generieren würden.
Die Frage ist ja gar nicht ob es funktioniert..
Sondern wie gut

Ich erinnere mich das damals mit der RTX2000 ähnliche Diskussionen da waren.. alles Fake und Marketing und raytracing läuft auch auf alten Karten..

Bis Nvidia sich der Diskussion gebeugt hatte und das ganze für die gtx1000 Reihe Freigab..

Und ich hier mit meiner GTX1080TI saß und erstaunliche 8 FPS dabei rum kamen ...



Und ich denke auch das AMD sich da alles andere als leicht tun wird das ohne spezielle Hardware Einheiten hinzubekommen.. und das dass Ganze aufgrund der benötigten Rechenleistung eventuell ein null Summen Spiel auf schwächeren Karten wird.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gott sieht das geil aus.
 
Der bessere Denoiser für Raytracing ist, im Gegensatz zu den falschen Frames, [...] da weiterhin noch ordentlich getrickst werden muss.
Eine derartige Sichtweise ist grundsätzlicher Unsinn. Computergrafik ist schon seit jeher "Getrickse non-stop". Und ja, es ist durchaus amüsant, warum man bei den aktuellen ML-unterstützenden Grafik-Features nun so künstlich überzogenes, echtes, also mal so richtiges Getrickse krampfhaft herausarbeiten will um das anschließend verteufeln zu können.*) Das ist dann schlussendlich doch eher ein psychologisches als ein technologisches Thema, denn am Ende ist das schlicht auch nur das übliche "Getrickse", das sich lediglich eines anderen technologischen Unterbaus bedient, mehr aber auch nicht. Am Ende liefern jedoch auch diese Technologien ab was sie sollen und erfüllen damit ihren Zweck und werden zudem ebenso immer weiter verbessert ...

*) Zudem wird ja keiner gezwungen derartige Technologien zu nutzen. Man muss ja nicht zwingend in 4K spielen oder alle Regler auf rechts gezogen haben oder gar den Anspruch haben beides nutzen zu wollen und dabei noch zusätzlich einen 160 Hz-Output geliefert zu bekommen. Wer mit derartigen Vorstellungen ins Rennen geht hat schlicht kein technisches Verständnis ... und verfügt anscheinend auch über weitaus mehr finanzielle Ressource als der Durchschnittsenthusiast, denn um das, was schon überraschenderweise heute möglich ist und genutzt wird mit klassischer Hardware umsetzen zu können, müsste man nicht nur tief ins Portemmonaie greifen, sondern eher schon stattdessen seinen Bausparvertrag plündern. ;-)
Hier merkt man wie wenig Du im Thema bist. Die Tensor Kerne werden zwar auch für FrameGen genutzt, aber der OFA (Optical Flow Accelerator) scheint der Knackpunkt zu sein. Wie bereits im Thread gesagt:

Turing - kein OFA
Ampere - OFA mit 125 TOPS
Ada - OFA mit 300 TOPS
Nur mal zur Klarstellung, den Optical Flow Accelerator gibt es schon seit Turing in der nVidia-Architektur. Mit Ampere wurde dessen Funktionalität etwas erweitert, der Durchsatz änderte sich ggü. Turing jedoch nicht nennenswert. Mit Ada Lovelace dagegen wurde die HW-Einheit deutlich durchsatzstärker und erzielt nun gut den doppelten Durchsatz, bei einer 1x1-Grid Size sogar den 2,5- bis 3-fachen Durchsatz ggü. Ampere (Turing unterstützt diesen Operationsmodus nicht; ergänzend, welche Grid Size in der in DLSS 3 implementieren Frame Generation zur Anwendung kommt, ist unbekannt).
Entsprechend hat nVidia neben dem Vertriebsargument auch einen validen technischen Grund FG erst ab/mit Ada Lovelace anzubieten. Im worst case für die einschlägige Klientel ist der möglicherweise gar zwingender als es so manchem lieb sein dürfte.
Darüber hinaus ist aber selbstredend auch alleine schon der vertriebstechnische Aspekt ein ausreichender Grund für nVidia und selbst den kann man denen nicht in Abrede stellen, denn immerhin investieren die hier viel und niemand kann denen absprechen oder verbieten einen ROI zu generieren. Da niemand gezwungen ist deren Produkte zu kaufen, kann man sich bei Bedarf ja auch durchaus bei anderen Herstellern umsehen und z. G. gibt es ja mittlerweile schon zwei davon.
 
Jo, und das Ziel sollte sein, weniger Getrickse notwendig zu haben.
Warum? Wenn es doch die Spielerfahrung verbessert und nicht verschlechtert...

Man kann es entweder annehmen und dankbar für solche Möglichkeiten sein oder halt ewig und 3 Tage lang im Grumpy Old Cat Style Brute Force Rendering verlangen... Dann stellt sich mir wieder die Frage: Warum zum Teufel? ^^
 
Mal sehen wann die ersten Spiele das unterstützen und was die Performance tatsächlich bringt.

Ich meine jetzt "normale" Spiele auch für Normalo-Spieler. Die CP2077 Techdemo die ohne 4090 ja laut NVidia ja sozusagen unspielbar ist ist seit heute für mich uninteressant geworden.
 
Mal sehen wann die ersten Spiele das unterstützen und was die Performance tatsächlich bringt.

Ich meine jetzt "normale" Spiele auch für Normalo-Spieler. Die CP2077 Techdemo die ohne 4090 ja laut NVidia ja sozusagen unspielbar ist ist seit heute für mich uninteressant geworden.
Ich spiele CP2077 incl. Pathtracing in UHD auf meiner RTX4070Ti.
Etwas Feintuning an den Reglern und es sieht eben klasse aus und läuft angenehm flüssig.

Ihr habt alle viel zu abgehoben Ansprüche.
Für mich ist wichtig, was dabei rauskommt, nämlich atemberaubende Grafik. Wie das technisch umgesetzt wird, ist mir völlig egal.
Wer keine Fake-Frames oder andere optische Täuschungen will, soll seinen PC verschrotten und raus in die frische Natur gehn.
der Computer basiert nämlich nur darauf........ naaa? ja genau: Binärcode alles nur 00010110..... und fertig ist das "Zauberbild"

Die Realität ist absolut flimmer- und schlierenfrei, solange man Alkohol und Drogen weglässt...
 
Zuletzt bearbeitet:
Ach ich weis nicht..
ich würde schon gerne mal ein COD mit FG probieren.. vielleicht wird das neue MW3 das ja haben..

und ich denke sogar das dass ganze sehr gut funktionieren könnte


Ansonsten.. was meint ihr was hier die hütte am Freitag brennen wird wenn es KEIN FSR3 gibt
 

Ich weiß jetzt nicht, was es an meinem Satz auszusetzen gibt.
Sollte das Ziel also nicht sein, dass man kein Getrickse braucht?
Dass ist doch sogar die große Idee hinter RT, dass man nicht mehr mit shadow maps, baked lighting, screen space reflections usw. tricksen muss, sondern halbwegs realistisch berechnetes Licht hat.

Ansonsten.. was meint ihr was hier die hütte am Freitag brennen wird wenn es KEIN FSR3 gibt

Naja, mir persönlich sind künstliche Frames egal, egal von welcher Marke, da ich sehr sensibel bin bei Bildunruhe und Artefakten.
Ich erwarte mir eigentlich aber auch nicht, dass AMD das irgendwie mit ihren aktuellen RT Kernen in RDNA umsetzen kann. Zumindest nicht gescheit, wenn dann gleichzeitig auch noch RT laufen soll. Und nur für RT braucht man ja sowas, weil die Karten sonst noch zu lahm dafür sind. Am realistischsten halte ich eine Einbindung auf qualitative wie FSR 1 und DLSS 1 noch für wahrscheinlich... und die waren ja ein Graus.
Insofern denke ich mal, dass es nur zögerlich und wenig Unterstützung überhaupt dafür gibt. Vielleicht in Starfield als Überraschung? Wer weiß.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gott sieht das geil aus.
Geht so. Es sieht gut aus, ist aber meilenweit von Cyberpunk entfernt. Zudem ist Alan Wake 2 ein scheiß Epic Exclusive. So was unterstütze ich nicht, wird nicht gekauft.
 
Ich weiß jetzt nicht, was es an meinem Satz auszusetzen gibt.
Sollte das Ziel also nicht sein, dass man kein Getrickse braucht?
Dass ist doch sogar die große Idee hinter RT, dass man nicht mehr mit shadow maps, baked lighting, screen space reflections usw. tricksen muss, sondern halbwegs realistisch berechnetes Licht hat.

Mit Raytracing nimmt man einen großen Teil der Tricks raus und berechnet Licht erstmalig, zumindest grob, korrekt. Noch nicht für jedes Pixel, da kommen dann eben Denoiser ins Spiel. Trotzdem ist RT-Beleuchtung (Global Illumination, Reflections, Shadows, Ambient Occlusion) den Raster Effekten deutlich überlegen.

Vorallem gibt es jetzt echte dynamische Lichtberechnung! Heißt jedes Objekt wirft Schatten, sendet Licht aus wenn eine Lichtquelle ist, etc. Das muss beim Rastern alles von Hand gemacht werden.

Naja, mir persönlich sind künstliche Frames egal, egal von welcher Marke, da ich sehr sensibel bin bei Bildunruhe und Artefakten.
Ich erwarte mir eigentlich aber auch nicht, dass AMD das irgendwie mit ihren aktuellen RT Kernen in RDNA umsetzen kann. Zumindest nicht gescheit, wenn dann gleichzeitig auch noch RT laufen soll. Und nur für RT braucht man ja sowas, weil die Karten sonst noch zu lahm dafür sind. Am realistischsten halte ich eine Einbindung auf qualitative wie FSR 1 und DLSS 1 noch für wahrscheinlich... und die waren ja ein Graus.
Insofern denke ich mal, dass es nur zögerlich und wenig Unterstützung überhaupt dafür gibt. Vielleicht in Starfield als Überraschung? Wer weiß.

DLSS / Frame Gen / FSR läuft nicht auf RT-Einheiten. Weder bei Nvidia noch bei AMD. Als würde man mit einer Wand sprechen...
 
Geht so. Es sieht gut aus, ist aber meilenweit von Cyberpunk entfernt. Zudem ist Alan Wake 2 ein scheiß Epic Exclusive. So was unterstütze ich nicht, wird nicht gekauft.

In meinen Augen kann Cyberpunk nur eine visuelle Sache wirklich gut und das ist Raytracing. Alle anderen optischen Bereiche sind nichts besonderes, teilweise sogar deutlich schlechter als bei anderen Games.

Was ich immer wieder nenne ist das Pop In. Wenn Schilder vor einem aufgebaut werden und teils in 50m Entfernung wie durch Magie in der Luft schweben, ist das einfach schade.

Atmosphäre, Sound und co. sind nämlich super.

Freu mich aber auf das DLC und den ganzen Verbesserungen, hoffe aber eben auch auf andere optische Verbesserungen außer Raytracing.

Bin auch gespannt ob man dann endlich auch mal in Pfützen und co. V sehen wird ^^
 
In meinen Augen kann Cyberpunk nur eine visuelle Sache wirklich gut und das ist Raytracing. Alle anderen optischen Bereiche sind nichts besonderes, teilweise sogar deutlich schlechter als bei anderen Games.

Was ich immer wieder nenne ist das Pop In. Wenn Schilder vor einem aufgebaut werden und teils in 50m Entfernung wie durch Magie in der Luft schweben, ist das einfach schade.

Atmosphäre, Sound und co. sind nämlich super.

Freu mich aber auf das DLC und den ganzen Verbesserungen, hoffe aber eben auch auf andere optische Verbesserungen außer Raytracing.

Bin auch gespannt ob man dann endlich auch mal in Pfützen und co. V sehen wird ^^
Für die verschiedenen LODs gibt es Mods. Klar ist eine offizielle Lösung besser, aber immerhin lässt sich nachhelfen.
 
Zurück