News DLSS 3.5: Nvidia gibt neues DLSS-Upgrade für alle RTX-GPUs frei

Soweit ich weiß, arbeitet FG mit "Optical Flow Accelerator". Hardwareseitig vorhanden in Ampere und Turing.
Bryan Catanzaro von Nvidia meinte auch, es sei theoretisch möglich auf Ampere und Turing.
Vielleicht bringt man es nicht für Turing und Ampere, da es das größte Verkaufsargument von Ada.
Die Wahrheit liegt wohl irgendwo dazwischen.

Der OFA ist in Ada doppelt so schnell im Vergleich zu Ampere. Turing ist vermutlich noch langsamer. Wenn die Hardware zu langsam ist um Informationen schnell genug zu liefern um das Zwischenbild zu generieren, dann verliert man ggf. FPS anstatt mehr zu erhalten.

Dasselbe lässt sich ja bei FSR2 vs DLSS beobachten, DLSS liefert auf gleicher Qualitätsstufe immer ein paar mehr FPS bei höherer Qualität. Shader vs Shader + Tensor Cores.
 
Frame Generation ist den Ada Karten (4000er) vorbehalten aufgrund fehlender Hardware in Turing und Ampere.
Du hast bestimmt keine Quelle für diese Aussage, oder?

Laut Nvidia ist der Optical Flow Accelerator (OFA) ein wichtiger Pfeiler des Erfolgs. Dabei handelt es sich um eine dedizierte Recheneinheit, welche in jedem Grafikprozessor einmal vorhanden ist. Ampere verfügt über die erste Inkarnation eines OFA, mit bestenfalls 126 Tera-OPS (Geforce RTX 3090 Ti). Die Ada-Chips verfügen hingegen über je einen OFA mit über 300 TOPS, ergo Faktor 2,5. Diese Verbesserung macht Frame Generation laut Nvidia erst ohne lästige Latenz bei guter Qualität praxistauglich, theoretisch ist jedoch auch eine RTX-30-GPU zu DLSS 3 in der Lage.
 
Du hast bestimmt keine Quelle für diese Aussage, oder?


Du hast die Quelle doch geliefert? Danke dafür übrigens.

Wenn Turing keinen OFA, Ampere V1 des OFA und Ada V2 hat, und Frame Generation nur mit V2 richtig läuft, dann FEHLT doch offensichtlich Hardware in den älteren Gens für das Feature.

Ich orakel mal: AMD's Frame Generation wird auch nur auf RDNA3 laufen, aus demselben Grund.
 
Du hast die Quelle doch geliefert? Danke dafür übrigens.

Wenn Turing keinen OFA, Ampere V1 des OFA und Ada V2 hat, und Frame Generation nur mit V2 richtig läuft, dann FEHLT doch offensichtlich Hardware in den älteren Gens für das Feature.
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?
 
Ich orakel mal: AMD's Frame Generation wird auch nur auf RDNA3 laufen, aus demselben Grund.
Die ganze bisherige Posse um FSR3 und den Zeitablauf (November 2022 groß angekündigt, wir haben Ende August 2023 und es gibt noch nicht einmal handfestes Material, von unterstützenden Spielen logischerweise ganz zu schweigen...) deutet eher darauf hin, dass AMD sowas nie in der Entwicklung hatte, bevor Nvidia im August letzten Jahres dann Frame Generation offiziell vorgestellt hat.

Insofern vermutlich relativ egal, ob RDNA3 oder nicht. Irgendeine vermeintliche "Secret Sauce" dafür gibt es bei RDNA3 nicht. Ist halt ein Problem, wenn man keine dedizierten Hardwareeinheiten für sowas verbaut...
 
Die ganze bisherige Posse um FSR3 und den Zeitablauf (November 2022 groß angekündigt, wir haben Ende August 2023 und es gibt noch nicht einmal handfestes Material, von unterstützenden Spielen logischerweise ganz zu schweigen...) deutet eher darauf hin, dass AMD sowas nie in der Entwicklung hatte, bevor Nvidia im August letzten Jahres dann Frame Generation offiziell vorgestellt hat.

Insofern vermutlich relativ egal, ob RDNA3 oder nicht. Irgendeine vermeintliche "Secret Sauce" dafür gibt es bei RDNA3 nicht. Ist halt ein Problem, wenn man keine dedizierten Hardwareeinheiten für sowas verbaut...
Das sehe ich auch so. AMD musste bestimmt schnell bzw. mindestens überhastet was erzählen, damit sie nicht den Eindruck machen abgehängt zu werden.
 
Ich habe Portal bisher nicht gespielt. Dann werde ich mal auf Portal RTX warten und schauen was DLSS 3.5 so bringt.
Cyberpunk interessiert mich aufgrund der Ego Perspektive nicht (Shooter). Alan Wake 2 wird dieses Feature zwar unterstützen, aber ich glaube nun mal nicht, dass dieses Spiel in dem Ausmaß gesponsert wird, wie die andere zwei Titel.
 
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?

Dabei handelt es sich um eine dedizierte Recheneinheit, welche in jedem Grafikprozessor einmal vorhanden ist. Ampere verfügt über die erste Inkarnation eines OFA, mit bestenfalls 126 Tera-OPS (Geforce RTX 3090 Ti). Die Ada-Chips verfügen hingegen über je einen OFA mit über 300 TOPS, ergo Faktor 2,5.

Turing - kein OFA
Ampere - OFA V1 mit 126 TOPS
Ada - OFA V2 mit 300 TOPS

Welchen Begriff hab ich jetzt erfunden? Das V1-V2? Das war doch nur zur Verdeutlichung dass unterschiedliche Hardware verbaut wurde...
 
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?

Screenshot_20230823_102512_Samsung Internet.jpg
 
Der Vergleich zu FSR steht und stand hier nie zur Debatte und über Performance, Balanced, Quality wurde nie gesprochen.
Ja natürlich nicht, ansonsten würde das ja aufzeigen wie weltfremd dein Einwand ist.
Du möchtest natürlich gezielt DLSS 3.5 kritisieren und schlecht reden, also versuchst du eine Angriffsfläche zu finden, was aber ein Rohrkrepierer ist.
Es geht mir einzig um das native Bild gegenüber dem DLSS 3.5 Bild.
Ja und das ist trotz dem Performance Mode, sprich Full HD insgesamt deutlich hochwertiger als das Native Bild, bis auf Nuancen in sehr weiter Entfernung, die für einen BQ- Heini wie mich äußerst dürftig zu erkennen sind.
als einer einzigen schillernden Pfütze, in der das spiegelnde Bild nun womöglich etwas klarerer aussieht...
Die ganze Beleuchtung wurde durch den Denoiser von DLSS3.5 massiv aufgewertet, siehst du das wirklich nicht? Du möchtest mich doch auf den Arm nehmen! Die weit entfernten Palmen sehen für den Performance Mode+ Frame Gen absolut top aus, ich sehe dort den Unterschied leider wirklich nicht, wenn ich auf das Bild blicke.
aber gut, guck du halt Pfütze im Detail und ich guck lieber Palmen..
Genau. :lol:
"Wie falle ich nicht blind auf das Marketing eines aktienkursorientierten US-Unternehmens herein"-Kursus teil..
Du fällst halt über deinen eigenen Markenfetischismus und zwingst dich ein krass besseres Bild ( Beleuchtung/ Reflektion) , was DLSS3.5 zuzuschreiben ist abzuwerten, indem du bei DLSS Performance in weitläufigeren Regionen etwas weniger Qualität vermutest, die mir als BQ- Heini nie auffallen würde.

Du stellst dann einfach auf Balanced um und schon ist dein Kritikpunkt zu DLSS3.5 weg, der gar nicht zu 3.5 gehörte.
und um es nochmls herauszustellen, vllt auch versöhnlich gemeint, ich "beäuge" diesbezüglich jedes der drei Unternehmen identisch. Sei es AMD, Intel oder Nvidia.
Dann kannst du diese Qualität gerne mit FSR 2 Quality oder Performance vergleichen und feststellen, dass Q nicht einmal mit DLSS3.5 Performance mithalten kann.
Am Ende wollen Sie alle nur unser Geld und ermogeln sich mit diesen Ansätzen Leistung, die nicht wirklich ausreichend in der veräußerten Hardware vorhanden ist. Fortschritte müssen gemacht werden, keine Frage, dennoch..
Warum bewertest du dann nicht fair, sondern suchst das Haar im Heuhaufen?
 
Auch deswegen
Aber auch um zu sehen, was aus der 2080 rauszuholen ist.
Performance: dasselbe wie mit DLSS2, nur optisch etwas mehr :)
Die ganze bisherige Posse um FSR3 und den Zeitablauf (November 2022 groß angekündigt, wir haben Ende August 2023 und es gibt noch nicht einmal handfestes Material, von unterstützenden Spielen logischerweise ganz zu schweigen...) deutet eher darauf hin, dass AMD sowas nie in der Entwicklung hatte, bevor Nvidia im August letzten Jahres dann Frame Generation offiziell vorgestellt hat.
ja, so ist marketing halt.
Genauso wie man bei der Ankündigung von RTX Karten zum Thema Raytracing gesagt hat man hatte das eh in Planung, bringe es aber erst, wenn es massentauglich ist und dann zum günstigen Preis. Ebenso ähnlich klangen die Angaben bezüglich DLSS.
Und die einzige Karte die bislang alle RT/PT Spiele ordentlich schafft/massentauglich ist MMN die 4090 - allerdings nicht zu dem Preis.
Ich hoffe die 5XXX Serie macht beim RT nochmal einen enormen Sprung (nicht nur dank FG), sodass nicht nur die 5080 sondern auch die 5070 (und 5060 Ti) ähnliche Performance hinblättern - dann käme RT Leistung in interessante Preisbereiche (sofern es keine Erhöhungen gibt)
Und ich hoffe auch, dass AMD alle Ressourcen sammelt für einen ordentlichen Architektur-Overhaul, damit man wie damals mit RDNA1/2 wieder an Nvidia rankommt (diesmal aber auch in RT). Ebenso hoffe ich, dass Intel endlich nachlegt.
Insofern vermutlich relativ egal, ob RDNA3 oder nicht. Irgendeine vermeintliche "Secret Sauce" dafür gibt es bei RDNA3 nicht. Ist halt ein Problem, wenn man keine dedizierten Hardwareeinheiten für sowas verbaut...
Ja, man kann über Software halt nur bedingt viel machen, ist richtig.
Und die Hardware dafür war offenbar schon länger bei Nvidia in Entwicklung und im Test (Ampere), aber nicht zufriedenstellend.
AMD ist hier halt etwas zurück, was aufgrund der Größe aber nicht verwundert.
Das ist ok, es kommt wenigstens trotzdem, wenn auch später und per Update.
Intel ist übrigens auch noch im Spiel, was machen die?
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?
Man muss ja jetzt keine Giftpfeile verschießen. Er nannte halt es V1 und V2, sagen wir erster und zweiter Versuch. Vielleicht hat sich hardwaretechnisch kaum was geändert, aber sie haben erkannt, dass es erst befriedigend läuft, ab einer gewissen Grundleistung (300 Gflops). Was anscheinend beim Testen festgestellt wurde ist die optimale Mindestleistung für FG( es würde wohl auch vorher laufen, aber unbefriedigend/ruckelhaft, womit sich dann eine 1000€ GPU mit speziellen Features nicht gut bewerben lässt).
Das kann natürlich auch Marketinggewäsch sein um das Feature bewusst für die 4xxx GEn zu bringen, aber irgendwas wird schon dran sein, sonst würde man nicht überall* die gleiche "Variante"/Version oder wie auch immer man es jetzt nennen mag verbauen


* so habe ich dein Zitat im Beitrag verstanden
 
Zuletzt bearbeitet:
Das erste DLC nach 2,5 Jahren seit Veröffentlichung. Dazu noch etliche Patches und Änderungen am Gameplay, sowas gab es wohl selten bei einem AAA Titel und nicht zu vergessen, das die Entwicklung des Spiels 2015 gestartet ist und damit 5 Jahre gebraucht hat.
 
Immerhin gibt es eine Alternative. Nvidia hat ganz andere Ressourcen. Das AMD häufig nur reagieren kann liegt an den ungleichen Verhältnissen der Unternehmen. AMD wird auf unabsehbarer Zeit die KI-Qualitäten von Nvidia nicht erreichen.

Aber: Es gibt noch die Fraktion Spieler, die es nicht stört, wenn das Upscalling einen Tick schlechter aussieht.

Dafür ist FSR durchaus zu gebrauchen, und weiterentwickelt wird es (immerhin) ja auch.
Lustig wie jedes Mal Xilinx vergessen wird.
AMD hat sich hier massives K.I Knowhow eingekauft.
Wann hier mit Ergebnissen für uns Konsumenten zu rechnen ist, steht natürlich noch in den Sternen.
Aber das Knowhow ist da.
 
Wenn Nvidia DLSS 2 in Version 3.5 auch für Turing nutzbar macht, kostet es wahrscheinlich Leistung und ist alls Appetitmacher fürs Upgrade gedacht. :ugly:
 
Geil! Das freut mich richtig. Es ist mMn nicht selbstverständlich, dass sie diese Baustelle angehen, einfach weil sie keinen Druck hatten.
Das steigert die optische Qualität merklich und ist somit zu begrüßen.
 
Wenn Nvidia DLSS 2 in Version 3.5 auch für Turing nutzbar macht, kostet es wahrscheinlich Leistung und ist alls Appetitmacher fürs Upgrade gedacht. :ugly:

Eher nicht, es werden ja "einfach" die bisherigen, per Hand erstellten, Denoiser gegen einen KI-trainierten Denoiser ausgetauscht. Deswegen sieht man da auch ein paar FPS mehr, der eine Denoiser ist schneller als mehrere davon. Wobei das laut Video je nach Spiel variiert.
 
Der bessere Denoiser für Raytracing ist, im Gegensatz zu den falschen Frames, eine richtig gute Entwicklung. Man kann ja u.a. in Quake RT einzelne Effekte zu- und abschalten. Darunter auch den im Spiel implementierten Denoiser für Raytracing Strahlen und da merkt man, wie da weiterhin noch ordentlich getrickst werden muss.
Je weniger man tricksen muss bei so einer Technologie, umso besser. Aber, ohne tricksen gehts halt auch bei einer 4090 noch ganz lange nicht.
Ich hoffe jedenfalls für die Nvidia Besitzer, dass man diese Technologien weiterhin getrennt zu- und abschalten kann und man nicht gezwungen wird entweder alles oder nichts zu nehmen.

Nein, PCGH ist nie böse bzw. ich würde nie so etwas einem Redakteur unterstellen. Die Erklärung wegen der NDA kam ja erst später, weil videocardz.com so etwas schon veröffentlicht hatte, und dort kein Hinweis auf eine NDA zu finden ist, musste man ja sozusagen Insider sein um das zu wissen...

Man kann auch manchmal einfach hinnehmen, dass es einfach ein paar Stunden länger dauert.
Der Grund ist doch vollkommen egal.
Tut mir leid, wenn ich dir das so direkt sage, aber es ist doch ziemlich lächerlich das überhaupt meinen ansprechen zu müssen.
Framegen ist technisch halt nicht auf älteren Karten machbar

Also das kaufe ich Nvidia nicht ab, du etwa schon?
Man hätte es sicherlich auch für die "alten" Tensor Kerne implementieren, selbst wenn sie nicht so viele falsche Frames generieren würden.
Was passiert eigentlich ohne RT?
Geht dann 3.5 auch auf älteren RTX und GTX?

Könnte man dann einfach dll´s in ältere Games reinkopieren?
(quasi als Ersatz für 2.0)

DLSS, jedenfalls ab 2.0, bedingt die RT Kerne.
Und FSR 1 / DLSS 1 tut sich ja keiner freiwillig an.
Nur das DLSS 3 doch bislang, selbst wenn man die Funktion FG weglässt nicht auf RTX 2000/3000 unterstützt wurde.
Weshalb wird nun behauptet (zumindest lese ich das hier aus einigen Kommentaren heraus) dass das verbesserte Upscaling von DLSS 3 die ganze Zeit unterstützt wurde. O.o

Der Algorithmus für DLSS wurde immer verfeinert, er hat sich aber nicht grundlegend an die gekoppelte Hardware geändert.
Frame Generation ist davon getrennt zu beachten.
Die ganze bisherige Posse um FSR3 und den Zeitablauf [..] deutet eher darauf hin, dass AMD sowas nie in der Entwicklung hatte, bevor Nvidia im August letzten Jahres dann Frame Generation offiziell vorgestellt hat.

Das denke ich auch.
Und ihre RT Kerne werden sie für so einen Schwachsinn auch nicht einfach umschreiben können. Meines Wissens sind die Tensor Kerne allgemeiner aufgebaut und können somit für, theoretisch z.B. auch wissenschaftliche, andere Zwecke einfacher verwendet werden. Die RT Kerne bei RDNA sind wesentlich spezieller ausgelegt.
Die Argumentation ist nicht einmal mehr Haarspalterei. Du erfindest Begriffe, die es nicht gibt, um deine Behauptung zu stützen. Oder hast du eine Quelle für "V1" und "V2"?

Nvidia hat ihre Tensor Kerne schon in unterschiedliche Versionen unterteilt und dies zumindest PR-technisch so kommuniziert (wenn auch vielleicht nicht mit den Namen).
Dass deswegen FG auf den älteren Kernen nicht laufen würde, ist damit natürlich nicht gesagt.
Wahrscheinlich würd FG auch auf einer 3090 laufen, wenn möglicherweise auch mit weniger fake Frames, sie wollten es halt nicht.
 
Zuletzt bearbeitet:
Turing - kein OFA
Ampere - OFA V1 mit 126 TOPS
Ada - OFA V2 mit 300 TOPS

Welchen Begriff hab ich jetzt erfunden? Das V1-V2? Das war doch nur zur Verdeutlichung dass unterschiedliche Hardware verbaut wurde...
Dennoch gibt es keinen Hinweis, dass die Umsetzung von FG durch den Funktionsumfang der Recheneinheiten eingeschränkt wurde, sondern rein der Leistung wegen. Edit: ninja'd von @Krabonq
Dieses Vorgehen ist bei Nvidia nicht neu, dass sie Features einfach softwareseitig sperren, siehe RTX Voice und die RTX API Erweiterung. Beides wurde irgendwann später für Pascal freigegeben, obwohl man zum Launch von Turing erklärt hat, es gebe eine Hardwareanforderung für beides.

Edit2:
Man muss ja jetzt keine Giftpfeile verschießen. Er nannte halt es V1 und V2, sagen wir erster und zweiter Versuch. Vielleicht hat sich hardwaretechnisch kaum was geändert, aber sie haben erkannt, dass es erst befriedigend läuft, ab einer gewissen Grundleistung (300 Gflops). Was anscheinend beim Testen festgestellt wurde ist die optimale Mindestleistung für FG( es würde wohl auch vorher laufen, aber unbefriedigend/ruckelhaft, womit sich dann eine 1000€ GPU mit speziellen Features nicht gut bewerben lässt).
Das kann natürlich auch Marketinggewäsch sein um das Feature bewusst für die 4xxx GEn zu bringen, aber irgendwas wird schon dran sein, sonst würde man nicht überall* die gleiche "Variante"/Version oder wie auch immer man es jetzt nennen mag verbauen
Interessant ist daran auch, dass Nvidia teuere Fläche an Silizium für diese speziellen Recheneinheiten ungenutzt brach liegen lässt. Das ist ein ziemlicher krasser Fail, rückblickend betrachtet.
 
Zurück