Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Trotzdem muss man dies nicht unbedingt für gut befinden. Das Nvidia darüber hinaus DLSS3 den 4000er Karten vorbehält ist die allergrößte Frechheit :schief:
So einfach ist das leider nicht. Nvidia verfolgte schon immer andere Ansätze als AMD. Letztere setzen auf offene Standards und Kompatibilität für alle, opfern dabei aber die Möglichkeit, besonders weit zu gehen. Nvidia ist hier mehr Innovator, DLSS 3 ist eine ganz neue Form des zeitlichen Upsamplings - und die macht man eben nicht mal eben, das braucht Forschung und Rechenwerke, um die Idee in Echtzeit umsetzen. Nvidia setzt das mittels proprietärer Ansätze um. Das muss man nicht mögen, es ist aber durchaus nachvollziehbar. Wenn ich meinen Kunden etwas Neues liefern möchte, muss ich manchmal auch alte Zöpfe abschneiden und/oder unbeliebte Entscheidungen treffen.

Schauen wir mal, was Nvidia zu unseren löchernden Fragen sagt, ich erwarte da noch Feedback. Möglicherweise kommt DLSS 3 zumindest noch für Ampere, denn spätestens mit den kleinen Ada-SKUs (AD104-Salvage und kleiner) ergibt das Argument mit den neuen Tensorkernen keinen Sinn mehr.

MfG
Raff
 
Schauen wir mal, was Nvidia zu unseren löchernden Fragen sagt, ich erwarte da noch Feedback. Möglicherweise kommt DLSS 3 zumindest noch für Ampere, denn spätestens mit den kleinen Ada-SKUs (AD104-Salvage und kleiner) ergibt das Argument mit den neuen Tensorkernen keinen Sinn mehr.
Ich schätze mal nicht, denn sonst würde sich der kauf einer 1500-2000€ Ada GPU ja nicht mehr lohnen.
 
Adas Tensorkerne beherrschen neue Formate und takten höher als die von Ampere, daher ist ihre Leistung höher, außerdem spricht Nvidia im Kontext von DLSS von einem "Optical Flow Accelerator", welcher irgendwie dazugehört und der bei Ada deutlich aufgemotzt wurde. Aber wie oben gesagt, ab einem bestimmten Punkt ergibt das keinen Sinn mehr. Ein AD106 ("RTX 4060") unterliegt einer RTX 3090 beispielsweise in jeder Disziplin, sodass die Argumentation "Ada = DLSS 3, Ampere = DLSS 2" um die Ohren fliegt.

MfG
Raff
 
...... Das muss man nicht mögen, es ist aber durchaus nachvollziehbar. Wenn ich meinen Kunden etwas Neues liefern möchte, muss ich manchmal auch alte Zöpfe abschneiden und/oder unbeliebte Entscheidungen treffen.


MfG
Raff
Ampere Karten sind "alte Zöpfe" alles klar. Ich frag mich langsam echt was mit den Leuten hier nicht stimmt bei soviel Überheblichkeit :rolleyes:.
 
DLSS 3 ist eine ganz neue Form des zeitlichen Upsamplings - und die macht man eben nicht mal eben, das braucht Forschung und Rechenwerke, um die Idee in Echtzeit umsetzen.
Wobei es doch wohl so aussieht, dass es keinen Grund gibt, warum auf 3xxxer das ganze nicht laufen sollte.
Möglicherweise kommt DLSS 3 zumindest noch für Ampere
Ich gehe davon aus, dass man jetzt die großen 4er Karten promoten will und dann hinterher sich wieder einmal (auch dies wäre ja in der jüngeren Vergangenheit nicht das erste Mal) kleinlaut hinstellt und für Ampere freigibt.

Wenn bestimmte Teile eines Chips um Faktor 4 zulegen, dann ist der "heiße Scheiß" von gestern nun mal ein alter Zopf. Das nennt sich Fortschritt und eigentlich wollen wir den doch alle - oder nicht?
So wie es sich anhört, legen aber nicht gewisse Teile des Chips um den Faktor 4 zu, sondern wir erhalten bis zu 4 facher Performance auf dem Bildschirm, wo aber dann unter Umständen jedes zweite Bild nur geraten ist und daher ja nun wirklich nicht ernsthaft gezählt werden kann. Also effektiv gehe ich von doppelter FPS Zahl bei RT Spielen aus und ca. 50% Plus im reinen Rasterizing. Der Rest ist Softwaregeschummel, wofür beide Anbieter in der Vergangenheit schon gescholten wurden (gut, da wurde nicht kommuniziert, dass man "schummelt")
Aber MC ist doch nicht wichtig? Die E-Kerne von ADL sind doch schließlich nutzlos und seit dem Release des 5800X3D braucht auf einmal auch niemand mehr als 8 Kerne. :ugly:
Wenn ich etwas sarkastisch antworten würde, dann würde ich in etwa folgende Aussage treffen:

MC ist je nach Gusto nicht wichtig!

Im Ernst, ich weiß jetzt schon, dass das blaue Lager hier im Forum RL abfeiern wird für die überragende MC Performance, so wie man den 5800X3D schon genau deswegen niedergemacht hat. Das man in den Jahren davor die MC Performance immer als nahezu unwichtig angesehen hat wird gekonnt ignoriert. Genauso wird das "rote"Lager darauf pochen, dass MC Performance wichtig ist und da immer noch ein Vorsprung besteht, usw.

Geht mir alles ein wenig auf den Geist.

So wie die Intelchips ihre Berechtigung trotz mangelnder MC Performance hatten, so hatte AMD die Berechtigung trotz mangelnder SC Performance. Im Gaming waren beide CPUs über nun einige Jahre schon ziemlich gleichwertig und das wird sich mit der kommenden Gen in meinen Augen nur weiter annähern (Intel holt im MC auf, AMD im SC)

Ich muss jetzt mal fragen: Hast du die letzten paar Jahre unter einem Stein geschlafen? :confused:
Ich kann seine Aussage verstehen!
Das hat auch nix mit unter einem Stein geschlafen zu tun, Upscaling ist ja schon seit Jahren ein Thema, es wurde ja nur qualitativ enorm verbessert. Aber auch für mich hat es eher was im mittleren Segment oder eben zur Erweiterung der Lebensdauer einer Karte zu tun, wenn ich heute High End kaufe, dann will ich nicht upscalen, sondern Nativ spielen.
Wobei ich hier eben gar nicht die große Problematik sehe, denn nach meinem Gusto konnten die HighEnd Karten von Ampere dies schon bewältigen (RT Ultra war halt noch so das letzte Problem) und die neue Gen wird das ja nicht schlechter machen, sondern gerade im bisher noch anfälligen Bereich RT eine große Schippe drauflegen. Wenn ich dann CP2077 dann in nativer Auflösung mit RT Ultra spielen kann bin ich glücklich und würde eben sagen, dass die Karte das erfüllt, was ich erwarte, ganz ohne DLSS.

Für mich ist DLSS eben auch nur eine Form der Unterstützung und kein dauerhaft aktiviertes Feature (unabhängig davon, dass ich es aktuell gar nicht habe).
Das Nvidia darüber hinaus DLSS3 den 4000er Karten vorbehält ist die allergrößte Frechheit :schief:
Frechheit würde ich es gar nicht mal nennen, sondern eher Taktik! NV hat kostentechnisch ein noch viel viel größeres Problem als alle anderen. Der Chip schrumpft zwar von 8 auf 4nm aber in Wirklichkeit schrumpft er eben nicht und man nutzt an allen Ecken jeweils nur das beste vom besten (GDDR 23gbps) usw. und braucht dies scheinbar auch für seine Karten. Insofern muss man die Karten im Vergleich zur Vorgängergeneration nochmals deutlich verteuern und du kannst halt eine 4080 12GB für 1.099 EUR nur schwerlich am Markt platzieren, wenn die Vorgängergeneration nahezu die gleiche Leistung für 200 EUR weniger bietet (3080 Ti für 899 EUR). Daher hat man hier viel auf den Softwareschummel gesetzt und versucht nun den "MM Käufern" zu suggerieren, dass die Karten bis zu 4 mal schneller sind! Nennt sich Marketing und wäre wohl gelogen und problematisch, wenn man Ampere auch Zugang zu DLSS3 verschaffen würde, dann wäre die 4080 eben gegen 3080Ti nicht wirklich vorne.
 
So wie es sich anhört, legen aber nicht gewisse Teile des Chips um den Faktor 4 zu, sondern wir erhalten bis zu 4 facher Performance auf dem Bildschirm, wo aber dann unter Umständen jedes zweite Bild nur geraten ist und daher ja nun wirklich nicht ernsthaft gezählt werden kann. Also effektiv gehe ich von doppelter FPS Zahl bei RT Spielen aus und ca. 50% Plus im reinen Rasterizing. Der Rest ist Softwaregeschummel, wofür beide Anbieter in der Vergangenheit schon gescholten wurden (gut, da wurde nicht kommuniziert, dass man "schummelt")
Faktor 4 war auf die reine "Optical Flow Leistung" bezogen, GA102 Full Fat gegen AD102 Salvage. Stand jetzt weiß ich aber nicht, wie schöngerechnet das ist. FP32-Leistung ist demgegenüber "nur" um Faktor ~2 gestiegen.

MfG
Raff
 
Faktor 4 war auf die reine "Optical Flow Leistung" bezogen, GA102 Full Fat gegen AD102 Salvage. Stand jetzt weiß ich aber nicht, wie schöngerechnet das ist. FP32-Leistung ist demgegenüber "nur" um Faktor ~2 gestiegen.

MfG
Raff
OK, hier habe ich etwas andere Infos, welche nun richtig sind, weiß ich natürlich nicht, aber CB schreibt folgendes:

Den für das Feature wichtigen „Optical Flow Accelerator“ gibt es zwar auch schon bei älteren GeForce-RTX-Beschleunigern, für Ada Lovelace wurde dieser aber überarbeitet und ist nun um den Faktor 2 bis 2,5 schneller.
Jetzt hab ich nochmal weitergesucht und bin auch bei euch fündig geworden:

etwa beim Optical Flow Accelerator. Der soll jetzt das 2- bis 2,5-fache der Leistung abliefern, die noch bei Ampere zu haben war.
PCGH
 
Ich kann seine Aussage verstehen!
Das hat auch nix mit unter einem Stein geschlafen zu tun, Upscaling ist ja schon seit Jahren ein Thema, es wurde ja nur qualitativ enorm verbessert. Aber auch für mich hat es eher was im mittleren Segment oder eben zur Erweiterung der Lebensdauer einer Karte zu tun, wenn ich heute High End kaufe, dann will ich nicht upscalen, sondern Nativ spielen.
Wenn aber die Bildqualität so gut wie gar nicht oder nur geringfügig darunter leidet, sehe ich eigentlich keinen Grund, Upscaling nicht zu nutzen. Eben WEIL dadurch auch die Lebensdauer der Karte steigt und mehr Performance rausgekitzelt wird.

Wobei ich hier eben gar nicht die große Problematik sehe, denn nach meinem Gusto konnten die HighEnd Karten von Ampere dies schon bewältigen (RT Ultra war halt noch so das letzte Problem) und die neue Gen wird das ja nicht schlechter machen, sondern gerade im bisher noch anfälligen Bereich RT eine große Schippe drauflegen. Wenn ich dann CP2077 dann in nativer Auflösung mit RT Ultra spielen kann bin ich glücklich und würde eben sagen, dass die Karte das erfüllt, was ich erwarte, ganz ohne DLSS.

Für mich ist DLSS eben auch nur eine Form der Unterstützung und kein dauerhaft aktiviertes Feature (unabhängig davon, dass ich es aktuell gar nicht habe).
Dir ist aber schon klar, dass Cyberpunk 2077 mittlerweile 2 Jahre alt ist? Spätere Spiele werden natürlich höhere Anforderungen hinsichtlich RT stellen. Und da wird Upscaling - wenn man nicht mit 30fps rum gurken will - nötig. Auch bei High End-Hardware und je nach Auflösung.
 
Ich muss jetzt mal fragen: Hast du die letzten paar Jahre unter einem Stein geschlafen? :confused:
Nein, aber denn Sinn ist für mich, Sinnlos. Entweder Power oder nicht. So denke ich schon lange darüber.
Upscaling ist doch nicht nur bei Einsteiger- und Mittelklassekarten sinnvoll. DLSS und FSR bieten - je nach Auflösung und Stufe - vergleichsweise gute Bildqualität bei deutlichem Performancegewinn. Gerade DLSS punktet hier nicht selten mit top Bildqualität. Das ist auch für High End-Klassen durchaus sinnvoll. Gerade wenn es um leistungsfressendes RT geht.
Dann kann ich doch Gleich auf dem TV Zocken, der die Pixel simuliert, was anderes ist das auch nicht.
DLSS und FSR ist in meinen Augen nur für Einsteiger- und Mittelklassekarten sinnvoll. Entweder Power da oder nicht. Alles andere ist FPS-Doping.
Und für dich als GTX1080Ti-Besitzer wäre zumindest FSR mit Sicherheit einen Blick wert.
PS: Da Downsampling, wovon du sprachst, schon gut Leistung zieht, wäre eine leistungsstarke Karte von Vorteil. ;)
Mein 1080ti, entweder sie schafft Downsampling oder nicht.
Und wenn ich das so lesen, dann denke ich:
Was schafft solch eine 4090 mit Downsampling (DSR x 4.0) und RT, bei Cyberpunk .... Wahrscheinlich 10 FPS.
Für mich ist DLSS und FSR nur schön Malerei, entweder ich schaffe die Auflösung oder nicht.
Sowas testet PCGH nicht. ECHTE POWER und nicht so ein ....
 
Nein, aber denn Sinn ist für mich, Sinnlos. Entweder Power oder nicht. So denke ich schon lange darüber.

Dann kann ich doch Gleich auf dem TV Zocken, der die Pixel simuliert, was anderes ist das auch nicht.
DLSS und FSR ist in meinen Augen nur für Einsteiger- und Mittelklassekarten sinnvoll. Entweder Power da oder nicht. Alles andere ist FPS-Doping.

Mein 1080ti, entweder sie schafft Downsampling oder nicht.
Und wenn ich das so lesen, dann denke ich:
Was schafft solch eine 4090 mit Downsampling (DSR x 4.0) und RT, bei Cyberpunk .... Wahrscheinlich 10 FPS.
Für mich ist DLSS und FSR nur schön Malerei, entweder ich schaffe die Auflösung oder nicht.
Sowas testet PCGH nicht. ECHTE POWER und nicht so ein ....
Ich versteh dein Problem nicht. Was ist denn "echte Power"? Wovon redest du denn da bitte?

Und was ist "FPS-Doping"? Sind mehr FPS jetzt schlimm, nur weil sie durch (hervorragend umgesetztes) Upscaling erreicht werden?

Ich hab eher den Eindruck, dass du dich mit dem Thema noch gar nicht auseinandergesetzt hast und hier auf "PC Master Race" machst.
 
DLSS/FSR und UHD-Upscaling wo soll da der Unterschied sein?
Da kann ich mir ein 4K-TV mit UHD-Upscaling kaufen und nehme meine 1080ti oder RaspberryPi4b, habe das gleich, nur billiger, Stromsparender und praktischer (kann ja auch TV schauen oder Streamen) .
 
Wenn aber die Bildqualität so gut wie gar nicht oder nur geringfügig darunter leidet,
Trotzdem spielen alle immer mit Ultra Details, trotzdem wollen alle RT nutzen, obwohl die Bildqualität nur geringfügig besser wird? Du merkst den Widerspruch in den Aussagen, oder?

Wobei ich mich ganz klar von den Aussagen von Gordon distanzieren möchte, ich stehe keinesfalls dem Ganzen so ablehnend gegenüber, nur kann ich dem Gedanken, Upscaling gleich Mittelklasse oder frühere Spitzenklasse schon viel abgewinnen.

Ich selber habe bisher einmal CP mit RT gespielt, Mal unabhängig von der mangelnden Leistung meiner Karte, empfand ich erst bei RT Ultra einen geringen optischen Gewinn und da ich damals mangels FSR2 die Details anderswo runterschrauben musste, hab ich für mich entschieden, dass Details wichtiger sind als RT.
 
Noch was: DLSS 3 verdoppelt die Framerate ja, prinzipbedingt. Was ist aber, wenn ich die doppelte gar nicht will? Beispiel: Ich hab 60fps ohne DLSS 3, mein Monitor kann 98 Hz... Was dann?
FPS-Limiter / V-Sync sollte auch mit DLSS3 funktionieren. :)

Eine Verdopplung muss aber eigentlich nicht zwingend eintreten, es sollte auch weniger oder mehr sein können.
DLSS3 greift ja da ein, wo die CPU limitiert. Wenn die CPU nun also 50 FPS liefern kann, die GPU aber Luft für 60FPS hat, dann würde aktives DLSS3 im Idealfall 60 FPS liefern.
Kann die GPU hingegen 200 FPS schaffen, dann gibts mit DLSS3 also nicht nur die Verdopplung auf 120, sondern eben mehr. Falls NVIDIA nicht noch ein Limit eingebaut hat, wie viele Frames vorweggerendert werden dürfen.

Wenn die CPU nicht limitiert, sollte DLSS3 eigentlich kein Vorteil bei den FPS liefern.
So hatte ich das Vorwegrechnen von DLSS3 zumindest verstanden, das es da greift wo die CPU limitiert.

Ampere Karten sind "alte Zöpfe" alles klar. Ich frag mich langsam echt was mit den Leuten hier nicht stimmt bei soviel Überheblichkeit :rolleyes:.
Soll NVIDIA also über 2 Generationen ein Feature vorbereiten, nur damit der direkte Vorgänger nicht ausgeschlossen werden muss?
Aus dem gleichen Grund müsstest du dann über die RTX-Karten meckern. Die RTX-20 brachten Unterstützung / spezialisierte Einheiten für Raytracing, und die GTX-10-Karten blieben außen vor weil sie aufgrund der fehlenden RT-Einheiten zu langsam sind um mit RT flüssige FPS zu erzielen.

Die RTX-20 und RTX-30 haben zwar Tensor-Kerne, auf denen DLSS3 bei Ada läuft, aber für Ada wurden die Tensorkerne überarbeitet, eben mit dem Hintergedanken das darauf DLSS3 laufen soll.

Ich bezweifle das es bald Spiele geben wird, die zwingend eine Ada-Karte voraussetzen weil nur diese DLSS3 bieten. Es ist Wahrscheinlich das Spiele kommen die spezielle Detailstufen erhalten, für die man eine Ada-GPU braucht. Ist ja sogar schon angekündigt für u.a. CP77, eine neue RT-Stufe. Als die RTX-20 kamen, gab es ja bald auch Spiele die für max. Details eine RTX-20 brauchten, nämlich für die Raytracing-Details. Und sogar Spiele deren Hauptaspekt auf Raytracing lag, indem sie es dort alles auf Hochglanz brachten um RT-Reflexionen besonders stark zur Geltung zu bringen.

DLSS/FSR und UHD-Upscaling wo soll da der Unterschied sein?
Da kann ich mir ein 4K-TV mit UHD-Upscaling kaufen und nehme meine 1080ti oder RaspberryPi4b, habe das gleich, nur billiger, Stromsparender und praktischer (kann ja auch TV schauen oder Streamen) .
Der Unterschied ist schon mal die Qualität, Upscaling kann jede GPU, bzw. jeder Monitor. Dabei wird einfach das niedrig aufgelöste Bild hochgerechnet. Das Ergebnis ist jedoch eine schlechte Bildqualität, je nachdem wie stark vergrößert ist es mehr oder weniger deutlich zu sehen.
Beim Upsampling werden Filter angewandt, um den Verlust der Bildqualität im Rahmen zu halten. Umso besser der Filter, umso besser das Ergebnis.
NVIDIA nutzt bei DLSS dann noch unterstützend einen Deep-Learning Algorithmus, um Bildinhalte besser Rekonstruieren zu können, die durch die geringe Auflösung nur schlecht bzw. teilweise erkennbar waren.

Neben dem Qualitätsunterschied, kommt noch hinzu das du einen spürbar erhöhten Inputlag bekommen würdest, wenn du das Upsampling vom Bildschirm/TV machen lässt, und nicht der GraKa die das Bild eh schon rendert.
Wenn man einen Film schaut ist es völlig egal, da muss nicht so schnell wie möglich auf Eingaben des Nutzers reagiert werden. Es besteht daher mehr Zeit für jedes Bild zur Verfügung, Hauptsache es dauert nicht länger als ~41,667ms je Bild, damit die ~24fps gehalten werden können.
 
Zurück