Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Ist der Supersampling Part von DLSS 3 jetzt eigentlich identisch zu DLSS 2 oder gibts da Unterschiede (Qualität, Leistung)?
Das ist mir noch nicht so ganz klar.
 
Ehrlich gesagt, Raytracing ist für mich immer noch unrealistisch.
Wasser was aussieht wie ein Glasspiegel, habe ich noch nie gesehen, in Realem Leben.
Wasser hat so gut wie immer Bewegung, dabei wurde die Lichtbrechung nicht so unrealistisch wie Raytracing aussehen.
DLSS ......... da mache dich lieber Downsampling und brauche keine Utopisch teurer Karte dafür.
 
Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Oder auch: Warum DLSS 3 eine reine FOMO Taktik ist. In 12-24 Monaten läuft das dann auch auf Ampere.

Die ersten Preise der Custom Karten habe ich eben bei Caseking erblicken dürfen. 20% über der FE. Mal eben 2280€ für eine Zotac AMP! :lol:
 
W
Wie ist das eigentlich. Wenn ein Spiel DLSS 3.0 unterstützt kann ich als 3070 wenigsten DLSS 2.0 nutzen? Oder muss ich da ganz auf DLSS verzichten? So richtig durchblicken tu ich da nicht.
Ernst glück hast unterstützt es fsr ?
Hoffentlich fällt Nvidia mit Ihren Propertären Zeug auf die Schnauze..
Warum hat man den Schnittstellen geschaffen wie DirectX etc...
Statt das die einen offenen Standard machen wo alle bzw. fast alle Spieler profitieren
 
Zuletzt bearbeitet:
Es braucht mehr Spiele die Rasterizing ganz aufgeben und nur noch über RT-Features und entsprechender Grafikkarte eine Bild ausgeben.

Also in 6 - 8 Jahren, früher wird das nicht kommen, könnte es notwendig sein eine aktuelle Grafikkarte eingesteckt zu haben.
 
Blöd für Nvidia, dass es jetzt das plattformagnostische FSR 2.0 gibt und die meisten Entwickler sich eher darauf fokussieren werden, anstatt auf ein Feature, dass sich nur ein höchst erlesener Personenkreis leisten kann. :schief:
 
Ich verstehe nicht, was an DLSS 3 von manchen so gefeiert wird.
Klar, mehr FPS, aber die Nachteile scheinen mir zu überwiegen.

Da stellt man sich doch nur mal vor: Mit DLSS 3 wird ja die Bewegung der letzten X FPS genutzt, um vorher zu sagen wo sich die Objekte im nächsten Bild befinden werden.
Wenn das nur 1-2 FPS voraus berechnet mag das noch keinen spürbaren Effekt aufs Gameplay haben, nur sind 1-2 weitere FPS zu vernachlässigen, gerade wenn man eh schon dreistellige FPS hat. Im Idealfall sorgt es für etwas glattere Frametimes und somit weniger Mikroruckler.

Nun stellen wir uns mal vor, die FPS werden durch DLSS 3 von 20 auf 60 FPS verdreifacht, oder auf 100 FPS verfünffacht. Wie oft schießt man in einem Shooter dann wohl daneben, weil der Gegner die Bewegungsrichtung geändert hat, die GraKa davon aber noch nichts weiß (CPU-Limit eben) und daher nicht berücksichtigen kann? Für den Spieler sieht es aus als hätte man einen Volltreffer gelandet, das Spiel registriert aber keinen Treffer weil man eigentlich 1m daneben geschossen hat (etwas übertrieben).
Umso schneller das Gameplay ist, umso eher kommt es auch zu solche Fehler.

Vergleichbares kann man in MP-Spiele ja schon beobachten, umso ausgeprägter umso höher der Ping ist. Die Trefferermittlung findet auf dem Server statt, so das ein vermeintlicher Treffer dann doch nicht zählt, weil der andere Spieler sich an einem anderen Ort befindet als einem selbst angezeigt wurde - der Client nimmt auch eine solche Vorausberechnung vor, um Ruckler zu vermeiden. Auch sind sprunghafte Positionsänderungen von Spielern eine folge davon, da die Positionierung korrigiert wurde nachdem der Server die aktualisierten Positionsdaten übermittelte.
Mit DLSS 3 würde der Effekt ja dann noch verstärkt!

Das einzige was ich mir Vorstellen kann, das es solch ein Verhalten vermeidet, bzw. gering hält, ist, wenn die vorab berechneten Bilder der GraKa in die Berechnung des Spiels mit einfließen. Also das die Richtungsänderung des Ziels nicht stattfinden kann während man ganz andere Bilder zu Gesicht bekommt. Das sollte aber auch zu einer höheren CPU-Last führen, also den CPU-Limit noch provozieren.
Aber in einem MP-Modus stelle ich mir das unmöglich vor, insbesondere dann wenn nicht alle Spieler eine Karte mit DLSS-3-Unterstützung verwenden - oder es schlicht deaktiviert haben.

Ich kann in SP-Spiele jedenfalls auf Verhalten wie in MP-Spiele mit hohem Ping verzichten. Es ist dort schon nervig genug, wenn mal ein Treffer nicht zählte, obwohl man gesehen hat das man getroffen hatte.
 
Wenn selbst teure Nvidia-Karten nur mit Schummel-DLSS (Guess the frame) vernünftig performen, ist das äußerst enttäuschend.
Ich werde das Gefühl nicht los, dass Raytracing noch 2-3 Generationen braucht, bis es nativ gerendert werden kann.

Solange also braucht es noch brachiale Rasterleistung.
Daher bewerte ich die neuen Karten einzig anhand derer Rasterleistung

Die RTX 4090 verspricht hier eine Verdopplung, was ein starkes Versprechen darstellt.

Mal sehen was AMD nachliefert...
 
Wenn selbst teure Nvidia-Karten nur mit Schummel-DLSS (Guess the frame) vernünftig performen, ist das äußerst enttäuschend.
Ich werde das Gefühl nicht los, dass Raytracing noch 2-3 Generationen braucht, bis es nativ gerendert werden kann.

Solange also braucht es noch brachiale Rasterleistung.
Daher bewerte ich die neuen Karten einzig anhand derer Rasterleistung

Die RTX 4090 verspricht hier eine Verdopplung, was ein starkes Versprechen darstellt.

Mal sehen was AMD nachliefert...
Schummeln würde ich es jetzt nicht nennen. Vielmehr sind wir jetzt an dem Punkt angekommen, wo AI-Berechnungen so schnell sind, dass man es eben nicht mehr nativ rendern muss. Ich betrachte es als Evolution der klassischen Rasterisierung. Ändert natürlich trotzdem nichts an dem absurden Preispunkt, den Nvidia gewählt hat.
 
Beim Rastern wird das nächste Bild nicht erraten sondern nativ gerendert.
Via Raytracing wird das Bild allein durch Licht gerendert, was natürlich ultrarealistisch WÄRE.
Da von sich auch die 3090 Ti es nicht schafft (allenfalls in 1080p und RT nur auf Schatten), brauche ich mir diesen dramatischen technischen Nachholbedarf nicht mit "Guess the Frame" schönzureden.

Da die Lederjacke sich am DLSS 3 aufhängt, kann ich daraus schließen, dass die verbesserte RT-Leistung weiterhin sehr mau ist.
Ich stelle fest, dass wir was Rendering via Licht angeht noch ganz am Anfang befinden

Meine Kaufentscheidung mache ich daher bis vor 2026 (guess the year) erstmal nur von der Rasterperformance abhängig.
 
Beim Rastern wird das nächste Bild nicht erraten sondern nativ gerendert.
Via Raytracing eird das Bild allein durch Licht gerendert, was natürlich ultrarealistisch WÄRE.
Ist mir schon klar. Die Evolution daran ist, dass der Detailgrad eben nicht mehr von der reinen Rasterperformance abhängig ist, sondern weit darüber hinaus erhöht werden kann. AI Upscaling wird aus Videospielen nicht mehr wegzudenken sein, daher für mich eindeutig eine Evolution.
 
Ist mir schon klar. Die Evolution daran ist, dass der Detailgrad eben nicht mehr von der reinen Rasterperformance abhängig ist, sondern weit darüber hinaus erhöht werden kann. AI Upscaling wird aus Videospielen nicht mehr wegzudenken sein, daher für mich eindeutig eine Evolution.
Nun, wenn AI Upscaling das Niveau von nativem Rendern erreicht, bin ich voll bei dir^^

Es sind aufregende Zeiten. Mal schauen, was Nvidia noch auf die Beine stellt.
 
Find es eh faszinierend wie mit dsll und co so ne Welle geschoben wird...
Den meisten würde es bestimmt nichtma auffallen wenn man heimlich die 4k Auflösung auf 1080P setzt zbsp...Viel mehr Frames kaum Grafische Einbußen... Und das ist in Prinzip doch genau das was DSLL und Co macht...
Liegt wahrscheinlich am Monitor+Abstand aber bei mir war das tatsächlich neulich der Fall. Habe die letzten Monate über 300 Stunden in Skyrim versenkt und ging die ganze Zeit davon aus, dass es mit 4k läuft aber zocke auch in 3-4 Metern Abstand.
 
Lassen wir uns überraschen.

Übrigens: Wenn das Zwischenbild erst dann berechnet würde wenn das nachfolgende komplett bekannt ist (so wie das beim TV funktioniert), dann würde sich der Lag verdoppeln! So kann es deswegen nicht gehen.
Es gibt ein Feature, dass sich temporales anti aliasing nennt - eventuell ist dir das bekannt.
Das braucht Informationen aus mehreren Bildern, um zu arbeiten - also genau das, von dem du meinst, es wäre unmöglich.

Jensen sagt sogar selbst, dass DLSS 3 das aktuelle und das vorherige Bild nutzt, um zu extrapolieren:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das klappt so lange, bis ein böser Nutzer eine Eingabe macht und z.B. eine 90° Kurve macht.. oder sich entscheidet, die Richtung umzukehren, in die die Hauptfigur gerade rennt.
Je nachdem, wie schnell das Spiel auf Eingaben reagiert, passen vorheriger Frame und aktueller Frame nicht sonderlich zusammen.
Oder in einer Cut scene mit der Engine Grafik gibts nen cut (im schlimmsten Fall ohne schwarzen Frame)... Oder der Kamerawinkel ändert sich plötzlich...
Jetzt hast du aber anstelle von einem Frame, der nicht mehr so ganz passt, plötzlich 3-4 davon... und die auch noch unabhängig von den Informationen, die die Spieleengine rausgibt...
Da kommt dann ab und an deutlicher Mist raus
Ich kann es nicht fassen dass sie zwei 4080 mit unterschiedlicher Leistungen bringen
Das machen sie seit der 1000er Serie schon so.
1060 6GB vs. 1060 3GB
Bei den 2000ern haben sie die Versionen mit stärkerem Chip als Super Version nachgereicht - also ein wenig andere Situation.

Das konnte Nvidia (und andere) auch schon in den 1990ern und frühen 2000ern sehr gut... mit unendlich vielen Kürzeln hinter den Namen wurden verschiedene Ausbaustufen der Chips versteckt - GS, GT, GTX..., oder bei der Geforce 2: GeForce 2 GTS, GeForce 2 Pro, GeForce 2 Ti and GeForce 2 Ultra
Allerdings war solche Benamung halt bei allen Herstellern verbreitet - bis sie sich auf die verschiedenen Nummern für die jeweiligen Leistungsklassen eingeschossen haben.


Edit:

Sagt ma... kommt es mir nur so vor, oder war das in der Nvidia Präsentation schon wieder der NPC Jensen?
Hände, Jackenkragen am Hals und irgendwie die Mimik sahen extrem seltsam aus.
 
Zuletzt bearbeitet:
Für mich ist DLSS3 eine durchaus sehr interessante Idee und Lösung, die aber mal wieder katastrophal "zermarketingt" wurde. Bei bestimmten Titeln in denen man aufgrund von Engine- oder Singlethread-bottlenecks selbst mit Highend-Systemen Katastrophenperformance bekommt, ist das ja im Grunde ein sehr guter Ansatz. MSFS ist aber so ziemlich der einzige bisher genannte Titel, der da für mich bzgl. Sinnhaftigkeit in Frage kommt. Ich würde da eher an Kandidaten wie Cities Skylines, Planet Coaster oder ähnliche Titel denken, bei denen CPU-unabhängiges KI-interpolieren von Frames auf Grundlage von Motion-vektoren Sinn machen würde. Da würde man für eine Verdreifachung der FPS bestimmt auch mit minimalen Artefakten leben können, oder sogar wollen.

Bei Shootern halte ich das aber auch für kritisch, bin aber sehr gespannt auf entsprechende Rewiews.
 
Warum DLSS 3 so wichtig für Nvidia ist?

Weil es eine proprietäre Lösung ist, genauso wie damals bei Microsoft oder Adobe. Hier wird über proprietäre Soft- und Hardware versucht ein Monopol über vielfältige Abhängigkeiten zu zementieren denen die Programmierer der Spiele und die Konsumenten ausgesetzt werden. Wer die hohen Entwickler- und Konsumentenkosten (Preise) nicht tragen kann ist mittel- bis langfristig raus. Oder zahlt stark überhöhte Preise, den sog. Maximalgewinn (Cournotscher Punkt) (Gabler Wirtschaftlexikon).

Dagegen hat sich das W3C mit Webstandards gewehrt um die Programmierung effizienter und das Web für alle offen zu halten. Der Firefox ist beste Beispiel. Auch Linux wäre insbesondere hinsichtlich der "geringen" Konsumentenpreise zu nennen!

Proprietäre Lösungen wollen AMD, Intel, NVIDIA (https://www.pcgameshardware.de/Rade...-WMMA-Hardware-beschleunigtes-FSR-30-1398167/)

M.E. ist die zentrale Fragestellung welche Lösung am kundenfreundlichsten zu implementieren ist indem kein Monopolpreis angestrebt wird! Bei NV gehen die Preise jetzt schon wieder durch die Decke.

Als Konsument müsste man/frau sich also strategischer als bisher verhalten und der Monopolbildung entgegentreten - zum eigenen mittel- langfristigen Nutzen/Vorteil.
 
Vor nicht allzu langer Zeit, wurde um jedes Quentchen Bildqualität gekämpft und die Hardwarehersteller (zurecht) von der Fachpresse an den Pranger gestellt, wenn dort gepfuscht wurde (AF z.B.).
Danke, ich war mir mittlerweile nämlich gar nicht mehr so sicher.

Aber ich meine auch, es ist noch gar nicht sooo lange her, da hat man - zumindest bei entsprechend starken Karten - alles an Leistung auf die Bildqualität geworfen. Im Spiel sowie im Treiber alle "Leistungs-Optimierungen" aus-, und alle Bildverbesserer eingeschaltet, und die Regler auf Anschlag. Teilweise noch mit Zusatztools zb. AA-Modi aktiviert, an die man über Spiel und Treiber gar nicht ran gekommen ist. Egal wie wenig es potentiell brachte, und wieviel Leistung es gekostet hat - die FPS mussten runter und die Darstellungsqualität hoch.

Wenn in X Jahren die Leistung "reicht", gehts vermutlich wieder in die andere Richtung. Dann wird vielleicht mit "OHNE DLSS1337 mindestens 400FPS in 8K" geworben, und alle argumentieren wieder in die andere Richtung.

Dann sieht man plötzlich wieder, was man früher schon mal gesehen hat, was aber heute fast nicht zu sehen ist. :ugly:
 
Umso mehr ich zu den 4000ern lese, umso attraktiver wird mir die 3090, die hat auch alles was für mich reicht. Günstiger, genug Ram, nur der Preis ist noch nicht da wo er sein sollte.
Keine Graka die vierstellig kostet, da bleib ich eisern.
 
Zurück