News Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]

DLSS verbessert nicht allgemein die Bildqualität ohne irgendwelche Nachteile. Das liegt schon in der Natur dieser Technik. Bildfehler sind zu erwarten und auch extrem abhängig von dem Inhalt der gerenderten Bilder.

Gehst du mit dieser Aussage d'accord oder bleibst du bei "DLSS verbessert immer die Bildqualität"? Ja oder nein zu der Aussage?
Ja, habe auch nie behauptet, dass es die Qualität immer verbessert, aber diese Seitenweise Diskussion und dieses ewige gehate ist unnötig. Wie man an DS sieht, ist es quatsch dort auf DLSS zu verzichten.
Selbst wenn ich 1% Bildqualität verliere oder sogar 2-3%, wenn ich dadurch 100% mehr FPS bekomme und eine niedrigere Latenz ist das ein extrem guter Deal. Da gibt es nichts schlecht zu reden.

Hier ist CP in echtem nativ ohne TAA @Kaiero:

Kann mir doch keiner erzählen, dass das besser als DLSS sein soll und TAA hat auch ne temporale Komponente und ist so gut wie immer schlechter als DLSS.
 
Ja, habe auch nie behauptet, dass sie die Qualität immer verbessert, aber diese Seitenweise Diskussion und dieses ewige gehate ist unnötig. Wie man an DS sieht, ist es quatsch dort auf DLSS zu verzichten.
Selbst wenn ich 1% Bildqualität verliere oder sogar 2-3%, wenn ich dadurch 100% mehr FPS bekomme und eine niedrigere Latenz ist das ein extrem guter Deal. Da gibt es nichts schlecht zu reden.

Funktioniert nur nicht, wenn ich nur ein paar mehr fps erhalte, dafür aber so massive Bildfehler erhalte (Bildqualität in % zu bemessen finde ich generell schon komisch, wer bewertet denn, ob das Bild 1% schlechter oder 95% schlechter wird, wenn die Fehler da sind?), dass ich in einem Multiplayerspiel definitv große Nachteile habe gegenüber einem Spieler, der nicht auf DLSS setzt.
In diesem Moment ist für mich das Thema DLSS halt erledigt und ich performe lieber besser und nehme den Spieler mit DLSS raus. Das ist mir wichtiger als 120 statt 100 fps zu haben. Subjektiv halt.
 
Klar ist das für Nvidia so.....bei der Rohleistung ist gerade Ende der Fahnenstange erreicht und den Kunden jährlich einfach Versionsupgrades einer Softwarelösung zu verkaufen ist lukrativer. Den Quatsch von Spezialkernen die nur die neuen Grakas haben und nur die schaffen DLSSX glaubt eh keine Sau ^^
 
Es ist ja lustigerweise ausgerechnet der AMD-Partnertitel Starfield, der momentan mal wieder zeigt was für Welten, fast schon Universen zwischen FSR und DLSS liegen. Nur ein Shot aus dem neuen DF-Video. Der Tisch, der Boden, die Stühle..

Anhang anzeigen 1438087

Wer da noch sagt DLSS sei nicht viel besser, den kann man nicht ernst nehmen. Da geht es auch nicht mehr um subjektive Meinungen. Man sieht das sofort, auch ohne Lupe.

Was ich da sehe ist, dass Nvidias Kantenglättung besser ist. Aber anscheinend sind die Unterschiede erst bei 50% scale (performance?) und mit Lupe zu erkennen. Auch immer wieder lustig, wie die vergleiche auf Nvidia Grafikkarten gemacht werden und der Vergleich zu Nativ gemieden wird. Da kommt der Red Herring FSR genau richtig.

Und wenn doch mit Nativ verglichen wird, dann meist ohne Kantenglättung oder mit TAA, anstatt mal einfach DLAA zu nutzen.

Nativ + DLAA und die Upscaler sehen kein Land mehr, was sie sowieso schon nicht mehr tun aufgrund der Probleme in Bewegung und Verlust von feinen Details.
 
Um bei Death Stranding zu bleiben.
Das ist Death Stranding mit DLSS:
ds-2023-08-20-03-22-24-447.jpg
ds-2023-08-26-00-11-05-867.jpg

ds-2023-08-19-06-46-19-927.jpg


Und ich sehe nirgendwo ein Schlieren, speziell beim ersten Bild sieht man viele kleine Details in der Luft die sich bewegen, aber das Bild ist sehr sehr stabil.
Nativ mit TAA sieht dank der Unschärfe schlechter aus.
 
Ich nehme die Leitungssteigerung DLSS Qualität immer gerne mit für einen FPS Boost.

Wir stagnieren aktuell so oder so bei 2160p - 8K ist noch so Leistungintensiv.

Ich kann noch nicht mal erahnen wann Hardware potent genug sein wir für eine Native Darstellung

Daher ist gibt es keine andere Möglichkeit bei dem technischen Stand als DLSS/FRS

momentan sag ich auch, nativ ist nicht die Zukunft.
 
Nativ besser?
Theoretisch gesehen ja. Habe da aber auch schon zweierlei Erfahrungen gemacht, auch wenn ich nativ-Verfechter bin. Es scheitert wohl gerne an der Umsetzung in Form von Technik und Berechnung des Codes und anderer Konstellationen.
Beispiel Hogwarts Legacy(UE4):
Nativ 1440p R VII Ultra Freesync: Absolut ruhiges Bild, kein Flackern, Flimmern oder sonstige Artefakte, knackscharf
Nativ 1440p RTX 3080 Ultra GSync: Ruhiges Bild, Kontrast/Sättigung wirken bisschen intensiver(mag am Monitor liegen), flimmerndes Gras. Blätter von Bäumen sind aber ok.
DLSS 1440p RTX 3080 Ultra GSync: Absolut ruhiges Bild, kein Flackern, Flimmern, geringes Ghosting bei sehr kleinen Objekten, die vor starkem Kontrast bewegt werden(Vogel in großer Entfernung vor hellem Himmel etc.). In der Summe besser als Nativ

Ist also je nach Software unterschiedlich, was man da wahrnimmt und nicht über einen Kamm scherbar. Ich mach es an, wenn nativ mich nicht zufriedenstellt von der Performance oder Bildqualität(im Sinne von Bildruhe).

Das NVidia jetzt aber noch die von der Produktionsstraße fallenden Chips mit DLSS verkaufen will ist ja nichts neues. Man muss nur bevor die Minichips für die 50er und 60er und evtl. 70er der nächsten Generation vorgestellt werden mit dem Framing beginnen, sonst fliegt der Bluff auf. So weit ja nichts ungewöhnliches im Marketing:
Man erinnere sich nur an die Angabe der CUDA Cores mit dem Wechsel von Turing auf Ampere, wo man die Angabe für ein ausschließliches FP32 Szenario macht(bis heute). Bei AMD haben damals alle gemeckert, als man den Bulldozer als 8 Kerner bezeichnet hat(was nach konservativer x86 Definition sogar stimmte). Das das ganze bei realer Mischlast zum reinen Marketing wird sollte hier jedem klar sein.
 
Zuletzt bearbeitet:
Klar ist das für Nvidia so.....bei der Rohleistung ist gerade Ende der Fahnenstange erreicht und den Kunden jährlich einfach Versionsupgrades einer Softwarelösung zu verkaufen ist lukrativer. Den Quatsch von Spezialkernen die nur die neuen Grakas haben und nur die schaffen DLSSX glaubt eh keine Sau ^^

Hör auf solchen Unfug zu verbreiten. Gibt Gegenbeweise für Deine wilde These:

https://www.pcgamer.com/nvidias-dls...those-ai-accelerating-tensor-cores-after-all/

Investigation into Nvidia GPU workloads reveals that Tensor cores are being hammered, just incredibly briefly.
Well, now we seemingly have an answer, of sorts. And it turns out DLSS really does need those Tensor cores.
Bluedot55 ran both DLSS and third party scalers on an Nvidia RTX 4090 and measured Tensor core utilisation. Looking at average Tensor core usage, the figures under DLSS were extremely low, less than 1%.

Initial investigations suggested even the peak utilisation registered in the 4-9% range, implying that while the Tensor cores were being used, they probably weren't actually essential. However, increasing the polling rate revealed that peak utilisation is in fact in excess of 90%, but only for brief periods measured in microseconds.

Und hier das Schlusswort des Artikels:
What this investigation shows is that while it's tempting to doubt Nvidia's motives whenever it seeming locks out older GPUs from a new feature, the reality may be simply be that the new GPUs can do things old ones can't. That's progress for you.
 
...
und die Industrie deshalb zukünftig verstärkt auf solche Technologien wie Nvidias Deep Learning Super Sampling setzen wird.
...
Hoffentlich bleibt es in der Gaming-Industrie.
Ich hätte ansonsten ernsthafte Probleme mit dem Gedankengang, dass ein Chirurg am OP-Tisch dann auf dem Monitor hoch-KI'te Dinge erkennt, die es vorher nicht gab und ich um mehr "entlastet" wurde, als reell operiert hätte werden sollen.
 
Hoffentlich bleibt es in der Gaming-Industrie.
Ich hätte ansonsten ernsthafte Probleme mit dem Gedankengang, dass ein Chirurg am OP-Tisch dann auf dem Monitor hoch-KI'te Dinge erkennt, die es vorher nicht gab und ich um mehr "entlastet" wurde, als reell operiert hätte werden sollen.

Also erstens erfindet DLSS keine Details dazu. Und zweitens sind KI-Modelle bereits jetzt in der Medizin im Einsatz, an diversen Stellen. Z.b. bei der Impfstoff-Herstellung (Protein-Kombinationen), oder in der Krebserkennung. Und dabei sind sie tausendfach schneller und besser als ein Mensch es je sein kann.

Hier wird viel über KI generell gesprochen, nicht nur im Gaming:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Edit: Nur so nebenbei, glaubst Du das menschliche Auge und die Interpretation Deines Gehirns von Lichtstrahlen die auf die Netzhaut treffen sind fehlerfrei? :ugly:
 
Zuletzt bearbeitet von einem Moderator:
Ist das Wort Pfadverfolgung gängig als Alternative zu Pathtracing oder hat die Redaktion irgendeinen Text übersetzt und ihn einfach eingefügt?
 
Den FPS Halbierer RT (mit glänzender/spiegelnder Plastikoptik) und mit Pseudo/Fake Mechaniken zum exklusiven (DLSS 3.0) Preisverdoppler können sie gerne behalten !! :stupid:

Das ist die typische NV-Strategie.

Man greift sich bereits vorhandene Technik (oder kauft sie auf (PhysX)), verwurstet das Ganze in irgendeinen proprietären Pfad, und presst die Leute damit aus (solange es geht), die das dann, zu meinem erstaunen, auch noch als eine Art Leistung NVs feiern.

Upscaler sind als Option eine gute Sache. NV spricht nun in diesem Bericht allerdings genau das aus, was viele Kritiker von Anfang an befürchtet haben. Upscalingpflicht für WQHD Monitore mit einer 4090 ist bereits heute Realität. More to come....
 
Das ist die typische NV-Strategie.

Man greift sich bereits vorhandene Technik (oder kauft sie auf (PhysX)), verwurstet das Ganze in irgendeinen proprietären Pfad, und presst die Leute damit aus (solange es geht), die das dann, zu meinem erstaunen, auch noch als eine Art Leistung NVs feiern.

Upscaler sind als Option eine gute Sache. NV spricht nun in diesem Bericht allerdings genau das aus, was viele Kritiker von Anfang an befürchtet haben. Upscalingpflicht für WQHD Monitore mit einer 4090 ist bereits heute Realität. More to come....

Du hast es erfasst, Nvidia nimmt sich eine Technologie vor, wirft Milliarden Dollar drauf, verbessert die Technologie so dass sie von Hinz und Kunz eingesetzt werden kann und einen Mehrwert bietet.

Nvidia Technologien von denen wir profitieren:
- T&L (ja, ich meine die Revolution der 3D Grafikberechnung mit der Geforce256)
- G-Sync (es gab vorher keine Monitor Sync Technologie im Consumer Bereich soweit ich weiss)
- PhysX (war vorher eine extra PCI Karte die man kaufen musste)
- Reflex (beste Latenzverbesserung wo gibt, vorher gab es da nichts)
- Upscaling (war vorher alles ziemlicher Schrott bis DLSS 2.0 kam)
- Real-Time-Raytracing / Pathtracing (dass das so schnell für Consumer erreichbar wird hätte vor 5 Jahren JEDER als unmöglich bezeichnet)
 
Auf eine Frage der Webseite PC Master Race, die bei der Diskussionsrunde ebenfalls zugegen war, ob Nvidia plane, die GPU-Leistung seiner kommenden RTX-Grafikkarten in nativen Auflösungen zu priorisieren, antwortete der Hersteller, welcher in Person von Jacob Freeman und Bryan Catanzaro vertreten war, dass das Spielen in den nativen Auflösungen mittlerweile "nicht mehr die beste Lösung" für maximale Grafikqualität sei und die Industrie deshalb zukünftig verstärkt auf solche Technologien wie Nvidias Deep Learning Super Sampling setzen wird.

Einfach nur ein Armutszeugniss. Statt Hardware die genug Leistung hätte auf dem Markt zu bringen mach ich es mir einfach. Lieber viel Geld sparen und Leistung per Schummel KI Software vorgaukeln die nur einen Bruchteil davon kostet. Das ganze garniere ich noch mit einer properitären Lösung. Aber alle finden es toll und na ja wer will nochmal wer hat noch nicht.
 
Upscaler sind als Option eine gute Sache. NV spricht nun in diesem Bericht allerdings genau das aus, was viele Kritiker von Anfang an befürchtet haben. Upscalingpflicht für WQHD Monitore mit einer 4090 ist bereits heute Realität. More to come....
Ich finde Upscaling auch super, so lange es optional bleibt.

Deswegen kotzt mich auch die Entwicklung an, das bei vielen neuen Spielen in den Standardeinstellungen schon weniger als 100% des Bildes berechnet wird. Wie man es nennt spielt keine Rolle. Starfield macht das, aber ich hab das mittlerweile schon öfter gesehen.

Ich vermisse hier (mal wieder) einen Aufschrei. Der Pro-Gamer von heute schluckt leider alles brav runter und verlangt noch Nachschlag, und die "Fachpresse" ist größtenteils nur noch damit beschäftigt PR-Müll oder Clickbait voneinander abzuschreiben.
 
Auf eine Frage der Webseite PC Master Race, die bei der Diskussionsrunde ebenfalls zugegen war, ob Nvidia plane, die GPU-Leistung seiner kommenden RTX-Grafikkarten in nativen Auflösungen zu priorisieren, antwortete der Hersteller, welcher in Person von Jacob Freeman und Bryan Catanzaro vertreten war, dass das Spielen in den nativen Auflösungen mittlerweile "nicht mehr die beste Lösung" für maximale Grafikqualität sei und die Industrie deshalb zukünftig verstärkt auf solche Technologien wie Nvidias Deep Learning Super Sampling setzen wird.

Einfach nur ein Armutszeugniss. Statt Hardware die genug Leistung hätte auf dem Markt zu bringen mach ich es mir einfach. Lieber viel Geld sparen und Leistung per Schummel KI Software vorgaukeln die nur einen Bruchteil davon kostet. Das ganze garniere ich noch mit einer properitären Lösung. Aber alle finden es toll und na ja wer will nochmal wer hat noch nicht.

Sorry, aber ich muss zu Dir stellvertretend sagen: Mich kotzt eure Technik-Angst an. Wir sind hier in einem PC Games Hardware Extreme Forum, hier sollten sich technikbegeisterte Leute austauschen über den neuesten heißen Shice und was liest man stattdessen? "Früher war alles besser" - "Nativ oder GTFO" - "Keiner braucht Raytracing". Ewiggestrige trifft es wirklich gut. Warum etwas schlauer berechnen wenn man es mit drölfzig Watt auch brute forcen kann, gell?

Der Rant musste mal raus.
 
Zuletzt bearbeitet von einem Moderator:
Zurück