Battlefield 5: 1685p sieht besser aus als 2160p DLSS, Nvidia testet viele DLSS-Settings

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Battlefield 5: 1685p sieht besser aus als 2160p DLSS, Nvidia testet viele DLSS-Settings

Nicht nur bei niedrigen Auflösungen kriegen Besitzer einer aktuellen Geforce RTX-Grafikkarte bei der Nutzung von DLSS ein matschiges Bild serviert. Auch in 4K lässt die Bildqualität zu wünschen übrig. Wie ein aktueller Test zeigt, gibt es mit hochskaliertem 1685p in Battlefield 5 nicht nur die gleiche Performance, sondern auch eine deutlich bessere Bildqualität.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Battlefield 5: 1685p sieht besser aus als 2160p DLSS, Nvidia testet viele DLSS-Settings
 
1685p sieht besser aus als 2160p DLSS, Nvidia testet viele DLSS-Settings
Das ist ja noch viel schlimmer als erwartet - und ich habe immer geschrieben, dass es mit 1800p und TAA ebenbürtig wäre, weil das in einem Anandtech-Artikel stand...

Kann es sein, dass NV versucht, hinter DLSS ein Downsampling zu verstecken, und dachte, dass die Leute das nicht merken?

Wobei man leider zugeben muss, dass sich lange Zeit nur Anandtech mit der Bildqualität befasst hat - erschreckend, denn was bringen FPS, wenn die Bildqualität nicht vergleichbar ist? Auch im Bezug auf verschiedene Firmen und Treiber...
 
Das muss man auch erstmal schaffen. Ein upscaling algo, der nichtmal den klassischen Upscaling methoden, die jeder Monitor beherrscht, das Wasser reichen kann.

Peinlicher gehts gar nicht mehr, vor allem da ja Nvidia dafür extra Hardwareeinheiten verbaut hat und Chipfläche opfert... :lol:

Wird jetzt interessant zu sehen, ob Nvidia da noch was drehen kann. Grundsätzlich kann so ein Deep Learning algo ja schon beeindruckende Ergebnisse erzielen. Aber ein komplettes und vor allem dynamisches Spiel ist dann wohl doch zu viel des guten... Da hat sich Nvidia wohl doch etwas übernommen.
 
An die zwei Vorposter: Bitte daran denken, dass es auch deutlich besser gehen kann! Siehe FF XV und 3D-Mark. Nvidia hat wahrscheinlich zu wenig Zeit ins Anlernen gesteckt. Das kann ja nun aber noch behoben werden. Mal schauen was bei Anthem und SotTR abgeliefert wird.
 
Ja, aber es sind doch erst diese 3 Beispiele vorhanden. 1 mal eine Demo, 1 mal ein Benchmark und der einzige "richtige" Anwendungsfall in Form von BF. Nach 6 Monaten. Wie lange dauert es, bis das was noch dieses Jahr herauskommt angelernt ist? Was bringt mir die Performance in einem Bruchteil der Spiele? Selbst wenn noch 5 Spiele herauskommen, die DLSS unterstützen. 2 davon werden nicht bis Jahresende fertig angelernt, dass sie was taugen. Was wenn der Rest mich spielerisch nicht begeistert? Dann hab ich so viel Aufpreis auf mind eine 2070 gezahlt und habe nichts davon?
 
Ja, aber es sind doch erst diese 3 Beispiele vorhanden. 1 mal eine Demo, 1 mal ein Benchmark und der einzige "richtige" Anwendungsfall in Form von BF. Nach 6 Monaten. Wie lange dauert es, bis das was noch dieses Jahr herauskommt angelernt ist? Was bringt mir die Performance in einem Bruchteil der Spiele? Selbst wenn noch 5 Spiele herauskommen, die DLSS unterstützen. 2 davon werden nicht bis Jahresende fertig angelernt, dass sie was taugen. Was wenn der Rest mich spielerisch nicht begeistert? Dann hab ich so viel Aufpreis auf mind eine 2070 gezahlt und habe nichts davon?

Wieso ist Final Fantasy XV kein richtiger Anwendungsfall? Wäre mir aber neu! DLSS geht im Spiel dort und nicht nur im FF-Benchmark!
 
Ja, aber es sind doch erst diese 3 Beispiele vorhanden. 1 mal eine Demo, 1 mal ein Benchmark und der einzige "richtige" Anwendungsfall in Form von BF.

Es sind weitere Spiele mit DLSS in der Entwicklung oder versprechen zumindest in kommenden Patches. Bei Final Fantasy XV kommt es stark auf die Szene an. Die 3D-Mark Royal Port Demo ist genau das und legt jedoch viel mehr Wert auf DXR / Raytracing.

Battlefield 5 bringt ständig neue Patches mit Verbesserungen und Bugfixes. Die Frage ist auf welchem Stand man da technisch ist. Anthem hat noch keine Unterstützung eingebaut, wird aber interessant sobald es soweit ist. Beide nutzen die Frostbyte-Engine.

Metro:Exodus ist zwar theoretisch verfügbar, aber wegen der Geschichte mit dem EPIC-Store auf unbestimmte Zeit aufgeschoben.

Nach 6 Monaten. Wie lange dauert es, bis das was noch dieses Jahr herauskommt angelernt ist? Was bringt mir die Performance in einem Bruchteil der Spiele?

Ab wann zählst du denn? Kein Feature hat jemals direkt zu Release neuer Karten über alle Spiele funktioniert. Selbst das hochgespriesene DX11 hat damals gebraucht bis es sich verbreitet hat. Bei DX12 ist es noch schlimmer.

Das Versprechen ist größten Teils in die Richtung: "Alle neuen Spiele werden die Features unterstützen."

Mehr Spiele bedeutet mehr Beispiele, die man vergleichen kann. Zusätzlich dürften neue Titel auch die Datengrundlage für DLSS erhöhen. Es wird also in Theorie eher besser als schlechter. :ugly:

Selbst wenn noch 5 Spiele herauskommen, die DLSS unterstützen. 2 davon werden nicht bis Jahresende fertig angelernt, dass sie was taugen. Was wenn der Rest mich spielerisch nicht begeistert?

Du übertreibst ein wenig. Das "anlernen" dauert je nach Fall zwischen ein paar Tagen bis hin zu ein paar Wochen. Hängt alles mit den Einstellungen, dem Rohmaterial und der Engine ab. Aktuell weitet Nvidia das laut eigenen Angaben aus und versuchte unterschiedliche Kombinationen.

DLSS kann dir kein gutes Spiel garantieren, dafür sind die Spieleentwickler zuständig. Alles was es verspricht sind bessere FPS in ähnlichen Bildszenarien. Auch bezogen auf Raytracing, was Nvidia ja beworben hat.

Ich weiß auch nicht warum man darüber gleich motzen muss. Das Jahr hat noch nicht einmal richtig begonnen und sofort wird losgeheult. Geh einfach auf die PCGH-Vorschau wie viele gute Spiele für 2019 angekündigt sind.

Dann hab ich so viel Aufpreis auf mind eine 2070 gezahlt und habe nichts davon?

Die 2070 ist nach wie vor eine gute Karte was die pure Rohleistung betrifft. Die Frage ist halt wie viel mehr mit den Turing-Features nach oben bringen. Als Early-Adopter zahlt man übrigens immer mehr. Kann mich noch sehr gut an die Releasepreise der GTX1080 erinnern. Damals bei über 800€!

Was du davon hast, musst du für dich selbst entscheiden. Nur kommen dieses Jahr noch genügend andere Spiele heraus, viele mit DLSS. Es wird zumindest spannender als 2018, wo sich in Sachen Grafik nahezu nichts passiert ist.
 
DLSS ist ein Witz stand heute, man kann es nicht anders sagen. Es bringt schlicht keinen Mehrwert, weder in FFXV sieht es gut aus,noch in BF5. Lediglich im Port Royal sieht es besser aus, aber eine selbst ablaufende Szene mit den paar Objekten anzulernen ist ja auch Witz sondergleichen. Wenn kein super Matsch TAA verwendet wird, bringt DLSS überhaupt nichts.

Das Feature wird sterben wenn es so bleibt.
 
An die zwei Vorposter: Bitte daran denken, dass es auch deutlich besser gehen kann! Siehe FF XV und 3D-Mark. Nvidia hat wahrscheinlich zu wenig Zeit ins Anlernen gesteckt. Das kann ja nun aber noch behoben werden. Mal schauen was bei Anthem und SotTR abgeliefert wird.

Also 2 Jahre später wenn man mit dem Game schon 3x durch ist "funktioniert" dann DLSS? Bis dahin hab ich aber evtl. Schon potentere Hardware und brauche das noch weniger falls ich das Spiel dann nochmal spiele.
Cool. Scheint ein premiumfeature zu sein.
Unverständlich dass man beim Aushängeschild BF5 "zu wenig trainiert" hat. Wie lange dauert denn ein Training so? Wenns mehr als 6 Monate dauert um gegen normales upscaling anzustinken kaünnst du es in die Tonne kloppen.
 
Im Grunde sind neue Features ja immer Willkommen. Wenn die Spieleschmieden / Programmierer dies zügig und weit verbreitet in die Tat umsetzten, haben wir doch alle etwas davon bezüglich Leistung / Qualität (4 Future). Leider sieht es just bei DLSS nicht so rosig aus. Wäre doch Schade, wenn das Thema zum Rohrkrepierer mutiert. Und halt ein Verkaufsargument für nVidia weniger und dessen "teuren" RTX Karten ...

MdG, Föhn.
 
Ich würde mir wünschen das einige Leute hier so diskutieren das sie keine rote oder grüne Brille aufgesetzt haben. Dann würde man vermutlich deutlich bessere Kommentare bekommen. Leider haben wir grade hier bei PCGH immer wieder dieses Fanboygequatsche das überwiegt. Echt schade.
 
Also 2 Jahre später wenn man mit dem Game schon 3x durch ist "funktioniert" dann DLSS? Bis dahin hab ich aber evtl. Schon potentere Hardware und brauche das noch weniger falls ich das Spiel dann nochmal spiele.

Mit dieser Argumentation müssten wir überhaupt keine Benchmarks mehr machen. Warum denkt ihr außerdem immer sofort an "Jahre"? Bei Battlefield 5 kam der Raytracing Patch erst Mitte November. Ignoriert man die Zeit um Weihnachten und Neujahr, weil dann bei Firmen eh niemand arbeitet, hat DICE dafür weniger als 8 Wochen gehabt.

Cool. Scheint ein premiumfeature zu sein.

Nein, wir sind nur so idiotisch und vergleichen quasi Downsampling gegen Upsamping (DLSS) und wundern uns warum Downsampling besser ist.

Ganz einfach weil DS besseres Ausgangsmaterial hat und mehr Leistung frisst. Hätten wir genug Rohleistung, bräuchten wir die ganze Prozedur nicht. Allerdings neigt sich mehr Rohleistung durch Fertigungsverkleinerungen langsam dem Ende zu. Ab jetzt muss man halt mit mehr und mehr Tricks arbeiten.

Unverständlich dass man beim Aushängeschild BF5 "zu wenig trainiert" hat. Wie lange dauert denn ein Training so? Wenns mehr als 6 Monate dauert um gegen normales upscaling anzustinken kaünnst du es in die Tonne kloppen.

Das kommt darauf an, worauf man die Neuralen Netzwerke des DLSS eigentlich trianiert. Da könnten auch mehrere NN gleichzeitig laufen und das hier ist nur das Zwischenergebnis. Je länger man diese trainiert und die besten Ergebnisse weiter verfeinert um so besser.

Was ist deiner Meinung nach Upscaling bei GPUs? Mir ist da bei PCs keine Technik bekannt. Auf Konsolen hat man Checkerboard Rendering, kommt da aber selten über 30 FPS.

DLSS ist ansich für Performancesteigerung gedacht mit einem Kompromiss über die Bildqualität. Du kannst dir die Originalquelle gerne einmal durchlesen. Der Author von Techspot tut gerade so als wäre es das Ende der Welt und der letzte Patch die finale Eingebung.

Ironisch, denn sowohl die Entwickler von DICE (BFV) als auch 4A Games (Metro:E) meinen beide, es gäbe bezüglich DLSS und Raytracing noch eine Menge zu Potential und Möglichkeiten zu polieren.
 
Zuletzt bearbeitet von einem Moderator:
weder in FFXV sieht es gut aus,noch in BF5.

Das ist falsch, in FFXV sieht es laut PCGH Artikel und objektiven Bewertungen ziemlich gut aus.
Dass du das anders siehst ist klar, ich hab noch nicht erlebt dass irgendetwas in Verbindung mit dir und NVidia gut sein kann.
 
Nein, wir sind nur so idiotisch und vergleichen quasi Downsampling gegen Upsamping (DLSS) und wundern uns warum Downsampling besser ist.

Das ist, wie im Artikel beschrieben, eben nicht der Fall. Es wird klassisches Upsampling mit DLSS verglichen und in diesem Fall bietet Upsampling je nach Einstellung die bessere Bildqualität oder eine bessere Leistung. Solange DLSS keinen Vorteil gegenüber normalem Upsampling bietet, ist es eben nur eine Alternative, bei der der Mehraufwand der Implementation mindestens fragwürdig ist.

DLSS ist ansich für Performancesteigerung gedacht mit einem Kompromiss über die Bildqualität. Du kannst dir die Originalquelle gerne einmal durchlesen. Der Author von Techspot tut gerade so als wäre es das Ende der Welt und der letzte Patch die finale Eingebung.

Ironisch, denn sowohl die Entwickler von DICE (BFV) als auch 4A Games (Metro:E) meinen beide, es gäbe bezüglich DLSS und Raytracing noch eine Menge zu Potential und Möglichkeiten zu polieren.

Wenn die Performancesteigerung aber mit ähnlichen optischen Nachteilen wie bei den gängigen Methoden verbunden ist, wo bleibt dann der Vorteil? Stand jetzt ist nunmal absolut enttäuschend im Hinblick auf die großspurigen Ankündigungen. Aber absolut recht hast du damit, dass die aktuelle Situation nicht bedeutet, das DLSS ansich Schrott ist. Ich glaube auch, dass da noch Optimierungspotenzial vorhanden ist.

Das ist falsch, in FFXV sieht es laut PCGH Artikel und objektiven Bewertungen ziemlich gut aus.
Dass du das anders siehst ist klar, ich hab noch nicht erlebt dass irgendetwas in Verbindung mit dir und NVidia gut sein kann.

Man muss dann aber auch ehrlich sagen, dass das in FF integrierte TAA absoluter Schrott ist. DLSS bietet hier das bessere Bild in den meisten Szenen, allerdings sähe es mit ordentlichem Ingame-AA wieder etwas anders aus. Die Unschärfe ist wirklich deutlich geringer als in den beiden anderen Spielen, allerdings glättet DLSS insgesamt etwas unzuverlässiger. Manche Bildteile werden fast gar nicht berücksichtigt.

Hier ein Beispiel, dass letztens sogar von Scully gepostet wurde:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gerade am Anfang an der Windschutzscheibe oder ab etwa 3:18 auf dem Holzsteg glättet DLSS einiges so gut wie gar nicht. Die Bildschärfe geht insgesamt bis auf einige Texturen, die etwas matschiger werden, in Ordnung. Allerdings sieht laut Techspot 1440p Upscaling + nachschärfen nur geringfügig schlechter als DLSS aus bei deutlich höheren Bildraten. In (leider nicht getesten/möglichen) 1800p + Nachschärfen dürfte es trotz Schrott-TAA wenige Unterschiede geben.
Ich glaube wie gesagt daran, dass da noch optimiert wird und DLSS zukünftig durchaus einen Mehrwert bieten kann. Im Moment tut es das aber nur in einem einzigen spielbaren Beispiel und dort auch nur aus den gerade angesprochenen Gründen.

Ich sehe jetzt nicht, wo Gurdi etwas schlecht redet, was nicht auch von einem großen Teil der RTX-Nutzer scharf kritisiert wird. DLSS ist im aktuellen Stadium enttäuschend. Wenn AMD Upscaling in dieser Qualität gebracht hätte, wäre das wahrscheinlich auch von Dir (vollkommen zurecht) durch den Kakao gezogen worden.
 
Zuletzt bearbeitet:
Das ist, wie im Artikel beschrieben, eben nicht der Fall. Es wird klassisches Upsampling mit DLSS verglichen und in diesem Fall bietet Upsampling je nach Einstellung die bessere Bildqualität oder eine bessere Leistung. Solange DLSS keinen Vorteil gegenüber normalem Upsampling bietet, ist es eben nur eine Alternative, bei der der Mehraufwand der Implementation mindestens fragwürdig ist.

Klassisches Upsampling gibt es nicht auf dem PC! Dafür nutzt man meist spezielle Techniken oder sogar Hardware.

Was der Redakteur von Techspot gemacht hat ist die Einstellung auf 4k zu setzen und den Regler für "Resolution scaling" immer weiter runter zu drehen. Bei 78% kam er auf die gleiche Leistung wie "4k DLSS" (50FPS Vs 50,1FPS). Damit kam er auf die krummen 1685p, die es garnicht gibt.

Das sind 2995 x 1685 Pixel. Kein Mensch spielt in so einer unnatürlichen Auflösung. Was hier weggelassen wird, ist dass die Leistung wesentlich durch Raytracing/on gebremst wird. Dafür erhält man zusätzliches Eyecandy bzw. neue Effekte.

In seinem Beispiel verliert man 8-10 FPS gegenüber nativem 1440p, hat aber die Bildqualität von 1685p, dafür aber mit Raytracing. Die Durchschnitts-FPS kreisen dabei um die magischen 60 FPS, die Nvidia ja im Vorfeld versprochen hat.

Ich verstehe daher die Untergangsstimmung nicht.

Wenn die Performancesteigerung aber mit ähnlichen optischen Nachteilen wie bei den gängigen Methoden verbunden ist, wo bleibt dann der Vorteil? Stand jetzt ist nunmal absolut enttäuschend im Hinblick auf die großspurigen Ankündigungen.

Großspurig waren höchsten die üblichen Forenhelden in den letzten Wochen und Monaten. Vor noch garnicht all zu langer Zeit hat noch jeder von denen über die fehlende Leistung von Raytracing ohne Ende genörgelt. Mit einer Untergangsstimmung wie ich sie noch nie im Hardwareforum gesehen habe, versteht sich!

Jetzt stimmt die Leistung allmählich und es wird von den Nörglern und Skeptikern auf das Thema Bildqualität umgeschwenkt. Naja :rollen:

Ich weiß ja nicht, aber mir wären 4k DLSS@60-68 FPS lieber als die nativen 4k @40-45 FPS. Im Multiplayer hat man sogar bis zu ~100-113 FPS. wo gibt es das denn bitte sonst?

Es ist auch nicht so, dass das Bild grausig wie 800x600 aussehen würde. Zwar ist das Bild nicht immer ideal und für manchen Geschmack zu "weich", aber die höheren FPS dürften dem Spielspaß wesentlich mehr helfen als mehr Bildqualität bei niedriger Leistung.

Aber absolut recht hast du damit, dass die aktuelle Situation nicht bedeutet, das DLSS ansich Schrott ist. Ich glaube auch, dass da noch Optimierungspotenzial vorhanden ist.

Richtig. Ich bin mir aktuell noch nicht einmal sicher welchen Build bzw. DLSS-Version man bei DICE für Battlefield V überhaupt benutzt. Die könnten intern viel weiter sein als die aktuelle Releaseversion.

Aus diesem Grund warte ich auch die nächsten Patches und Spiele ab ab. Da rollt zwischen Febuar und Mai alleine eine ganze Menge rein.

Man muss dann aber auch ehrlich sagen, dass das in FF integrierte TAA absoluter Schrott ist. DLSS bietet hier das bessere Bild in den meisten Szenen, allerdings sähe es mit ordentlichem Ingame-AA wieder etwas anders aus. Die Unschärfe ist wirklich deutlich geringer als in den beiden anderen Spielen, allerdings glättet DLSS insgesamt etwas unzuverlässiger. Manche Bildteile werden fast gar nicht berücksichtigt.

FFXV hat zugegeben einen schrägen technischen Unterbau. Leider ist es das einzige Spiel mit DLSS only Unterstützung. Der Rest ist soweit ich weiß bisher nur angekündigt.

Mich interessieren vorallem wie sich DLSS-only Ankündigungen wie PUBG und Darksiders 3 machen. Diese Spiele haben schnelle Bildwechsel und kein Raytracing in Planung sagen deren Entwickler.

Die Bildschärfe geht insgesamt bis auf einige Texturen, die etwas matschiger werden, in Ordnung. Allerdings sieht laut Techspot 1440p Upscaling + nachschärfen nur geringfügig schlechter als DLSS aus bei deutlich höheren Bildraten. In (leider nicht getesten/möglichen) 1800p + Nachschärfen dürfte es trotz Schrott-TAA wenige Unterschiede geben.

Nachschärfen ist dann jedoch immer PostProcessing. Das kann Turing mit den neuen Features wie unten in zukünftigen Titeln anscheinend sogar besser. Siehe:

*Variable Rate Shading (VRS)
· Content Adaptive Shading
· Motion Adaptive Shading

*Mesh Shading (!!!)
*Foveated Rendering
*Ray Traced Ambient Occlusion (!!!)

Vieles davon ist komplett aus der Berichterstattung verschwunden.
 
Das sind 2995 x 1685 Pixel. Kein Mensch spielt in so einer unnatürlichen Auflösung. Was hier weggelassen wird, ist dass die Leistung wesentlich durch Raytracing/on gebremst wird. Dafür erhält man zusätzliches Eyecandy bzw. neue Effekte.

In seinem Beispiel verliert man 8-10 FPS gegenüber nativem 1440p, hat aber die Bildqualität von 1685p, dafür aber mit Raytracing. Die Durchschnitts-FPS kreisen dabei um die magischen 60 FPS, die Nvidia ja im Vorfeld versprochen hat.

Ich verstehe daher die Untergangsstimmung nicht.

So wie ich das verstehe, wird immer mit gleichen Einstellungen (sprich mit Raytracing) getestet und Upscaling per Resolutionslider liefert bei gleicher Leistung das bessere Bild. Die eigentlich berechnete Auflösung spielt ja bei brauchbarem Endergebnis keine Rolle. Anders gesagt: Besitzer einer 1080TI bekommen durch einstellen des Auflösungsreglers ein besseres Ergebnis (Verhältnis Leistung zu Optik) als ein 2080 Besitzer, der mit DLSS und ansonsten gleichen Einstellungen spielt. Natürlich können RTX Nutzer auch auf den Auflösungsregler zurückgreifen und bekommen das gleiche Ergebnis, aber weshalb ist DLSS dann noch ein mit Vorteilen verbundenes Feature?
Das Beispiel gilt erstmal nur für Battlefield und Metro.


Großspurig waren höchsten die üblichen Forenhelden in den letzten Wochen und Monaten. Vor noch garnicht all zu langer Zeit hat noch jeder von denen über die fehlende Leistung von Raytracing ohne Ende genörgelt. Mit einer Untergangsstimmung wie ich sie noch nie im Hardwareforum gesehen habe, versteht sich!

Die Reaktion auf Radeon VII ["Wenn wir DLSS aktivieren, vernichten wir sie"] war angesichts des gegenwärtigen Zustands mMn. sehr großspurig, weil es in 2 von 3 Beispielen schlichtweg quatsch ist und man mit jeder Radeon/GTX ein ähnliches und sogar besseres Ergebniss als mit DLSS hinbekommt.

Raytracing als Quatsch abzustempeln, wie es Einige tun, finde ich auch lächerlich. Auch die Aussagen à la "Man hat in Shootern keine Zeit die Effekte zu sehen" oder Ähnliches kann ich nicht nachvollziehen. Wenn ich durch realistische Spiegelungen in Fenstern, Autos etc. plötzlich nicht mehr hinter jeder Deckung vollständig unsichtbar bin oder ein Gegner, der sich von hinten anschleicht, durch sein Spiegelbild sichtbar ist, dann kann das einen enormen spielerischen Mehrwert bringen. Ich kenne kein grafisches Feature der letzten Jahre, das dermaßen viele taktische Änderungen am Gameplay bringen kann (Wenn auch noch nicht in den bisherigen Beispielen).
Die Leistung finde ich nach den letzten Updates auch i.O., aber angesichts des gebotenen auch noch nicht übermäßig gut. War aber bei komplett neuen Techniken aber selten anders und fairerweise muss man dann auch den Umstand berücksichtigen, dass AMD dahingehend gar nichts zu bieten hat.


Ich weiß ja nicht, aber mir wären 4k DLSS@60-68 FPS lieber als die nativen 4k @40-45 FPS. Im Multiplayer hat man sogar bis zu ~100-113 FPS. wo gibt es das denn bitte sonst?

Es ist auch nicht so, dass das Bild grausig wie 800x600 aussehen würde. Zwar ist das Bild nicht immer ideal und für manchen Geschmack zu "weich", aber die höheren FPS dürften dem Spielspaß wesentlich mehr helfen als mehr Bildqualität bei niedriger Leistung.

Der Punkt ist, dass man in BF 5 ein besseres Ergebnis bei gleicher Framrate ohne DLSS hinbekommt. Auf jeder Karte. Da ist es unseriös DLSS im jetzigen Zustand als Vorteil der RTX Karten zu verkaufen. Wenn durch zukünftige Updates die Qualität verbessert wird, kann das natürlich wieder ganz anders aussehen.

Nachschärfen ist dann jedoch immer PostProcessing. Das kann Turing mit den neuen Features wie unten in zukünftigen Titeln anscheinend sogar besser. Siehe:

*Variable Rate Shading (VRS)
· Content Adaptive Shading
· Motion Adaptive Shading

*Mesh Shading (!!!)
*Foveated Rendering
*Ray Traced Ambient Occlusion (!!!)

Vieles davon ist komplett aus der Berichterstattung verschwunden.

Wer sagt, dass Nvidia bei DLSS in FF z.B. nicht nachschärft? Oder dies demnächst in Metro und BF tut, um mit geringem Aufwand die Unschärfe etwas abzumildern.

Die aufgeführten Turing-Techniken sind zweifelslos interessant, haben aber nicht viel mit Post Processing zu tun. Aus der Berichterstattung verschwunden sind sie, weil außer CAS in Wolfenstein noch keines der Features wirklich eingesetzt wurde. Daran sehe ich jetzt nichts negatives, denn das passiert mit vielen Techniken von Nvidia und AMD, die nie richtig Fuß fassen und wieder verworfen werden. Die Zukunft wird zeigen, ob und bei welchen der aufgeführten Features das der Fall sein wird.
 
Das ist, wie im Artikel beschrieben, eben nicht der Fall. Es wird klassisches Upsampling mit DLSS verglichen und in diesem Fall bietet Upsampling je nach Einstellung die bessere Bildqualität oder eine bessere Leistung. Solange DLSS keinen Vorteil gegenüber normalem Upsampling bietet, ist es eben nur eine Alternative, bei der der Mehraufwand der Implementation mindestens fragwürdig ist.



Wenn die Performancesteigerung aber mit ähnlichen optischen Nachteilen wie bei den gängigen Methoden verbunden ist, wo bleibt dann der Vorteil? Stand jetzt ist nunmal absolut enttäuschend im Hinblick auf die großspurigen Ankündigungen. Aber absolut recht hast du damit, dass die aktuelle Situation nicht bedeutet, das DLSS ansich Schrott ist. Ich glaube auch, dass da noch Optimierungspotenzial vorhanden ist.



Man muss dann aber auch ehrlich sagen, dass das in FF integrierte TAA absoluter Schrott ist. DLSS bietet hier das bessere Bild in den meisten Szenen, allerdings sähe es mit ordentlichem Ingame-AA wieder etwas anders aus. Die Unschärfe ist wirklich deutlich geringer als in den beiden anderen Spielen, allerdings glättet DLSS insgesamt etwas unzuverlässiger. Manche Bildteile werden fast gar nicht berücksichtigt.

Hier ein Beispiel, dass letztens sogar von Scully gepostet wurde:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gerade am Anfang an der Windschutzscheibe oder ab etwa 3:18 auf dem Holzsteg glättet DLSS einiges so gut wie gar nicht. Die Bildschärfe geht insgesamt bis auf einige Texturen, die etwas matschiger werden, in Ordnung. Allerdings sieht laut Techspot 1440p Upscaling + nachschärfen nur geringfügig schlechter als DLSS aus bei deutlich höheren Bildraten. In (leider nicht getesten/möglichen) 1800p + Nachschärfen dürfte es trotz Schrott-TAA wenige Unterschiede geben.
Ich glaube wie gesagt daran, dass da noch optimiert wird und DLSS zukünftig durchaus einen Mehrwert bieten kann. Im Moment tut es das aber nur in einem einzigen spielbaren Beispiel und dort auch nur aus den gerade angesprochenen Gründen.

Ich sehe jetzt nicht, wo Gurdi etwas schlecht redet, was nicht auch von einem großen Teil der RTX-Nutzer scharf kritisiert wird. DLSS ist im aktuellen Stadium enttäuschend. Wenn AMD Upscaling in dieser Qualität gebracht hätte, wäre das wahrscheinlich auch von Dir (vollkommen zurecht) durch den Kakao gezogen worden.

Noch viel schlimmer finde ich in FFXV die Vegetation und weit entfernte Objekte. Sry aber da ist überhaupt nichts überzeugend an dem Feature aktuell, von der geringen Marktdurchdringung mal abgesehen.
 
So wie ich das verstehe, wird immer mit gleichen Einstellungen (sprich mit Raytracing) getestet und Upscaling per Resolutionslider liefert bei gleicher Leistung das bessere Bild.

Die Tester bei Techspot waren nur zu faul, das ist alles! Aus den bisherigen Tests über Raytracing weiß man, dass Ultra oft zu viel Leistung frisst. Stellt man hingegen auf High oder Mid bekommt man wesentlich mehr FPS bei fast derselben Bildqualität.

Das ist übrigens ein Mythos mit dem Resolutionscaler. Das Ergebnis hängt abolut von der Karte und den Einstellungen ab. Im gleichen Artikel kommt der Autor mit z.B. bei 84% Resoltuion Scale von 1440p ausgehend. Dort sagt er, die Bildqualität wäre bei 2150 x 1210 in etwa vergleichbar. Dennoch merkt er an, die Leistung ist 18% höher als bei nativen 1440p.

Da ist also nicht alles in Stein gemeißelt, sondern variiert.

Die eigentlich berechnete Auflösung spielt ja bei brauchbarem Endergebnis keine Rolle. Anders gesagt: Besitzer einer 1080TI bekommen durch einstellen des Auflösungsreglers ein besseres Ergebnis (Verhältnis Leistung zu Optik) als ein 2080 Besitzer, der mit DLSS und ansonsten gleichen Einstellungen spielt.

Ein Besitzer einer 1080 Ti hat dann aber kein Raytracing mit im Ergebnis. Battlefield V hat aktuell nur die Kombination von DLSS und Raytracing gleichzeitig als Option.

Das macht den Vergleich schwieriger.

Natürlich können RTX Nutzer auch auf den Auflösungsregler zurückgreifen und bekommen das gleiche Ergebnis, aber weshalb ist DLSS dann noch ein mit Vorteilen verbundenes Feature?
Das Beispiel gilt erstmal nur für Battlefield und Metro.

Battlefield und Metro koppeln wie gesagt DLSS mit Raytracing. Ein momentaner Fakt über den sich auch viele Youtuber wie Jay2Cents & Co. beschweren.

Wenn man über DLSS urteilen möchte, braucht man ein Spiel, das kein Raytracing unterstützt, aber DLSS alleine hat. Dann kann man auch direkt vergleichen ohne mögliche Störfaktoren und sonstige Einflussfaktoren.

Meiner Meinung nach haben DICE und 4A Games mehr wert auf die Implementierung von Raytracing gelegt als DLSS. Genau wie Nvidia sagt, hat man eher auf die Leistung geschaut, als auf die Bildqualität. Daran arbeitet man jetzt gemeinsam.

Die Reaktion auf Radeon VII ["Wenn wir DLSS aktivieren, vernichten wir sie"] war angesichts des gegenwärtigen Zustands mMn. sehr großspurig, weil es in 2 von 3 Beispielen schlichtweg quatsch ist und man mit jeder Radeon/GTX ein ähnliches und sogar besseres Ergebniss als mit DLSS hinbekommt.

Naja, die RVII ist nach wie vor ein Witz. Immer noch keine wirkliche Verfügbarkeit bei saudämlichen Preisen, obwohl sie trotzdem langsamer in purer Rohleistung als die RTX2080 ist.

Ich finde die Aussage hat technisch immer mehr Wahrheitsgehalt als man sie zuerst vom CEO ohne Tatsachen seitens AMD gehört hatte. Wirklich überzeugend ist Vega 20 bisher nicht und die extra features von Turing fehlen fast alle. Wehe wenn da ein Spiel herauskommt, dass diese unterstützt. :P

Die Leistung finde ich nach den letzten Updates auch i.O., aber angesichts des gebotenen auch noch nicht übermäßig gut. War aber bei komplett neuen Techniken aber selten anders und fairerweise muss man dann auch den Umstand berücksichtigen, dass AMD dahingehend gar nichts zu bieten hat.

(Ich lasse AMD hier einmal aus dem Spiel, weil es so ein Reizthema ist!)

Ich kann mich noch sehr gut an die Anfangszeiten erinnern, in denen man noch sagte: "Wir stellen nur auf AF und kein AA, weil letzeres zu viel Leistung kostet."

Die Early-Adopter haben es trotzdem mit Kompromissen anderso verwendet. Einige Zeit später kam dann der 8-16x AA-Trend in jede Testsuite. Bei DLSS/RT bin ich weiterhin der Meinung die Situation kann sich bie jedem neuen Patch ändern.

Bei Aussagen wie "hab ich doch gesagt" auch bei Techspot, fällt mir die Voreingenommenheit auf. Die Neutralität und der Wille bekommt da kein gutes Image.

Der Punkt ist, dass man in BF 5 ein besseres Ergebnis bei gleicher Framrate ohne DLSS hinbekommt. Auf jeder Karte. Da ist es unseriös DLSS im jetzigen Zustand als Vorteil der RTX Karten zu verkaufen. Wenn durch zukünftige Updates die Qualität verbessert wird, kann das natürlich wieder ganz anders aussehen.

Erstens hat nicht jedes Spiel hat einen Resolutionslider und zweitens haben auch andere Features große Einwirkungen. Gewohnheitsgemäß schalte ich z.B. die eingebauten "Motion-Blur" Einstellungen in jedem Spiel ab, weil sie das Bild verzerren.

Gerade bei solchen Optionen bin ich mir immer Unsicher wie viel solche alten Tricks das Ergebnis bei DLSS beeinflussen. Dafür brauchen wir einfach mehr Beispiele in unterschiedlichen Spielen und Engines. Ansonsten machen wir uns bei jedem Vergleich verrückt.

Wer sagt, dass Nvidia bei DLSS in FF z.B. nicht nachschärft? Oder dies demnächst in Metro und BF tut, um mit geringem Aufwand die Unschärfe etwas abzumildern.

Nvidia wird sicher etwas unternehmen. Für die Details fehlt mir aber sowohl das benötigte Wissen als auch die richtige Glaskugel :devil:

Die aufgeführten Turing-Techniken sind zweifelslos interessant, haben aber nicht viel mit Post Processing zu tun. Aus der Berichterstattung verschwunden sind sie, weil außer CAS in Wolfenstein noch keines der Features wirklich eingesetzt wurde. Daran sehe ich jetzt nichts negatives, denn das passiert mit vielen Techniken von Nvidia und AMD, die nie richtig Fuß fassen und wieder verworfen werden. Die Zukunft wird zeigen, ob und bei welchen der aufgeführten Features das der Fall sein wird.

Nicht doch!
Gerade Ray Traced AO ist eine Post-Processing Technik in Verbindung mit Raytracing. Damit kann ich mir durchaus bessere Ergebnisse vor allem an den mit DLSS-/RT verwaschenen Rändern vorstellen. Sieht 10x besser aus als SSAO. Bin gespannt wie es sich in Praxistests gegen HBAO+ stellt. Könnt eine Option für zukünftige Gameworkstitel werden.

Mesh Shading
sieht auch für nach einem guten Partner für DLSS & Co. aus. Gerade in Szenarien mit heftiger Tesselation bekommt man bessere LOD-Ergebnisse, so bisher das Versprechen.

In Variable Rate Shading (VRS) sehe zudem Potential endlich diese grässliche Welle von "Dynamischer Auflösung" endlich zu beenden. Nichts ist unschärfer als wenn der Entwickler an der Auflösung für die Konsolen heraumpfuscht. Ein Punkt, der mir übrigens sauer aufstößt wenn es um "Match" von DLSS geht. Das wird jedoch schwieriger für die Redakteure, weil man nicht mehr wie vorher alles per Auge vergleichen kann und unzählige Regler mehr hat.

Ich will auch keine Technologie-Predigten halten. Kurz gesagt ist die Kombination diverser Turing-Features sehr vielversprechend. In der kombination dieser sehe ich Szenarien, in denen DLSS aufblühen könnte.
 
@TheGoodBadWeird: Beim Thema DLSS bin ich eben etwas anderer Meinung, hier hat mich abseits vom 3D Mark keine einziges Beispiel überzeugt bzw. einen echten Mehrwert gebracht. In FF mildert es zumindest etwas die vorhandenen Probleme ab, von richtig gut ist man hier aber auch entfernt. Auch ohne Resolutionslider kann ich heutezutage Auflösungen unterhalb der nativen auswählen, zur Not per angelegter Custom Resolution. Dennoch sehe ich Potenzial und wenn DLSS in Spielen zukünftig die Qualität vom 3D Mark erreicht oder DLSS2X überzeugt, bin ich der letzte, der das nicht anerkennt.

Die Radeon VII wegen der Verfügbarkeit oder dem gegenwärtigen Preis zu verurteilen finde ich nicht richtig. Die 2080 war direkt nach Launch auch etwas teurer als jetzt. Natürlich sind die momentan aufgerufenen Preise zu hoch, aber das kann sich in den nächsten Wochen ändern. So fair sollte man dann auch hier sein und etwas abwarten, die Liefersituation soll sich ja schon leicht gebessert haben.

Zum Launch der Karte, dem Kühler und dem Launchtreiber kann man aber wirklich nichts mehr sagen, das ist schon ein running gag bei AMD Referenzdesigns. Vollkommen unverständlich, dass man das nie besser hinbekommt.

Bei den neuen Turing-Techniken wird die Zeit zeigen, was sich durchsetzt. Wenn massiv darauf gesetzt werden würde in Spielen, würden sich neben AMD-Nutzern aber auch die überzeugten Pascal-Besitzer umschauen.

Auf jeden Fall schön, dass man sich hier im Forum auch normal austauschen kann, wenn man nicht 100% der gleichen Meinung ist und es nicht direkt in gebashe und Beleidigungen ausartet.
 
Alle "arbeiten" an Verbesserungen bei DLSS für die entsprechenden Games...
Schön für Sie...nur nicht für den Käufer dieser bereits erschienenen Games....

Nach Update-Marathons, um ein Game spielbar, bzw. bugfrei zu bekommen, gibt es jetzt also noch den "optischen DLSS-Marathon", auf den man warten soll, bis das Spiel, (vielleicht!) irgendwann einmal so aussieht, wie man es eigentlich von Anfang an hätte spielen könnte, wenn man ganz einfach DLSS(/RT) weglässt...?
Wer den Witz darin findet, darf ihn behalten :LOL:

mfg
 
Zurück