News Nvidia DLSS 3.7: Mehr Leistung und Upscaling-Qualität durch neue Voreinstellungen

Flimmnen und Alias-Pixelkanten sind keine Details und geben auch nur die Illusion von Schärfe. Mit was vergleichst Du denn? Mit TAA?

Mit was ich vergleiche? Mit meinen Augen. DLSS in Cyberpunk ist ähnlich wie FXAA als AA Methode in WoW, wenn ich da länger als 10 Min draufstehe bekomme ich Kopfschmerzen.

@Cross-Flow
Niemand ist gezwungen jegliche Art von Upscalern zu benutzen, es sei denn Du spielst auf "NeXt-Gen" Konsole...

Das ist absolut Korrekt. Nur wird viel zu wenig vor dem Müll gewahnt, im Gegenteil es wird als Nvidias Geschenk an diese Welt bewundert.

@Cross-Flow ist mal wieder ein 1A Stammtisch Beitrag.
Weil es in einem Spiel nicht optimal ist, ist es gleich grundsätzlich absolut scheiße.
Es gibt nur perfekt und scheiße, dazwischen liegt nichts.
Wie soll man sowas ernstnehmen?

Es wurde hier schon mehrfach gesagt, dass es gut und schlechte DLSS Beispiele gibt, aber selbst die schlechten sind in 4K alles andere als "durch die Waschmaschine gezogen".

Ich habs in 1440p mit DLSS-Q gespielt und es sah super aus. Nativ gibt es in CP übrigens nicht, sondern nur TAA und TAA hat die gleichen Probleme.

Es ist nunmal auf der Welt so. Entweder es ist etwas benutzbar oder nicht. Scheiße, so wie du es beschrieben ist, bleibt dann halt scheiße und das ist auch okay so.

TAA kannst du in Cyberpunk abschalten mit Mods etc. pp. Cyberpunk und TAA ist kein Muss :schief:
 
wie hier ständig fehlendes wissen unterstellt wird und dlss in einen himmel gelobt wird in dem es nicht ist. bei 4k sieht es in bewegung oftmals besser aus als nativ, aber nicht immer. standbilder interessieren niemanden. das ghosting und irgendwelche outlinefehler kommen ja erst in bewegung zur geltung - oder spielt ihr mit 1 fps und es stört euch deshalb nicht?!

und ja dlss ist auf quality gestellt - bei 1440p - leider bei fast allen games schlechter als nativ. bei manchen games vlt ein wenig vernachlässigbar, da die fps deutlich steigen, aber generell immer noch ein kleines downgrade.

rdr2 mit dlss q sieht fürchterlich aus. death stranding mit dlss q sieht auch schlechter aus als ohne dlss, the finals mit dlss schlechter als ohne. bei cyberpunk ohne pathtracing nur dlss q - auch schlechtere bildqualität. das ghosting am auto oder an lampen ist fürchterlich. auch mit 2.5.1.

wie gesagt frage ich mich immer noch - was stellt ihr ein - wenn es angeblich besser als nativ sein soll und das bereits bei 1440p? hier werden behauptungen ohne belege aufgestellt. und wenn man nicht mehr weiter weiß wird fehlendes wissen unterstellt oder auf irgendwelche videos verwiesen die eigentlich nichts mit den problemen zu tun haben.

abgesehen davon könnt ihr ja glücklich sein - wenn dlss q für euch aussieht wie nativ oder sogar besser, egal bei welcher auflösung, dann seid glücklich und spielt eure spiele so. aber ständig unterstellen das irgendwer dumm ist, weil er einfach sagt dlss q sieht nicht so gut aus wie nativ, ist einfach untersteschublade
 
standbilder interessieren niemanden. das ghosting und irgendwelche outlinefehler kommen ja erst in bewegung zur geltung - oder spielt ihr mit 1 fps und es stört euch deshalb nicht?!
Aber auch nicht in jedem Spiel, so wie es hier immer behauptet wird?!
Gibt genug Gegenbeispiele in denen nativ ganz schön alt gegen DLSS aussieht, aber die interessieren keinen. Man rotzt immer nur "DLSS ist scheiße" ins Forum.
Siehe z.B. Cross-Flow, der mir erzählen will, dass das krisselige Native Bild mit Artefakten des Denoisers besser ist als DLSS oder TAA.

rdr2 mit dlss q sieht fürchterlich aus.
Und schon wieder eine Lüge. DLSS-Q ist das beste AA in RDR2.
RDR 2 leidet nativ mit TAA massiv unter Ghosting, mit DLSS nicht mehr so stark:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
ja dann gib doch mal diese tollen beispiele von games bei denen es besser aussieht incl. dlss version damit man sich davon überzeugen kann?

Habs auch lange mit 1440p genutzt. Es kann sein, dass das Bild mit DLSS unterhalb von 4k etwas blurry ist, aber da kann man ja heutzutage im Spiel selbst oder per Treiber mit etwas Schärfe nachhelfen.

Es gibt zwei Möglichkeiten: Du spielst nativ 1440p ohne Anti-Aliasing, und dann kannst du mir schlicht nicht erzählen das sieht besser aus DLSS Quality. Keine Chance. Nativ ohne AA flimmert wie die Hölle, egal welches Spiel. Oder du spielst mit TAA, und dann ist das so matschig als ob man 720p spielt. Auch da kannst du mir never ever erzählen das sieht besser aus. Völlig unmöglich. DLSS ist immer überlegen.
rdr2 sieht mit taa besser aus als mit dlss q bei 1440p.
 
rdr2 sieht mit taa besser aus als mit dlss q bei 1440p.
Witzig, einerseits beschwert man sich hier über das Schmieren von DLSS, aber andererseits feiert man dann TAA, dass Ghosting aus der Hölle in RDR2 produziert.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das ist reinste Realsatire.
Ich kann dir aus eigener Erfahrung sagen, dass DLSS in RDR2 besser als alle anderen AA aussieht. MSAA ist bis heute verbuggt und sorg für riesige grüne Klumpen bei Bäumen in der Ferne und TAA ghostet des Todes.
Komplett ohne AA willste unterhalb von 4K nicht spielen.

So weit würde ich nicht gehen. Er versteht halt nur nicht das, wenn du TAA killst, du noch weiteres dazu abschalten musst :D z.B. screen space reflections da sonst das bild voller Artefakte ist. Aber wayne, einfach nichts drauf geben.
Am besten Spiele ich auf low ohne Schatten. Du bevorzugst angeblich Bildqualität, aber machst sie bewusst schlechter, nur um weder TAA, noch DLSS nutzen zu müssen. SSR aus sorgt für gar keine Reflexionen mehr. Das soll besser sein? Klar doch :D
 
Zuletzt bearbeitet:
ich feiere nicht taa. aber taa sieht bei 1440p BESSER aus als DLSS Q auch in bewegung, weniger ghosting und weniger matsch auf distanz.


und youtube videos von reddit verlinken, die deutlich zu niedrige bitrate haben um das gewünschte problem korrekt darzustellen sind eher kontraproduktiv, auch wenn man an den haaren taa probleme erkennt.
bleibt im endeffekt dabei, das taa low bei rdr2 weniger ghosting verursacht, besser mit foliage klarkommt und die weitsicht weniger ölig aussieht.
 
Am besten Spiele ich auf low ohne Schatten. Du bevorzugst angeblich Bildqualität, aber machst sie bewusst schlechter, nur um weder TAA, noch DLSS nutzen zu müssen. SSR aus sorgt für gar keine Reflexionen mehr. Das soll besser sein? Klar doch :D

Ja für mich schon. Am Anfang hab ich mich sehr gegen das Spiel gewehrt, mittlerweile habe ich irgendwie jede Patchversion hier als Offlineversion rumliegen und kann mir zusammenklicken was MIR gefällt.

Nimm doch jedes aktuelle Spiel und vergleich das gegen z.B. ein DE:MD in 4k. Ist halt ne komplette rückentwicklung die stattfindet, schon ohne "bildverbesserer" wie dlss und co.
 
Es gibt genügend Beispiele auf der Welt für perfekte Software seit Tag 1 ( wir reden Quasi von der erstmaligen retail Releseversion oder? ).

Jedes Videospielsystem welches auf Module setzt und nicht die Möglichkeit bietet Softwareupdates einzuspielen ist auf perfekte Software angewiesen.
Und selbst dort klappt es nie. Bugs gab es auch dort

So hat alleine der SNES schon 2000+ Beispiele für perfekte Software. Quasi soweit Fehlerfrei das beim Kunden zuhause keine Gamebreaking Bugs auftauchen.
Auch dort war die Software nicht 100% Bugfrei.
Es gibt keine perfekte bugfreie Software.

Abgesehen davon hinkt der Vergleich auch sowas von. Die Spiele damals waren die ersten 3D Spiele und sowas von Simple. Crash Bandicoot hat ne 10 Mann Bude in ein paar Wochen entwickelt.
An sowas wie Cyberpunk 2077 sitzen heute hunderte bis tausende Menschen mehrere Jahre.

Leute wie du fordern perfekte Software, mit brillanter Grafik, die auf einer Kartoffel laufen soll und nichts kosten darf. Sowas kann man nicht ernstnehmen.
 
wie hier ständig fehlendes wissen unterstellt wird und dlss in einen himmel gelobt wird in dem es nicht ist. bei 4k sieht es in bewegung oftmals besser aus als nativ, aber nicht immer. standbilder interessieren niemanden. das ghosting und irgendwelche outlinefehler kommen ja erst in bewegung zur geltung - oder spielt ihr mit 1 fps und es stört euch deshalb nicht?!

und ja dlss ist auf quality gestellt - bei 1440p - leider bei fast allen games schlechter als nativ. bei manchen games vlt ein wenig vernachlässigbar, da die fps deutlich steigen, aber generell immer noch ein kleines downgrade.

rdr2 mit dlss q sieht fürchterlich aus. death stranding mit dlss q sieht auch schlechter aus als ohne dlss, the finals mit dlss schlechter als ohne. bei cyberpunk ohne pathtracing nur dlss q - auch schlechtere bildqualität. das ghosting am auto oder an lampen ist fürchterlich. auch mit 2.5.1.

wie gesagt frage ich mich immer noch - was stellt ihr ein - wenn es angeblich besser als nativ sein soll und das bereits bei 1440p? hier werden behauptungen ohne belege aufgestellt. und wenn man nicht mehr weiter weiß wird fehlendes wissen unterstellt oder auf irgendwelche videos verwiesen die eigentlich nichts mit den problemen zu tun haben.

abgesehen davon könnt ihr ja glücklich sein - wenn dlss q für euch aussieht wie nativ oder sogar besser, egal bei welcher auflösung, dann seid glücklich und spielt eure spiele so. aber ständig unterstellen das irgendwer dumm ist, weil er einfach sagt dlss q sieht nicht so gut aus wie nativ, ist einfach untersteschublade


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

1712232118788.png


Ich denke HWUnboxed hat mehr Reputation als Du. Daher lass ich das hier mal so stehen.
 
Dass das ein Widerspruch ist, bemerkst Du gar nicht.

Es ist einfach in Deinem Kopf, dass Native besser sein muss als Upscaling. Das ist aber schlicht falsch. Das Wort "Upscaling" bedeutet für Dich weniger Details. Da ist aber schon ein Denkfehler drin, denn de fakto hat ein mit DLSS Quality berechnetes Bild mehr Information als ein Native berechnetes Bild.

Der Trick besteht darin, dass bei DLSS (und auch bei TAA und FSR) jedes Frame um einen anderen Betrag und in eine andere Richtung leicht (weniger als ein Pixel) verschoben berechnet wird. Ein Verfahren, dass auch vom Prinzip schon bei MSAA ähnlich angewendet wurde, dort aber nur auf Vektoren und wesentlich weniger ausgefeilt.

Diese leicht versetzt gerenderten Bilder werden dann über mehrere Frames zusammengerechnet. Dadurch hast Du de Fakto eine höhere Auflösung als Native, was auch der Grund ist, warum bei DLSS mehr(!!!) feine Details sichtbar werden als bei native.

Native ist deswegen ganz objektiv DetailÄRMER als DLSS Quality.
Das mag evtl. so sein. Das bestreite ich nicht. Jedoch fällt mir auf, dass das Bild in WQHD teils verschwommen ist und nicht mehr so scharf wie nativ. Das gefällt mir persönlich einfach mehr und deshalb verbinde ich mit DLSS und vor allem mit FG ein Verlust an Bildqualität. Das mag ja in 4K anders sein aber dafür wurde es auch konzipiert.
 
Habe ich auch in meinen Posts geschrieben, dass mit den Spielen die ich spiele, kaum einen Unterschied sehe.
Aber man muss ja jedem News nachäffen sonst ist man Fanboy
Weil es ein neues Preset ist und das Preset nicht gewechselt wird, wenn du die DLSS DLL tauscht.
Könnte das vielleicht der Grund sein? ;)

Steht übrigens auch in der Quelle und in der News:
The new preset E might be eager_donkey_00009 2022-07-06 19:03:10.147018 model, haven't tried it out yet though.

EDIT: seems games mostly still default to C, guess default was only changed inside SL.
Anwender wie 'Yakumo_unr', die das neue E-Profil bereits ausprobiert haben, geben an, dass die neue Voreinstellung eine bessere Bewegungsdarstellung mit weniger Verschmieren ("Smearing") bietet.
Das wüsstest du, wenn du die News wirklich gelesen hättest und hier nicht einfach nur deinen DLSS Hatetrain fahren würdest.
Und wieder einmal beweist du, wie gut du dich informiert hast. Ironisch...
 
Und selbst dort klappt es nie. Bugs gab es auch dort


Auch dort war die Software nicht 100% Bugfrei.
Es gibt keine perfekte bugfreie Software.

Abgesehen davon hinkt der Vergleich auch sowas von. Die Spiele damals waren die ersten 3D Spiele und sowas von Simple. Crash Bandicoot hat ne 10 Mann Bude in ein paar Wochen entwickelt.
An sowas wie Cyberpunk 2077 sitzen heute hunderte bis tausende Menschen mehrere Jahre.

Leute wie du fordern perfekte Software, mit brillanter Grafik, die auf einer Kartoffel laufen soll und nichts kosten darf. Sowas kann man nicht ernstnehmen.

Sicherlich gab es Bugs, die haste halt immer. Da hab ich auch nie was gegenteiliges gesagt.

Aber du kannst halt auf nem Nintendosystem bis zum Gamecube oder anderen Konsolen nicht so ein Spiel releasen wie Cyberpunk. Sony hat es aus dem Store genommen bei der PS4. Wenn du Cyberpunk als Modul hättest liegen haben dann wärst du drauf sitzen geblieben :)

Interessant finde ich deinen letzten Absatz, sowas habe ich halt auch nie gesagt :D Software kostet, im privaten Umfeld, nie auch nur einen Cent. Es sein denn man möchte unbedingt Online funktionen nutzen.

Was du aber nicht verstehst ist das hier. Dazu gebe ich dir mal nen kleinen Einblick in mein Leben:

Nach Abzug von allem was ich bezahlen muss bleiben bleiben mir ca. 788 € im Monat für Essen, Trinken und Spaß übrig. Das heist also das ich 3 Monate lag nichts essen und trinken darf und auf alles verzichte um mir eine RTX 4090 kaufen zu können.

Mit dieser Karte kann ich dann Cyperpunk mit Pathtrace bei unter 10 FPS spielen.

Spaß darf kosten, und wenn jemand die Halo Lizenz von MS abkauft, 343i auf den Mond ballert, alle Teile ab Halo 4 vom Kanon streicht und ein vernünftiges Spiel auf den Markt bringt dann bezahle ich von mir aus für 1 Spiel auch 1000 €.

Leider ist die meiste Hardware und Software auf dem Markt nen Haufen scheiße. Das wäre solange okay solange der Preis stimmt. Aber scheiße zu verkaufen UND dazu Preise die es in keinster Weise wert sind ist halt etwas was abgestraft gehört.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Anhang anzeigen 1457193

Ich denke HWUnboxed hat mehr Reputation als Du. Daher lass ich das hier mal so stehen.
bei 1440p sieht man das der "trend" ganz klar richtung native geht. Die unentschieden sind ingame mit Vor- und Nachteilen abzuwägen. Deathloop sieht mit DLSS auch schlechter aus als Nativ, da auch hier - ähnlich wie bei RDR2 die texturqualität stellenweise stark abnimmt und es aussieht als würde AF nur sehr schlecht greifen.

Aber da ihr auch gerade beim Beispiel von RDR2 so gerne euer maul unendlich weit aufreißt und mir jetzt quasi einen Beweis geben wollt dafür - das ihr ja so sehr im Recht seid und das DLSS besser als Nativ ist - da bitte ich euch einfach mal in der Tabelle nach RDR2 zu schauen (außerdem auch ein game mit viel Foliage).

Auch Witcher 3 - ein Game mit sehr viel Foliage sieht mit DLSS einfach schlechter aus als native. Die Unentschieden sind ganz klar pro/con in abwägung betrachtet, wenn man allerdings die Foliage probleme kennt und weiß, wird man bei solch foliagelastigen Games kaum auf ein unentschieden gehen.

Aber gut, das sind dann persönliche entscheidungen.


Gott seid ihr nervige kinderlein.
 
Sicherlich gab es Bugs, die haste halt immer. Da hab ich auch nie was gegenteiliges gesagt.
Das erwartet Soulstyle aber und um seine Aussage ging es ;)

Aber du kannst halt auf nem Nintendosystem bis zum Gamecube oder anderen Konsolen nicht so ein Spiel releasen wie Cyberpunk. Sony hat es aus dem Store genommen bei der PS4. Wenn du Cyberpunk als Modul hättest liegen haben dann wärst du drauf sitzen geblieben :)
Du kannst es aber auch nicht vergleichen. Solch komplexe Spiele wie heute wären damals auch nicht bugfreier gewesen. Es ist schlichtweg nicht möglich, wenn es noch irgendwo Geld abwerfen soll.

Es gibt keine Software die von Tag 1. perfekt läuft. Egal ob Open Source oder Closed Source. Alles entwickelt sich weiter und wird mit der Zeit besser.
Das war auch in der Gamecubezeit nicht anders. Der zweite Teil eines Spiels hat Dinge besser gemacht, die im ersten nicht so gut waren.

Interessant finde ich deinen letzten Absatz, sowas habe ich halt auch nie gesagt :D Software kostet, im privaten Umfeld, nie auch nur einen Cent. Es sein denn man möchte unbedingt Online funktionen nutzen.
Du nutzt also gecrackte Software und wunderst dich dann, wenn die Qualität sinkt und kaum noch jemand Risiken eingeht? :ugly:

Was du aber nicht verstehst ist das hier. Dazu gebe ich dir mal nen kleinen Einblick in mein Leben:

Nach Abzug von allem was ich bezahlen muss bleiben bleiben mir ca. 788 € im Monat für Essen, Trinken und Spaß übrig. Das heist also das ich 3 Monate lag nichts essen und trinken darf und auf alles verzichte um mir eine RTX 4090 kaufen zu können.
Und? Dann kauf sie halt nicht. Hätte auch gern nen Porsche.
Mit dieser Karte kann ich dann Cyperpunk mit Pathtrace bei unter 10 FPS spielen.
So ein Unfug. Selbst nativ kommen da mehr als 10 FPS rum, aber was soll ich auch von dir erwarten?
Und niemand spielt hier ohne DLSS, weil du sonst die Artefakte im Video zu sehen bekommst. Da hilft auch SSR abschalten nicht. Das sind RT Artefakte, die der Denoiser übersieht.

Spaß darf kosten, und wenn jemand die Halo Lizenz von MS abkauft, 343i auf den Mond ballert, alle Teile ab Halo 4 vom Kanon streicht und ein vernünftiges Spiel auf den Markt bringt dann bezahle ich von mir aus für 1 Spiel auch 1000 €.
Das bezweifle ich und selbst wenn, stehst du alleine da. Wenn Publisher Spiele solange entwickeln lassen, bis sie 1000€ kosten müssen, gehen sie daran zugrunde, weil die wenigsten so viel Geld für ein Spiel bezahlen würden.

Mal ganz davon ab, wollen die Mitarbeiter nicht erst nach 20 Jahren bezahlt werden, sondern sofort. Wo soll so viel Geld herkommen? Das kann sich nicht mal EA erlauben.

Leider ist die meiste Hardware und Software auf dem Markt nen Haufen scheiße. Das wäre solange okay solange der Preis stimmt. Aber scheiße zu verkaufen UND dazu Preise die es in keinster Weise wert sind ist halt etwas was abgestraft gehört.
Welche Hardware und welche Software ist denn ***?
Das meiste ist recht solide. Wirklich *** sind nur Titel wie Cities Skyline, aber mit dir über sowas zu diskutieren bringt nichts. Du kennst nur schwarz/weiss und bist nicht in der Lage zu differenzieren.
 
Zuletzt bearbeitet:
Sicherlich gab es Bugs, die haste halt immer. Da hab ich auch nie was gegenteiliges gesagt.

Äh, doch, Du hast genau das Gegenteil gesagt:

Es gibt genügend Beispiele auf der Welt für perfekte Software seit Tag 1 ( wir reden Quasi von der erstmaligen retail Releseversion oder? ).

Jedes Videospielsystem welches auf Module setzt und nicht die Möglichkeit bietet Softwareupdates einzuspielen ist auf perfekte Software angewiesen.

So hat alleine der SNES schon 2000+ Beispiele für perfekte Software. Quasi soweit Fehlerfrei das beim Kunden zuhause keine Gamebreaking Bugs auftauchen.

Und jetzt bist Du schön am zurück rudern. Alte Konsolen Titel hatten auch Bugs und Glitches. Das geht zurück zu Pong und Tetris:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Interessant finde ich deinen letzten Absatz, sowas habe ich halt auch nie gesagt :D Software kostet, im privaten Umfeld, nie auch nur einen Cent. Es sein denn man möchte unbedingt Online funktionen nutzen.

Du meinst geklaute Software kostet keinen Cent. Tolle Einstellung. :daumen:

Was du aber nicht verstehst ist das hier. Dazu gebe ich dir mal nen kleinen Einblick in mein Leben:

Nach Abzug von allem was ich bezahlen muss bleiben bleiben mir ca. 788 € im Monat für Essen, Trinken und Spaß übrig. Das heist also das ich 3 Monate lag nichts essen und trinken darf und auf alles verzichte um mir eine RTX 4090 kaufen zu können.

Ah, jetzt verstehe ich das mit dem Diebstahl. Es klingt drastisch, aber wir können nichts für Deine Armut.

Mit dieser Karte kann ich dann Cyperpunk mit Pathtrace bei unter 10 FPS spielen.

Lüge.


bei 1440p sieht man das der "trend" ganz klar richtung native geht. Die unentschieden sind ingame mit Vor- und Nachteilen abzuwägen. Deathloop sieht mit DLSS auch schlechter aus als Nativ, da auch hier - ähnlich wie bei RDR2 die texturqualität stellenweise stark abnimmt und es aussieht als würde AF nur sehr schlecht greifen.

Aber da ihr auch gerade beim Beispiel von RDR2 so gerne euer maul unendlich weit aufreißt und mir jetzt quasi einen Beweis geben wollt dafür - das ihr ja so sehr im Recht seid und das DLSS besser als Nativ ist - da bitte ich euch einfach mal in der Tabelle nach RDR2 zu schauen (außerdem auch ein game mit viel Foliage).

Auch Witcher 3 - ein Game mit sehr viel Foliage sieht mit DLSS einfach schlechter aus als native. Die Unentschieden sind ganz klar pro/con in abwägung betrachtet, wenn man allerdings die Foliage probleme kennt und weiß, wird man bei solch foliagelastigen Games kaum auf ein unentschieden gehen.

Aber gut, das sind dann persönliche entscheidungen.


Gott seid ihr nervige kinderlein.

Ähm, das Video ist fast 1(!) Jahr alt. Und die getestete DLSS Version von RDR2 ist 4(!) Jahre alt. Damals mag das so gewesen sein, ein Beweis für den Stand heute ist das aber nicht.
 
Ich find die ganze Situation mit den Presets ziemlich unglücklich momentan.
Warum muss ich als Nutzer mir ein Tool runterladen um die Presets ändern zu können, weil nicht von Haus aus das korrekte Preset gewählt wurde und ich daher starkes Smearing oder Ghosting habe?
Warum hat man Preset A-E, wenn sowieso die Lösung bei jeglichen Problemen immer nur ist, ein spezielles zu verwenden?
Seit DLSS SR auf 3.0 gewechselt ist, gibts fast kein neues Spiel mit DLSS mehr, wo man nicht von Problemen mit Ghosting liest.
Auch das Wechseln auf andere Presets hilft meist nur bedingt. Was aber fast immer hilft ist, die dll Datei auszutauschen.... und zwar gegen die ältere 2.5.4, die in den meisten Fällen besser ist.

Jetzt kann man hier davon lesen, dass DLSS SR 3.7 die Optik verbessert. Bringt nur nix, wenn der Entwickler es mit dem falschen Preset implementiert und man dann wieder selbst rumpfuschen muss.
 
Zurück