News AMD FSR 2 vs. Nvidia DLSS 2: Upscaling mit KI sieht fast immer besser aus

Hab ich was verpasst oder wie kommst du zu der Behauptung, Spieler würden sagen, dass DLSS fast immer besser aussieht, als nativ?
Das kann man von einigen hier tatsächlich oft lesen. Das liegt aber daran, das sie scheinbar nicht in der Lage sind Dinge voneinander zu trennen und differenziert darzulegen.
Nimm beispielsweise zwei unterschiedlich starke Karten vom gleichen Hersteller. Beispielsweise eine 3060 und 3090ti. Lass das Spiel im Blindtest in 1440p laufen, auf der 3060 mit 45 fps und auf der ti mit 90 fps. Da werden ganz viele schreiben dass das Bild "besser" ausgesehen hätte. Dass flüssiger und besser im Sinne von Bildqualität nichts miteinander zu tun haben, juckt die gar nicht. Da fehlt schlicht das Verständnis für das was sie eigentlich wahrgenommen haben. Die Qualität der Immersion wird hingegen klar gesteigert, nur versuchen diese User erst gar nicht zu überlegen was sie eigentlich schreiben.
 
Auch als Nvidia Anhänger muss ich bei der Bewertung von Red Dead Redemption 2 jedoch widersprechen: Da finde ich, zaubert FSR 2 ein deutlich ruhigeres Bild als DLSS. hier muss man sich bei DLSS nur mal die Bäume in Bewegung anschauen, also wenn man sich selbst vor und zurück bewegt. Da finde ich FSR2 wesentlich besser.
DLSS Swapper benutzen und diese Ur-Alte DLSS2 Version gegen eine aktuelle tauschen, dann sieht es erheblich besser aus. So mache ich es seit einigen Wochen.
 
Schade, dass niemand mehr in 1080p testet. Wäre viel interessanter für die Masse, da Leute mit älterer hardware auch eher auf FSR/DLSS angewiesen sind um 60fps bei hohen Einstellungen zu erreichen. Ganz zu schweigen davon, dass 1080p die noch mit Abstand am weitesten verbreitete Auflösung ist. Somit leider nur ein weiterer Test für die 10-20% Enthusiasten.
 
Finde es auch schade, dass die DLSS/FSR Aussagen eigentlich immer nur für UHD gelten. Dort heißt es meistens, auf jeden Fall anmachen, sieht auch oft besser aus als Nativ. Aber gilt das auch für kleinere Auflösungen?

Man könnte ja mal gezielt die Qualität und Performance von DLSS und FSR in FullHD und WQHD in einigen Spielen testen. Jetzt nicht in jedem Spieletest, das ist vermutlich zu aufwendig. Aber vielleicht ja eine Idee für einen extra Artikel oder fürs Heft? ;)
 
Eure grüne Propaganda passt nicht in mein Weltbild und ist deshalb Fake!
Schade, dass niemand mehr in 1080p testet. Wäre viel interessanter für die Masse, da Leute mit älterer hardware auch eher auf FSR/DLSS angewiesen sind um 60fps bei hohen Einstellungen zu erreichen. Ganz zu schweigen davon, dass 1080p die noch mit Abstand am weitesten verbreitete Auflösung ist. Somit leider nur ein weiterer Test für die 10-20% Enthusiasten.
Oder aber alles ist cool, weil einen Monitor mit höherer Auflösung als FHD haben mittlerweile viel mehr Menschen als Du ahnst und wenn man WQHD mit ner 3060 oder 6600 bedienen will, mag das Scrnario hier sehr gut gewählt sein. FHD aus einer niedrigeren Auflösung hochskalieren? Zu wenige Details für meinen Geschmack.
 
Genau darum geht's ihm ja. Sind es wirklich zu wenig Details, oder macht der Algorithmus daraus gar ein detailreicheres, oder einfach nur gleichwertiges Bild mit mehr fps?
 
Zuletzt bearbeitet:
Oder aber alles ist cool, weil einen Monitor mit höherer Auflösung als FHD haben mittlerweile viel mehr Menschen als Du ahnst
In Solchen Foren definitiv.

Aber selbst wenn die Steam umfrage müll ist, glaube ich nicht das die 64% FHD dann in echt nur 20% sind.

Und selbst wenn es nur 20% sind, wäre es trotzdem schön mal was dazu zu sehen, denn die 4090 wird auch andauernd getestet und wie viel % der Nutzer weltweit haben die ?
 
Ich bin generell nicht der allergrößte Fan vom Upscaling und nutze es, wenn überhaupt, nur auf meinem 27'' UHD Monitor. Auf meinem Ultrawide-Monitor (38'', 3840x1600) oder auf meinem 55'' UHD-TV mag ich es in der Regel nicht. Da ist es mir generell einfach zu pixelig, selbst in der Quality-Einstellung (egal ob DLSS oder FSR).

Ich bin stattdessen eher ein Fan von DLAA oder vom AI-Downsampling (DL-DSR). Für ältere Spiele und emulierte Spiele ist das ein Segen, weil es meiner Meinung nach meistens besser aussieht als simples DSR von 8K auf UHD.

Ich freue mich aber für alle Menschen, die keinen Zugriff auf DLSS haben und stattdessen FSR nutzen können. Das hält ältere Grafikkarten länger am Leben und das ist doch schön.
 
Ist halt alles subjektiv. Für mich geht sogar DLSS Balanced in den meisten Spielen klar auf meinem 34" 3440x1440p Monitor.

FSR hingegen war bis jetzt immer wenn ich es getestet hatte nicht brauchbar. Zuletzt in der RE4 Demo. Da gibts ja zum glück und dank der Modder die DLSS Mod. :daumen:
 
Oder man baut sich im Fall von The Last of Us eine eigene ideale Lösung. In meinem Fall: das nicht abschaltbare Sharpening des Spiels per Hex Editor deaktivert, DLSS Q per 2.5.1 DLL und anschließend noch CAS per ReShade injected. Nativ + TAA + CAS sieht noch mal besser aus, für durchgehend mindestens 60 FPS reicht allerdings die Leistung meiner 3090 Ti nicht aus bzw. ist das Spiel nicht genug optimiert.
 
Kurz vorab: die Entwicklung von DLSS und Co ist eine super Sache. Die Möglichkeit mit einem simplen Schalter die Bildrate zu erhalten, die msn nur mit einer qnderen GPU nativ bekommen würde, ist einfach super. Es verlängert darüber hinaus die Lebensdauer einer GPU und erleichtert den Einstieg in Raytracing/Casting. Wir können also froh sein, dass es hier ein Entwicklungsrennen gibt zwischen 3 Herstellern.
DLSS und Co. sind schlichtweg die Zukunft. Der Trend geht dahin, dass ein Bild gar nicht mehr nativ berechnet werden muss. Es ist zu begrüßen, wenn das Bild so hoch skaliert wird, dass der Nutzer keinen Unterschied mehr merkt. Es wird nur noch berechnet, was das Auge wahrnimmt. Außerhalb dieses Spektrums gibt es keine überflüssigen Berechnungen mehr.

Das spart Energie und Ressourcen.

In 5 Jahren wird kaum noch ein Bild nativ, gemessen an der Bildschirmauflösung, mehr berechnet. Außer vielleicht bei PCGH, um die mikroskopischen Unterschiede herauszustellen.

Die Zukunft gehört der KI, und der optischen Täuschung. Wen stört es dann noch, ob eine KI dahintersteckt oder ein natives Bild?
 
Zuletzt bearbeitet:
Danke für diesen Artikel.
FSR war nicht ein einziges mal hochwertiger und profitierte bei den Ties von der hohen PPI. Sagt alles über AMDs Bildqualität.

3 Beiträge pro Seite ist für mich auch angenehm zu lesen. Toll diese Ignorefunktion.
 
Gevau darum geht's ihm ja. Sind es wirklich zu wenig Details, oder macht der Algorithmus daraus gar ein detailreicheres, oder einfach nur gleichwertiges Bild mit mehr fps?
Es ist sowohl als auch. DLSS ist detailreicher bei erhöhter FPS Zahl:


Manche verstehen das Prinzip temporales Supersampling einfach nicht.
Somit wird auch nicht verstanden, warum die Fachwelt einheilig davon Spricht, dass mit den letzten Generationen von DLSS die native Qualität im Normalfall davon übertroffen wird.
Die, die immer nach "Nativ!" plärren, akzeptieren inzwischen schlechtere Bildqualität mit niedrigeren Details und das mit deutlich schlechterer Rendereffizienz, halten sich aber selbst für ziemlich schlau.
 
Zuletzt bearbeitet:
Die Zukunft gehört der KI, und der optischen Täuschung.
Ich weiß was du meinst, aber wenn man Raster und Raytracing sind ist Raster die Optische Täuschung und dem gehört wohl nicht die zukunft.

Auch wenn das nicht deine Aussage ändert, finde ich es schon komisch das man in einem Fall von der optischen Täuschung weg will um dann eine andere willkommen zu heißen :S
 
Ich hab's mir verkniffen. Allerdings nicht um dem Thema keine Bühne zu geben, sondern um zu sehen wer als erster meint er gehört zu den dreien die er sich noch anzeigen lässt. :schief:
Manche verstehen das Prinzip temporales Supersampling einfach nicht.
Somit wird auch nicht verstanden, warum die Fachwelt einheilig davon Spricht, dass mit den letzten Generationen von DLSS die native Qualität im Normalfall davon übertroffen wird.
Die, die immer nach "Nativ!" plärren, akzeptieren inzwischen schlechtere Bildqualität mit niedrigeren Details und das mit deutlich schlechterer Rendereffizienz, halten sich aber selbst für ziemlich schlau.
Das kann zwar sein, denke ich aber, ist bei den wenigsten der Fall. Viel eher ist es die Gewohnheit. Das native Bild wirkt ja ganz anders als das "beruhigte".
 
Dann schau Dir bitte mal die Vergleiche bzgl. Schärfe in dem Test an.

Das schaut aus wie ein Werbevideo von Nvidia. Nur die sind so dreist ein UHD-Native zu zeigen, welches eine Auflösungsqualität von 780i aufzeigt. So schaut der Anhang von dir aus.

Zudem bitte immer bedenken, wenn die Leute von Native reden, dann von der echten Auflösung und nicht von der Hochskalierten Quelle, also nicht Native 780p mit hochskaliertem 4k vergleichen.
 
Ich hätte nichts anderes erwartet, eine Technik die Speziell dafür erschaffen wurde, sollte einer generellen Lösung immer überlegen sein, sonst kann man es lassen. Nicht umsonst ist es Hardware implementiert und wird mit bezahlt.

Damit will ich nicht sagen das FSR schlecht wäre - nur zu erwarten das es DLSS überlegen ist ist eigentlich überzogen.
Der andere Vorteil ist ganz klar, es funktioniert auf jeder Hardware, und das ist auf jeden Fall ein Gewinn, auch wenn vil. nicht auf 100% .............sondern auf vil. 80% (?) oder so - langt doch auch.

Wenn die Qualität von FSR gut genug ist, braucht niemand sich darum grämen. Wenn die Quali nicht ausreichend ist, bliebe ja rein theoretisch auch noch der Ausweg etwas zu reduzieren, und nativ zu zocken, denn das funktioniert immer und sogar in höchster Qualität.

Dafür sparen AMD / und NVIDIA (ältere gen.) User eben ganz einfach Geld, und das ist ja vielfach deren Motiv.

Audi oder Buggatti, so sieht die Realität halt leider aus - könnte man plakativ sagen.

Ach ja, es gibt ja auch die Fraktion die sogar bei NVIDIA DLSS sagt, geh mir bloss weg mit dem Dreck.......Nativ über alles.

Das ist mein Eindruck.

Grüsse.
 
Zurück