News Upscaling-Technologien: DLSS 3.7 vs. FSR 2.2 vs. XeSS 1.3 im direkten Vergleich [Bericht]

Du würdest also sagen UHD inkl. DLSS Performance sieht quasi gleich aus wie FHD auf einem FHD Screen?

Kann man so sehen, entspricht dann halt nicht den Tatsachen.
Das habe ich nirgendwo geschrieben.
Es ist aber Unsinn sich einen (teureren) UHD Bildschirm wegen der besseren Grafikauflösung zu kaufen, um dann Spiele mit Upsamping aus einer FullHD Auflösung spieletauglich machen zu müssen, was dann aber wieder die Grafikerfahrung schlechter macht.
Dann hätte man an sich doch lieber günstiger mit WQHD fahren können.
Oder aber man macht andersweitig Kompromisse und spielt spezielle Spiele eben später, oder stellt Raytracing aus.
Man kann nicht immer alles haben wollen, ohne dafür zu zahlen.
Und mit diesen Upskalingmethoden zahlt man auch immer einen Preis.
Man sieht die geringere Auflösung und/oder Bildfehler, je nach Spiel und Soaftware mal mehr, mal weniger stark.
Ist es das wert? Aus meiner Sicht jedenfalls nicht, wenn man das als Featureset für die Grafikoption "Ultra" ansieht. Denn das ist ja nur einer Einstellung für die reduzierten Optionen runter bis "Niedrig".
Das wird von vielen vertauscht oder gar nicht registriert.
Es ist und bleibt eine Option, die man am liebsten eigentlich gar nicht auswählen möchte.
Und daher verstehe ich die "Luxus"gamer nicht, die das konsequent auswählen und beweihräuchern.
Was die Firmen da so offensiv bewerben, ist nur ein Eingeständnis, dass ihre Karten nicht gut genug sind, um Spiele flüssig darzustellen, und dass man deshalb an der Grafik fuschen muss.
 
Klar. Höhere Auflösung ist immer lohnehswert.

Vor allem aufgrund von Spieletauglichen OLEDs dank 120Hz. Ich spiele manche Games dann doch mal am TV. Manche Games laufen aber auch in 1440p nativ nicht wie gewünscht und dank FSR Qualität, womit ich bisher keine schlechten Erfahrungen gemacht habe, braucht es keine stärkere GPU.

Und wenn ich mir jetzt einen Monitor kaufen müsste, würde ich schon überlegen ob 1440p oder doch gleich 4k.
 
Es ist aber Unsinn sich einen (teureren) UHD Bildschirm wegen der besseren Grafikauflösung zu kaufen, um dann Spiele mit Upsamping aus einer FullHD Auflösung spieletauglich machen zu müssen, was dann aber wieder die Grafikerfahrung schlechter macht.
Eben nicht, weil das Upscaling es über mehrere Frames schafft, die native Qualität zu erzielen, das klappt häufig sogar mit DLSS Performance in 4K...
Dann hätte man an sich doch lieber günstiger mit WQHD fahren können.
Oder teurer mit der entsprechenden geringfügig besseren Grafik.
Und mit diesen Upskalingmethoden zahlt man auch immer einen Preis.
Man sieht die geringere Auflösung und/oder Bildfehler, je nach Spiel und Soaftware mal mehr, mal weniger stark.
Nein, man zahlt keinen Preis, sondern bekommt was umsonst. Mehr Leistung bei gleicher/besserer Qualität. Genau darum lohnt es sich einen 4K Bildschirm zu holen und dennoch nur Full HD zu berechnen...
 
Technikfeatures sind ja schön und gut.
ABER: die Hardwarebasis muss das auch verarbeiten und befeuern können.
Gerade da hakt es bei Intel aber ganz deutlich.
Und wir reden hier von Faktor 4-5 in Sachen Effizienz und Leistung bis hin zur 4090.
Die Software nützt also nichts, wenn man dann dafür in FullHD zocken muss, um überhaupt spielbare Regionen erreichen zu können.
Dann lieber nativ zocken und Spaß haben - ohne den ganzen Ärger und Bildvergleichen und Testversuchen.
Bitte?
Du machst gerade den gleichen Fehler wie der Kollege mit der tätowierten Schulter. Wir schreiben hier im thread zu Text X. In diesem wird erwähnt dass Intel in Sachen Bildschärfe vorne liegt/läge. Entsprechend bezog ich mich auf genau diesen Absatz und stimmte zu. Die Knalltüte hat daraus schon etwas ganz anderes gelesen (einfach weil er das will) und nun sprichst du an, was es mit features und Architekturen allgemein auf sich hat.
Warum? Ich kann doch einen Teilaspekt eines features beurteilen, ohne das ganze feature, oder die Möglichkeiten einer Arch überhaupt zu betrachten. Ich stehe upscaling allgemein skeptisch gegenüber. FSR genau wie DLSS und XESS. Dennoch kann ich sowohl Unterschiede benennen, oder kritisieren. Dafür muss ich diese features gar nicht mal selbst nutzen wollen.
In Immortals of Aveum hab ich FSR angemacht um mir ein Bild von der Technik und ggf. Problemen zu machen. Avatar hab ich nur auf einer grünen Karte bei meinem Arbeitskollegen ausprobiert um einen Vergleich zu Immortals zu bekommen was FSR betrifft. Ansonsten hab ich DLSS und FSR in Witcher 3 und Cyberpunk ausprobiert, aber auch nicht genutzt. Erstens weil ich mir noch keine Zeit zum echten spielen des Spiels nehmen wollte und zweitens, weil ich der Auffassung bin, dass sich sowohl DLSS als auch FSR, erst ab 60 min. fps nativ wirklich gut anfühlen. Also beispielsweise in AW2 von nativ 31 fps auf 62 fps durch upscaling, oder FG mag ich nicht und möchte ich so nicht spielen. Von daher habe ich noch keinen wirklichen Nutzen daraus gezogen. Das liegt aber auch daran, dass ich die meiste Zeit an einem 60Hz UHD spiele. Bei meinen Mädels, im Wohnzimmer mit der 4080 am TV sieht das schon anders aus, da die Glotze viel mehr Hz hat. Die profitieren von sowas viel mehr als ich.
 
In diesem wird erwähnt dass Intel in Sachen Bildschärfe vorne liegt/läge. Entsprechend bezog ich mich auf genau diesen Absatz und stimmte zu.
Dass du dich genau darauf beziehst, wurde nicht deutlich. Nirgends.
Mit DLSS nachschärfen ist ganz einfach...
Die Knalltüte hat daraus schon etwas ganz anderes gelesen...
Ja, weil ich das lese was dasteht und du hast es allgemein formuliert.
 
Nein, man zahlt keinen Preis, sondern bekommt was umsonst. Mehr Leistung bei gleicher/besserer Qualität. Genau darum lohnt es sich einen 4K Bildschirm zu holen und dennoch nur Full HD zu berechnen...

Yep, kleines Beispiel: 5120x1440 Dual QHD DLAA nativ (47fps) vs. 7680x2160 Dual UHD mit DLSS-Q 3.7 (+FG) (61fps). Macht keinen Sinn, Upscaling nicht zu nutzen, weniger fps bei schlechteren Details.

QIX_AW2_Comparison_01.png

QIX_AW2_Comparison_03.png QIX_AW2_Comparison_02.png
 
Warum kaufen sich Leute 4K-Bildschirme, wenn sie dann daruf hoffen müssen, dass Dinge wie Upskaling und Frame Generation in den Spielen intergiert sind und auch noch super funktionieren müssen, damit das angezeigte Bildspektakel mit etwas Glück besser aussieht als mit einem normalen Bildschirm?
Weil DLSS in 4k, im Qualitätsmodus in der Regel besser aussieht als nativ und schneller läuft.
Das ist so als würde man extra Linux nehmen, um dann versuchen zu wollen in Sachen Leistung, Stabilität und angezeigter Grafik Windows zu schlagen.
Nein, eigentlich nimmt man nur den sinnvollsten Weg.
Sehr viel Aufwand und Ärger um fast nichts.
Welcher Ärger, man hat ja einfach die Wahl das beste Verfahren zu nutzen wenn man kann. Egal ob XeSS, FSR, oder DLSS.
Aber ist sicher schlauer, auf 50% und mehr Performance bei gleicher Optik (im Großteil der Spiele) zu verzichten.
Gibt es da draussen noch weitere Spieler wie mich, die einfach die Kiste anschmeißen und Spaß haben können?
Das machen doch über 99% der Spieler so, auch ich.
Ohne stundenlang an den Optionen, Treibern oder sonstwas herumdocktern zu müssen?
Muss ich als Beispiel auch nicht. DLSS Q ist quasi immer an und sieht bisher immer gut aus.
Einfach nur mal spielen und Spaß haben?
Habe ich jedes mal.
Ob man jetzt beim ersten Spielstart Option A, oder B wählt macht da keinen Unterschied.
Wenn ein Rechner zu alt ist und man kein Geld ausgeben möchte, ok, dann einfach Klimbims anstellen, mit den Problemen leben, solange man noch ein Spiel im Angebot mitnehmen und zocken kann.
Ich glaube das deine Erfahrungen, oder Informationen nicht aktuell sind ;)
Alles andere ist aber Unsinn.
Nein, wenn schon DLSS mal nachgewiesen besser aussehen kann, als nativ. Wenn es darüber hinaus in Spielen wie AW2, oder CP77 dazu führen kann, das man PT nutzen kann... Dann ist das schon mal sicher kein Unsinn.
Auch wenn du anders denkst.
Was man im wahren Spielgeschehen eh nicht sieht, kann man auch gleich ganz aus lassen.
Dann kannst du auch immer DLSS/XeSS, oder bald FSR3.1 aktiv haben, weil du den Unterschied nicht siehst und dafür deutlich mehr Fps bekommst.

PS: geht nur darum das man das anders sehen kann und es eher weniger um Unsinn und Sinn geht.
Ohne Witz, ich seh da keinen Unterschied.
Na, also FSR kann man schon deutlich erkennen ;)
Wenn man die ganzen Teils erklatanten Bildfehler nicht siehst, oder es dich nicht juckt, ja, dann kannst du natürlich auch damit spielen.
Aber es ist und bleibt ein Paradoxon:
"Ich will bessere Spielegrafik!" - ok, aktiviere willkürlich generierte Bildfehler!
Dann zeig mal die ganzen wilden Bildfehler, bei Beispielsweise DLSS Q und aktuellen Spielen.
Gruß vom blauen Schnösel aus Avatar mit seinen Fledermausarmen. ;-P
Wie ich eben sagte: wenn die alte Gurke daheim zu schwach fürs Spiel ist, und es ist die letzte Hoffnung, weil bereits die Details reduziert werden mussten, dann ist das eine valide Optionen , um spielen zu können und einen Neukauf noch weiter hinauszuzögern.
"Luxus"gamer sollten jedoch mal ihr Verhalten generell überdenken, ob man für einen Bildschirm mit hoher Auflösung mit Raytracing diese Dinge braucht oder wirklich will.
Das optische Erlebnis in AW2 ist mit DLSS in 4k, mit Path Tracing ganz sicher ein besseres, als nativ in 1080p mit PT, oder eben 1440p ohne PT.
Beispiel: Diablo 4 macht bis zu -90% mit Raytracing? (hab die Meldung nicht ganz gelesen)
Diablo ist wirklich ein Negativbeispiel. Avatar, AW2, CP77, aber beispielsweise nicht.
Dann lässt man den Mist doch einfach mal aus und hat trotzdem Spaß, vielleicht sogar mehr, weil man nicht fummeln muss und problemlos flüssiges Gameplay hat.
Wieso fummeln. Außerdem, wie will man entscheiden auf welche Optik man verzichten.
Will man die zu jetzt aktuell eher seltenen Bildfehler bei DLSS stärker gewichten, als den Verzicht auf die absolut überlegene Beleiuchtung, Verschattung usw.

Versteh mich nicht falsch. Ich habe zwischendurch einen ähnlichen Denkansatz. Dann aber informiert und verglichen, sowie unabhängige Tests gelesen, gesehen.

In den meisten Fällen ist der Einsatz von DLSS absolut zu empfehlen. FSR ist deutlich seltener sinnvoll, da die optischen Einschnitte größer sind (Gerade in Bewegung). Aber das ändert sich sicher mit FSR3.1.
Voll kommen in Ordnung.
Also ist das nicht Unsinn, sondern nur für dich ergibt das keinen Sinn.
PS: noch was zum Thema Intel: die haben die Skalierung im neuesten Treiber grobpixeliger gemacht.
Also Vorsicht, wenn man Benchmarks miteinander vergleicht. Die höheren Bildraten kommen zum großen Teil jetzt dadurch zustande, nicht durch höherer Leistung der Hardware, die ist ja noch immer gleich lahm.
Wenn also nun mit Faktor 2,3 statt 2 gerendert wird, dann sind das bald schon irgendwo zwischen 10-15% Differenz.
 
Zuletzt bearbeitet:
Ich habe DLSS damals mit meiner RTX-3070 mal getestet und zwar bei Dying Light 2. Angeblich war der Treiber sauber und dennoch hatte ich bei DLSS bei sehr schnellen Bewegungen plötzlich von 70 FPS Einbrüche auf 3 FPS herunter. Von besseren Bild mit AI Phantasieren..... das ist rein technisch nicht möglich. Das native Bild wird immer besser sein, das gibt nun mal die Logik so vor. Und AI generierte Bilder haben durchs Band Fragmente, egal ob DLSS von Nvidia oder Stable Diffusion. Das bringen die AI so mit sich.
 
Das habe ich nirgendwo geschrieben.
Es ist aber Unsinn sich einen (teureren) UHD Bildschirm wegen der besseren Grafikauflösung zu kaufen, um dann Spiele mit Upsamping aus einer FullHD Auflösung spieletauglich machen zu müssen, was dann aber wieder die Grafikerfahrung schlechter macht.
Da die Grafikqualität aber weiterhin über der nativen 1080p Erfahrung liegt ist es bei Fakt kein Unsinn.
Dann hätte man an sich doch lieber günstiger mit WQHD fahren können.
4k, mit DLSS P sieht vermutlich in den allermeisten Fällen besser aus. Aber das wäre mal ein interessanter Vergleich!
Oder aber man macht andersweitig Kompromisse und spielt spezielle Spiele eben später, oder stellt Raytracing aus.
Die Nachteile durch DLSS sind nicht schwerwiegender als die Vorteile durch RT.
Man kann nicht immer alles haben wollen, ohne dafür zu zahlen.
ich meine du bist der einzige hier, der etwas von weniger, oder wenig zahlen rein bringt.
Ich glaube nicht das wir hier über RTX4060 Nutzer meint, die versuchen 4k zu befeuern. Aber beginnend ab 4070(ti) finde ich läuft das schon gut. 4080 Nutzer sollen wohl viele 4k adressieren.


Und mit diesen Upskalingmethoden zahlt man auch immer einen Preis.
Kaufpreis... Bestes Upscaling ;)
hrlich es gibt inzwischen genug Vergleiche, die sagen dir eigentlich der Preis den du meinst ist in vielen Fällen nicht der Rede wert. Da überwiegt der Gewinn deutlich.

Außerdem ist es nicht super, das man die Option hat.
Wo es funktioniert super, wo nicht ein paar Regler weiter runter drehen.
Man sieht die geringere Auflösung und/oder Bildfehler, je nach Spiel und Soaftware mal mehr, mal weniger stark.
Sicher. Ich rede jetzt nicht über DLSS P, sonder eher über DLSS Q.
Allgemein ja
Aus meiner Sicht jedenfalls nicht, wenn man das als Featureset für die Grafikoption "Ultra" ansieht.
Vollkommen in Ordnung.

Warum immer Ultra ist auch immer gut und richtig.
Denn das ist ja nur einer Einstellung für die reduzierten Optionen runter bis "Niedrig".
Richtig
Das wird von vielen vertauscht oder gar nicht registriert.
Es ist und bleibt eine Option, die man am liebsten eigentlich gar nicht auswählen möchte.
Kommt halt drauf an, was am Ende besser aussieht.
Und daher verstehe ich die "Luxus"gamer nicht, die das konsequent auswählen und beweihräuchern.
Sieht doch besser aus...
Was die Firmen da so offensiv bewerben, ist nur ein Eingeständnis, dass ihre Karten nicht gut genug sind, um Spiele flüssig darzustellen, und dass man deshalb an der Grafik fuschen muss.
Das ist so Info Stand 2020
 
Zuletzt bearbeitet:
Ich habe DLSS damals mit meiner RTX-3070 mal getestet und zwar bei Dying Light 2. Angeblich war der Treiber sauber und dennoch hatte ich bei DLSS bei sehr schnellen Bewegungen plötzlich von 70 FPS Einbrüche auf 3 FPS herunter. Von besseren Bild mit AI Phantasieren..... das ist rein technisch nicht möglich. Das native Bild wird immer besser sein, das gibt nun mal die Logik so vor. Und AI generierte Bilder haben durchs Band Fragmente, egal ob DLSS von Nvidia oder Stable Diffusion. Das bringen die AI so mit sich.
Hier gab es vor Jahren schon Tests, in denen DLSS feine Strukturen wie Zäune, Stromkabel usw. besser darstellen konnte, als die native Auflösung.
 
Eben nicht, weil das Upscaling es über mehrere Frames schafft, die native Qualität zu erzielen, das klappt häufig sogar mit DLSS Performance in 4K...
Gar so wiet würde ich nicht gehen. Aber DLSS Q schafft das meistens schon, auch in Bewegung.
DLSS B sieht meistens noch ähnlich gut wie nativ aus.
Ich habe DLSS damals mit meiner RTX-3070 mal getestet und zwar bei Dying Light 2. Angeblich war der Treiber sauber und dennoch hatte ich bei DLSS bei sehr schnellen Bewegungen plötzlich von 70 FPS Einbrüche auf 3 FPS herunter. Von besseren Bild mit AI Phantasieren..... das ist rein technisch nicht möglich. Das native Bild wird immer besser sein, das gibt nun mal die Logik so vor. Und AI generierte Bilder haben durchs Band Fragmente, egal ob DLSS von Nvidia oder Stable Diffusion. Das bringen die AI so mit sich.
Wow, deiner 3070 ist der VRam ausgegangen. Liegt nich an DLSS. Das mit technisch nicht möglich ist schon mal quatsch siehe die Vergleichsbilder etwas über diesen Beitrag.
Oder teurer mit der entsprechenden geringfügig besseren Grafik.

Nein, man zahlt keinen Preis, sondern bekommt was umsonst. Mehr Leistung bei gleicher/besserer Qualität. Genau darum lohnt es sich einen 4K Bildschirm zu holen und dennoch nur Full HD zu berechnen...
 

Intel hat mit XeSS 1.3 auch die Skalierungsfaktoren der bisherigen Qualitätsstufen angepasst: Im neuen Schema besitzt jede der altbekannten Stufen in Zukunft den Skalierungsfaktor, den zuvor die Stufe darunter nutzte.

XeSS-QualitätsstufeSkalierungsfaktor
XeSS < 1.3XeSS 1.3
Native Anti-AliasingN/A1.0x (Native resolution)
Ultra Quality PlusN/A1.3x
Ultra Quality1.3x1.5x
Quality1.5x1.7x
Balanced1.7x2.0x
Performance2.0x2.3x
Ultra PerformanceN/A3.0x

Ultra Quality bietet ab sofort einen Skalierungsfaktor zwischen intern gerenderter und ausgegebener Auflösung von 1.5x, der zuvor genutzte Faktor 1.3x ist der „neuen“ Qualitätsstufe Ultra Quality Plus vorbehalten.

Am unteren Ende bedeutet das, dass Performance nicht mehr mit dem Faktor 2.0x skaliert, sondern mit 2.3x einen neuen Skalierungsfaktor einführt. Die von Intel mit XeSS 1.3 ebenfalls neu eingeführte Stufe „Ultra Performance“ setzt sogar auf den Faktor 3.0x. Vor diesem Hintergrund überraschen die von Intel präsentierten acht Prozent mehr FPS nicht.

XeSS 1.3 läuft tendenziell langsamer​

 
Wenn solch ein Test dann vs FSR 3.1 wiederholt wird, ist er erst interessant. Bis dahin vergleicht man 2x die neusten Versionen gegen eine alte Upscaling Version.
Wasn das für ein Kommentar? Ich meine, es wird immer neuere Versionen geben, wenn FSR 3.1 rauskommt steht vielleicht schon DLSS 4.0 vor der Tür. Nach deiner Logik darf man ja keine Version mit anderen vergleichen, weil ja neuere Versionen unterwegs sind ^^

Der Test widerspiegelt den aktuellen Stand und nicht mehr.
 
Das native Bild wird immer besser sein, das gibt nun mal die Logik so vor.
Da muss ich dir widersprechen, denn das native Bild ist in den allermeisten modernen Spielen einfach nur grauenhaft - Extrembeispiele RE 2-4, 7 und 8, aber auch Alan Wake 2, Control und viele andere mehr sind ohne TAA (das wie DLSS, FSR und XeSS aus vorherigen Bildern das aktuelle Bild erzeugt - nur halt ohne Upscaling) die reinste Flimmerorgie (extrem auffällig bei Screen Space Reflections in RE 2 und Haaren in Alan Wake 2).

Mach mal in einem aktuellen Spiel TAA aus und guck dir an, wie "gut" das native Bild aussieht ... 🤨
 
Seit dem es AFMF gibt sind Upscaler für mich irrelevant geworden. In jedem Spiel 200+ fps ist einfach herrlich, ohne die Nachteile von Upscalern. Wundert mich wieso diese Technik, vor allem bei den Enthusiasten, so totgeschwiegen wird...
 
Wenn solch ein Test dann vs FSR 3.1 wiederholt wird, ist er erst interessant. Bis dahin vergleicht man 2x die neusten Versionen gegen eine alte Upscaling Version.
Problem nur ist wenn FSR 3.1 da ist gebt es schon wieder DLSS 3.8 oder höhere genau wie Intels Version & AMD hängt wieder hinten dran.
 
Problem nur ist wenn FSR 3.1 da ist gebt es schon wieder DLSS 3.8 oder höhere genau wie Intels Version & AMD hängt wieder hinten dran.


Ist eine ziemlich Bescheidene Leistung von Amd sich auch noch vom Neueinsteiger Intel für Dedizierten Grafikarten abhängen zu lassen .:rolleyes:

Wie lange macht Amd das jetzt schon........ ?!

Amd will nicht gerade Stromsparende Raytracinglahme Karten bis 1000,- Euro verkaufen und liefert wie hier 3. Klassige Software ab .

Und das traurigste an der Sache ist das " Amd " Fans natürlich meistens nie eine Zukunftsorientierte Technik brauchen die Amd nicht hat oder nicht konkurrenzfähig ist . :devil:
 
Ich habe jetzt nicht den ganzen Thread hier durchgelesen.

Kann ich XeSS denn problemlos auf meiner AMD Karte nutzen? Hab mich damit gar nicht beschäftig. Meine 6900XT ist an sich noch völlig ausreichend für alles, aber ab und an wären mehr FPS schon ganz nett.
 
Zurück