News Upscaling-Technologien: DLSS 3.7 vs. FSR 2.2 vs. XeSS 1.3 im direkten Vergleich [Bericht]

Da postet ein unbekannter YT Channel ein Vergleich und es wird darüber eine News geschrieben?
Hinzukommt noch das es ein YT Video (Kompression) ist, nicht mal Screenshot Vergleich.


Ich kann das Video/Vergleich nicht ernst nehmen, wundere mich gerade über PCGHX.
ich wundere mich schon lange nicht mehr.
hier werden ja nicht einmal die spieletitel richtig geschrieben, sobald es an einer bestimmten stelle im bericht über copypaste hinaus geht :D
 
Dem schließe ich mich voll und ganz an. Intel hat hier bereits Nvidia überholt und AMD ist nicht mal mehr in Sichtweite.

[]
Nicht mehr in Sichtweite?
Hast du nicht noch vor ein paar Tagen geschrieben, dass der Unterschied zwischen FSR und DLSS gar nicht so gravierend sei?

Ich denke jedenfalls das wenn FSR 3.1 den versprochenen Schritt macht, auch die Qualität von FSR für 99% der Anwender gut genug ist und man beim spielen kaum noch Unterschiede wirklich erkennt. (Wie gesagt, beim spielen)
 
Wenn man bedenkt, dass AMDs FSR nicht über dedizierte "KI-Einheiten" läuft ist das Ergebnis nicht mal so übel.
Eigentlich schon. Mir ist bisher kein Spiel untergekommen, in dem mich FSR überzeugt hat. Egal ob ich das hier auf der 4080 oder 6800XT laufen lasse. FSR ist für mich absolut unbrauchbar, wenn man auch DLSS zur Verfügung hat. FSR war "damals" auch ein nicht gerade kleiner Grund, warum ich wieder zurück zu Nvidia gegangen bin auf meinem Hauptsystem.
 
Returnal hat diese wundervolle Eigenschaft, dass man das Spiel mit Escape pauseiren kann und wenn man dann das Einstellungsmenü für die Grafik öffnet sieht man das Spiel und jede Änderung die man macht wird sofort sichtbar, während das Spiel immer nur das eine Frame des Pausenmodus rendert.

Damit kann man sowohl Unterschiede von FRS vs. XESS vs. DLSS vs. so einige andere Optionen sehen, man kann auch zum Beispiel die Auflösungsreduktion nehmen, damit exakt die Auflösungsreduktion von DLSS und FRS simulieren und hat dann ein einzelnes Frame auf dem man sieht was DLSS, FRS, XeSS überhaupt MEHR haben, als wenn man einfach so die Auflösung reduziert. Man sieht also wirklichdie Information die Rekonstruiert wird.

So kann man auch DLSS über ein natives Bild legen und die unterschiedlichen Pixel im Grafikprogram anzeigen lassen. Man sieht vor allem welche Pixel DLSS und FSR überhaupt anfassen. Hier extrem verstärkt durch Tiefenunschärfe, wodurch alles was nicht im direkten Vordergrund ist, eh in der effektiven Auflösung schon so stark reduziert ist, dass es egal ist ob man das in 100% oder 66% der Auflösung redert, die Information bleibt die Gleiche.
Interessanter Vergleich, allerdings sollte man hier nicht unterschlagen dass dein "Testaufbau" den Idealfall für Upscaler darstellt. Ohne Bewegung ist Ghosting schon mal ganz ausgeschlossen und es stehen beliebig viele alte Frames zur Rekonstruktion zur Verfügung.
 
Eigentlich schon. Mir ist bisher kein Spiel untergekommen, in dem mich FSR überzeugt hat. Egal ob ich das hier auf der 4080 oder 6800XT laufen lasse. FSR ist für mich absolut unbrauchbar, wenn man auch DLSS zur Verfügung hat. FSR war "damals" auch ein nicht gerade kleiner Grund, warum ich wieder zurück zu Nvidia gegangen bin auf meinem Hauptsystem.

Das gute ist wenn fsr schlecht ist dann ist meistens xess gut. Ich kann mich auch an kein Spiel erinnern wo ich dachte ich brauch jetzt unbedingt dlss.

Ich habe die dll in Witcher 3 ausgetauscht. Aber da sehe ich dann nur die alten Auswahlmöglichkeiten.
 
Warum kaufen sich Leute 4K-Bildschirme, wenn sie dann daruf hoffen müssen, dass Dinge wie Upskaling und Frame Generation in den Spielen intergiert sind und auch noch super funktionieren müssen, damit das angezeigte Bildspektakel mit etwas Glück besser aussieht als mit einem normalen Bildschirm?
Das ist so als würde man extra Linux nehmen, um dann versuchen zu wollen in Sachen Leistung, Stabilität und angezeigter Grafik Windows zu schlagen.
Sehr viel Aufwand und Ärger um fast nichts.
Gibt es da draussen noch weitere Spieler wie mich, die einfach die Kiste anschmeißen und Spaß haben können?
Ohne stundenlang an den Optionen, Treibern oder sonstwas herumdocktern zu müssen?
Einfach nur mal spielen und Spaß haben?
Wenn ein Rechner zu alt ist und man kein Geld ausgeben möchte, ok, dann einfach Klimbims anstellen, mit den Problemen leben, solange man noch ein Spiel im Angebot mitnehmen und zocken kann.
Alles andere ist aber Unsinn.
Was man im wahren Spielgeschehen eh nicht sieht, kann man auch gleich ganz aus lassen.
 
Dem schließe ich mich voll und ganz an. Intel hat hier bereits Nvidia überholt und AMD ist nicht mal mehr in Sichtweite.
Technikfeatures sind ja schön und gut.
ABER: die Hardwarebasis muss das auch verarbeiten und befeuern können.
Gerade da hakt es bei Intel aber ganz deutlich.
Und wir reden hier von Faktor 4-5 in Sachen Effizienz und Leistung bis hin zur 4090.
Die Software nützt also nichts, wenn man dann dafür in FullHD zocken muss, um überhaupt spielbare Regionen erreichen zu können.
Dann lieber nativ zocken und Spaß haben - ohne den ganzen Ärger und Bildvergleichen und Testversuchen.
 
Warum kaufen sich Leute 4K-Bildschirme, wenn sie dann daruf hoffen müssen, dass Dinge wie Upskaling und Frame Generation in den Spielen intergiert sind...
Weil sie wissen, dass Upscaling und Frame Generation nicht die dargestellte Auflösung senken.
und auch noch super funktionieren müssen, damit das angezeigte Bildspektakel mit etwas Glück besser aussieht als mit einem normalen Bildschirm?
Wieso, sieht doch besser aus als mit einem Full HD oder WQHD Bildschirm, wenn dort DLSS aktiviert ist. Apples to Apples.
Das ist so als würde man extra Linux nehmen, um dann versuchen zu wollen in Sachen Leistung, Stabilität und angezeigter Grafik Windows zu schlagen.
Dein Vergleich ergibt keinen Sinn.
Sehr viel Aufwand und Ärger um fast nichts.
Welcher Aufwand? Sich einen 4K Monitor zu kaufen, DLSS Performance aktivieren und bei ähnlichen Leistungskosten ein besseres Bild wie in Full HD zu haben?
Was man im wahren Spielgeschehen eh nicht sieht, kann man auch gleich ganz aus lassen.
Irgendwie ist dein Beitrag als Werbung für Upscaling und FG misszuverstehen.
 
Warum kaufen sich Leute 4K-Bildschirme, wenn sie dann daruf hoffen müssen, dass Dinge wie Upskaling und Frame Generation in den Spielen intergiert sind und auch noch super funktionieren müssen, damit das angezeigte Bildspektakel mit etwas Glück besser aussieht als mit einem normalen Bildschirm?
Du würdest also sagen UHD inkl. DLSS Performance sieht quasi gleich aus wie FHD auf einem FHD Screen?

Kann man so sehen, entspricht dann halt nicht den Tatsachen.
 
Oder anschalten und mehr FPS haben (oder weniger Strom verbrauchen), weil sieht man ja eh nicht...
Wenn man die ganzen Teils erklatanten Bildfehler nicht siehst, oder es dich nicht juckt, ja, dann kannst du natürlich auch damit spielen.
Aber es ist und bleibt ein Paradoxon:
"Ich will bessere Spielegrafik!" - ok, aktiviere willkürlich generierte Bildfehler!
Gruß vom blauen Schnösel aus Avatar mit seinen Fledermausarmen. ;-P
Wie ich eben sagte: wenn die alte Gurke daheim zu schwach fürs Spiel ist, und es ist die letzte Hoffnung, weil bereits die Details reduziert werden mussten, dann ist das eine valide Optionen , um spielen zu können und einen Neukauf noch weiter hinauszuzögern.
"Luxus"gamer sollten jedoch mal ihr Verhalten generell überdenken, ob man für einen Bildschirm mit hoher Auflösung mit Raytracing diese Dinge braucht oder wirklich will.
Beispiel: Diablo 4 macht bis zu -90% mit Raytracing? (hab die Meldung nicht ganz gelesen)
Dann lässt man den Mist doch einfach mal aus und hat trotzdem Spaß, vielleicht sogar mehr, weil man nicht fummeln muss und problemlos flüssiges Gameplay hat.
Meine Meinung.

PS: noch was zum Thema Intel: die haben die Skalierung im neuesten Treiber grobpixeliger gemacht.
Also Vorsicht, wenn man Benchmarks miteinander vergleicht. Die höheren Bildraten kommen zum großen Teil jetzt dadurch zustande, nicht durch höherer Leistung der Hardware, die ist ja noch immer gleich lahm.
Wenn also nun mit Faktor 2,3 statt 2 gerendert wird, dann sind das bald schon irgendwo zwischen 10-15% Differenz.
 
Dem schließe ich mich voll und ganz an. Intel hat hier bereits Nvidia überholt und AMD ist nicht mal mehr in Sichtweite.
Intel hat Nvidia nicht überholt, Intel XeSS ist aber verdammt nah dran, wenn es gut implementiert wurde.
AMD ist zwar hinten, aber qualitativ dennoch vorne wie letztes Mal? 😅
Selbst hier gibt es Nutzer die jetzt zwar Unterschiede herausformulieren, aber selbst bei DLSS 2.0 noch meinten es sähe gut aus (das sind die unglaubwürdigsten von allen).
Das ist ja unerhört. DLSS 2.0, war selbstverständlich Murks, wie auch FSR 2...🫣
Wenn AMD da vergleichbar sein möchte, dann müssen sie nachlegen. Wenn es ihnen nicht auf die Vergleichbarkeit ankommt, dann sicher nicht.
Bestimmt kommt es ihnen nicht darauf an...
Wenn sie da schon sagen: "Nö, reicht uns wie es ist."
Genau und nächstes Jahr gibt es nur noch untere Mittelklasse, weil reicht "uns". Ab morgen gibt es nur noch Leitungswasser, weil reicht uns.
Wie kommt man dann auf die absurde Idee, dass sie an anderer, weniger wichtiger Stelle, unbedingt gleichziehen müssen? Ernsthaft, woher kommt das?
Warum ist es absurd zu versuchen sich zu verbessern und Marktbereiche zu erschließen?
 
Zurück