Intels XeSS-Upsampling im ersten Test: Bildqualität und Leistung im Vergleich mit FSR und DLSS

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intels XeSS-Upsampling im ersten Test: Bildqualität und Leistung im Vergleich mit FSR und DLSS

Noch sind Intels Grafikkarten nicht einsatzbereit, doch Intels spannende Upsampling-Technologie XeSS kann bereits in einigen Spielen genutzt werden - sowohl mit bereits erhältlichen, wie sogar schon betagten AMD- als auch Nvidia-GPUs. Im Artikel nehmen wir XeSS frisch geboren erstmals unter die Lupe und begutachten Optik und Performance.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intels XeSS-Upsampling im ersten Test: Bildqualität und Leistung im Vergleich mit FSR und DLSS
 
@Philipp
Danke für den Test :daumen:
Im Bildvergleich zwischen den drei Upscaling Methoden überzeugt mich nur FSR 2.0 und DLSS.
Da muss Intel echt noch an XeSS arbeiten, die Unschärfe im Bild kommt mir vor wie die Umstellung der Texturen im Spiel von "High" auf "Mittel".
 
Raja der Rabenvater, wie kann er nur seine kleine Vega 10 in solch Form vernachlässigen, dass XeSS jetzt nicht vernünftig drauf läuft? :D
Wenn es dann heißt "in 4K-Upsampling" geht der Vega 56 der Speicher aus, überleg ich ja noch immer direkt, ob man da mit dem HBCC nicht was erreichen kann.
Hätte ich glaubsch Spaß dran mir das nochmal anzuschauen.
HBCC-Spielereien machen dabei aber wohl erst ab 24GB verfügbaren System-RAM Sinn, sonst bewegt man dich da schnell in ein Limit.
 
Es hätte nicht jede einzelne Überschrift "XeSS im ersten Test" gebraucht. :P

DLSS ist ja eine Katastrophe in Death Stranding. Da werden richtig hässliche und lästige Halos/Schlieren um einige Objekte gelegt, v.a. bei den Kabeln der Strommasten in der Bildmitte sichtbar.
XeSS hat zwar diese Lichthöfe nicht, wirkt aber allgemein etwas detailarmer.
FSR 2.0 ist da ganz klar der Gewinner, hinter nativem 4K mit TAA.

Bei Tomb Raider sind diese Unterschiede wieder ganz anders gelegen. DLSS wirkt besser als natives 4K mit TAA, während XeSS 4K + TAA sehr ähnlich sieht, vielleicht marginal schärfer.

Generell finde ich von diesen Techniken alle außer der höchsten Einstellung als wertlos. Mir würde es im Traum nicht einfallen die hier öfters getestete "Performance" Version auszuwählen. Das sieht schrecklich aus.
 
Raja der Rabenvater, wie kann er nur seine kleine Vega 10 in solch Form vernachlässigen, dass XeSS jetzt nicht vernünftig drauf läuft?
Die Kinder haben ihn ja aus dem Nest geworfen ;)

allerdings kann Intel als Nachzügler natürlich auch von bereits erarbeitetem Wissen profitieren - so ähnlich wie Spätzünder Deutschland, damals, während der Industriellen Revolution. Die Nachbarn, insbesondere Großbritannien waren anfangs deutlich weiter, doch als es auch einmal in Deutschland losging, konnten die Ingenieure auf bereits existierende Erkenntnisse bauen und daher besonders zügig durchstarten. So ähnlich dürfte es sich auch bei Intel und XeSS verhalten.
Also das ist ja mal ein interessant weit hergeholter Vergleich @PCGH_Phil , ich nehme an, da herrscht ein entferntes Geschichtsinteresse vor.
4x schnelleres DLSS 3.0 Dolchstoß incoming @FSR und XeSS
das kann ja auch mit anderen Upsamplingverfahren umgesetzt werden.
Skaliert ja letztlich über die Hardwareeinheiten und die Software.
Wenn Nvidia nicht 4x mehr Shader und Co hat, dann wird das nichts.
Zumal auf einer Nvidia Karte auch FSR und XeSS läuft.
 
Es handelt sich nahezu zweifelsfrei um einen Bug oder einen für Vega nicht optimierten Prozess, der die alte Radeon-GPU ausbremst. Die ebenso alte und rühmlich gealterte GTX 1070 profitiert dagegen von Intels XeSS.

Da hättet ihr noch etwas recherchieren können! ;)

GCN, RDNA1, Maxwell und ältere GPU Architekturen haben kein DP4a, das XeSS auf modernen GPUs (Turing, Ampere, RDNA2) nutzt, um das Neurale Netzwerk schneller zu berechnen.

Ist kein DP4a vorhanden, wird ein Fallback genutzt der logischerweise langsamer läuft. Es handelt es sich also nicht um einen Bug sondern schlichtweg um ein fehlendes Feature dieser älteren GPU Architekturen, mit dem man low precision ML in Real Time deutlich schneller ausführen kann.

Pascal hingegen unterstützte schon DP4a, weswegen es auf der 1070 gut läuft.
 
Zuletzt bearbeitet:
Muss ich mir mal live ansehen.
Hat nur der Directors Cut von DS den Patch bekommen oder auch die normale Edition? SOTTR hab ich da.

Ach und was mir wieder auffällt, warum steht in den Auflösungstabellen immer „x% der Ausgabeauflösung“, obwohl das eigentlich auf Zeilen bzw. Spalten bezogen ist?
Also z.B. sagen die Tabellen, FHD ist 50% der Auflösung von UHD, obwohl es doch eigentlich 25% sind.
 
Tja, wie bei Make-Up, ohne ist es dann doch am besten.
Ich finde es ja schon interessant was man mit den Upscalern rausbekommt, aber gerade Artefakte wären mir zu viel.
Immer wenn ich mit DLSS Quality in 4k störende Artefakte sehe und DLSS deaktiviere, hat TAA meist die gleichen oder noch größere Probleme. Insgesamt finde ich DLSS durch die höhere Bildruhe visuell meistens etwas besser als nativ. Aber mich stören flimmern und flackern auch viel mehr als Schlieren.

4x schnelleres DLSS 3.0 Dolchstoß incoming @FSR und XeSS
DLSS 3 ist maximal doppelt so schnell wie DLSS 2 / FSR 2 bei gleichzeitig höherem Inputlag und zusätzlichen Bildfehlern. Das wird definitiv seine Nische finden (insbesondere, weil man teils das CPU Limit umgehen kann), aber niemals so flächendeckend zum Einsatz kommen wie die bisherigen Verfahren.

Zu XeSS: Hat Intel nicht auch durchblicken lassen, dass XeSS auf Arc-Karten nicht nur schneller laufen wird, sondern auch besser aussehen wird?

In Shadow of the Tomb Raider hab ichs mir schon angesehen, war aber durch die Artefakte in den Haaren und im Wasser, das Flackern und die generelle Performance nicht ganz so angetan von. Derzeit wird man eher, sofern verfügbar, auf FSR 2 zurückgreifen.
 
@PCGH_Phil

Ist bestimmt die 6950 XT gemeint ...

MfG Föhn.
 

Anhänge

  • T.jpg
    T.jpg
    435,7 KB · Aufrufe: 28
Zuletzt bearbeitet von einem Moderator:
Interessant, FSR2.0 sieht insgesamt am besten aus bzw. hat die geringsten Schwächen und ist gleichzeitig am performantesten. XeSS liefert im Vergleich einfach deutlich zu wenig Frames. Und FSR2.0 benötigt keine spezialisierten Einheiten und ist wirklich hersteller-agnostisch.
 
Ich geb nur zu bedenken, dass wir 4k Bilder zoomen und nach dem Haar in der Suppe suchen. Das überzeugenste DLSS das ich bislang gesehen habe war auf einem 14 Zoll FullHD Laptop mit 3060 Laptop. Dort wo wirklich Pixeldichte ist, performt DLSS und Co imo besser. Das ist wie bei Youtube Kompressionsartefakten, die man auf einem 86 Zoll 4k natürlich auch leichter sieht, weil jeder Fehler über eine große Fläche gedehnt wird.

Laptops und Steamdecks, da sehe ich den wirklichen Nutzen.
 
Die Frametimes der 6950@XeSS sehen deutlich ruhiger aus als bei der 3090Ti.
(selbst wenn im Durchschnitt ne NV schneller mit XeSS läuft, isses net unbedingt angenehmer)

vermutlich kann man in nem Game, wo es noch kein FSR 2.x gibt, das XeSS alternativ zu RSR/FSR 1.0 gut nutzen
--> ich lass mich mal überraschen wieviel Studios Intel auf die Schnelle zu ner Implementierung überreden kann

ansonsten
vllt. kommt ja noch ein XeSS-ready Treiber von allen Fraktionen
ist schließlich Neuland für Alle
 
Zuletzt bearbeitet:
Zurück