Intel XeSS versus Nvidia DLSS: Überraschung im ersten Vergleich

Hm, native DLSS Unterstützung in allen großen Engines und diversen Inhouse-Engines, also aktuell haben sie sich durchgesetzt. Von weiteren Engines die FSR 2.0 nativ unterstützen hört man nichts, seit Monaten, eigentlich seit der Vorstellung. Die UE hat ein Plugin bekommen, und sonst setzt AMD anscheinend auf "Eigenarbeit" bei den Entwicklern. Das wird aber nicht passieren...

Und Nvidia dominiert nicht "derzeit" den Markt, eher seit mehr als einem Jahrzehnt.

So eine ähnliche Situation hatten wir schon einmal. Die Renderware Engine trieb faktisch jedes Playstation Spiel an, EA kauft Renderware, alle anderen Publisher sind ausgeschlossen und verlieren plötzlich die Engine die sie immer eingekauft haben. Sony im Panikmodus um seine ganzen 3rd Parties bandelt mit Epic an und OMG Playstation + Unreal = awesome, Nvidia hat den Chip in der PS3 und verkündet OpenGL ist der Sieger für alle Zeiten auch am PC. Niemand wird jemals mehr was anderes brauchen. WTF?

Heute, so ~16 Jahre später stellen wir fest; Microsoft hat DirectX beinhart bis ins Ziel gedrückt. OpenGL ist nicht der Dominator der Nvidia dachte und Unreal hat die Welle mit Sony und 3rd Parties super geritten und ausgebaut.

Auch wenn es nicht 1:1 auf DLSS übertragbar ist, sollte sich Nvidia nicht zu sicher sein. DLSS ist sogar nich schlimmer als OpenGL, weil es proprietär ist. Besonders MIcrosoft sind Könige darin zu sehen was es gibt, das ganze in ihrer Umgebung zu standardisieren und damit sind die Marktanteile garantiert. Embrace, Extend, Extinguish. Nur hier lässt sich niemand von Microsoft umarmen aus Angst vor den folgenden Schritten, aber ehrlich gesagt ist das gar nicht nötig. Microsoft wird einfach hergehen und sagen "deine GPU ist nur dann DirectX14 zertifiziert, wenn sie DirectML unterstützt". Dem werden sich weder Nvidia, noch AMD, noch Intel entziehen können, dass deren Karten nicht Direct X kompatiblem sind. Und schwupps, haben die Spielehersteller den Standard mit dem sie DLSS artige Feature unterstützen, DirectML.

Daher wird der Druck weiter auf Nvidia sein, dass DLSS das bessere Produkt ist und solange das der Fall ist wird Nvidia das auch weiterführen und den Herstellern bei der Integration entgegenkommen. Sobald alle Upscaler wieder gleich aussehen wird Nvidia das einfach nicht mehr gesondert erwähnen.
 
Danke für den Artikel und den Link zum Video. Ich freue mich das XeSS so gut zu funktionieren scheint, das wird Intel im GPU Markt - in den der Einstieg sicher nicht leicht ist - etwas Rückenwind geben. Fein!

Grüße

phila
 
Bitte lass das richtig reifen, dass es auf allen Grafikkarten brauchbar läuft. Den Rückstand von einer Generation in dieser Technologie wird man noch ausgleichen können, auch wenn die eigenen Grafikkarten bisher noch nicht überzeugen.

Ich frage mich, ob es auch auf meinem System laufen würde. Erst hieß es ja, dass DP4a notwendig ist, das wäre bei mir wohl fehlend. Jetzt sieht es so aus, dass nur Shader Model 6.4 Pflicht ist, damit sieht es schon viel besser aus.
 
Es wird grundsätzlich auf allen Karten laufen, die SM 6.4 haben. Das ist eigentlich jede GPU die's so gibt.

Wenn deine GPU DP4a unterstützt, dann läuft es mit INT8 Operationen deutlich schneller. (Pascal, RDNA2, Turing, Ampere und noch ein paar andere)

Wenn es DP4a nicht unterstützt, dann kommt der FP16 Fallback zum Einsatz, der deutlich langsamer läuft (GCN, Maxwell, RDNA1 usw)
 
Why not?
bei x86+x64 gings ja auch
hmm AMDs 64 Bit implementierung ist eine auf x86 aufbauender Befehlserweiterungssatz.
Das baut also auf Intels Technologie auf, klar finden die beiden dann ein gegenseitiges Lizenzabkommen, schließlich hat Microsoft dann mal beschlossen nur noch einen Standard zu unterstützen, damit gingen Intel die Optionen aus.
 
... Microsoft wird einfach hergehen und sagen "deine GPU ist nur dann DirectX14 zertifiziert, wenn sie DirectML unterstützt". Dem werden sich weder Nvidia, noch AMD, noch Intel entziehen können, dass deren Karten nicht Direct X kompatiblem sind. Und schwupps, haben die Spielehersteller den Standard mit dem sie DLSS artige Feature unterstützen, DirectML.
...
Das wird so nicht stattfinden, da Intel damit seine Marktmacht missbrauchen würde und damit gegen Wettbewerbsregeln verstoßen würde. Da würden AMD und NV klagen und ziemlich sicher auch gewinnen.
 
Ich finde es gerade sehr interessant, wie wenig performance Grafikkarten haben um das vom Spieler gewünschte (oder doch eher vom Marketing?) Ergebnis zu erzielen.

Bisher kann keine Grafikkarte 4k mit Raytracing (und das bereits in der 2 respektive 3. Generation) native ohne Betrug flüssig darstellen. Aber genau das will doch angeblich der Spieler? Seltsam nur, das die Lösung dieses Problems seit Jahren auf der Hand liegt und man statt dessen nur Häppchenweise eine Verbesserung sieht, damit man ja immer einen Anreiz hat was neues zu kaufen.

Wie wäre es mal mit einer Karte mit sagen wir 1.024 RT-Cores anstatt nur popeligen 84 wie bei der 3090 ti? Vielleicht wären ja dann die Phantasiepreise und vor allem der Stromverbrauch dieser Karten zu rechtfertigen.

Nur mal so in den Raum gestellt. ;-)
 
Microsoft sollten wir bei allem nicht vergessen. Die kochen auch ihr eigenes Süppchen und die Vergangenheit hat gezeigt, dass Microsoft mit einer Direct-X Erweiterung niemals die besten sein müssen, sondern immer nur gut genug. Weil PC Gaming ist Windows Gaming, egal was ein paar Linux Fans seit 20 Jahren behaupten. Auch Steam hat da noch einen langen Weg vor sich, um überhaupt daran zu kratzen.

Also die Spiele die Vulkan unterstützen werden aber auch immer mehr.
Da ist Microsoft schon im Zugzwang, denn im Gegensatz zu DX hat AMD Vulkan direkt von Anfang auf Low-Level freigegeben. Das hat sich damals bei Red Dead Redemption 2 sehr gut bemerkbar gemacht.
Auf Vulkan lief das Spiel bei mir sehr flüssig mit stabilen FPS und in DX je nach Szenerie.

Facebook werkelt auch an seinem eigenen Upscaler.

Meta ;)
Und das auch nur wegen ihres Metaverse, von dem Meta nicht weiß was es werden soll.
Das ganze ist bisher nur Marketing Bla Bla um Investoren zu bekommen.
Für die Breite Masse wird das Metaverse in den nächsten 10 Jahren noch nicht interessant sein. Da müsste die AR/VR-Technologie noch einen riesen Schritt nach vorne machen. Angefangen bei der Größe der Headsets, über den Preis der Headsets, bis zur Usability dieser Dinger.

Apple hat auch eine API namens MetalFX Upscaling und Apple sollte man nicht unterschätzen derzeit. Apple baut die zur Zeit spannenste APU und hat eine Historie voller Home-Desktop Produkte. So viel muss Nvidia auf seine Karten jetzt nicht mehr draufschlagen, dass man sich denkt, na dafür bekomme ich einen ganzen iMac.

Rly?
Wer möchte sich denn in dieses enge Korsett von einem OS zwängen?
Windows ist bei weitem nicht der Heilige Gral, hat viele Macken und frißt teilweise zuviel Performance, aber diesem OS läuft jeder Scheiß und das ohne das ich mir erst über Kompatiblitäten Gedanken machen muss.
Da ist Linux ja schon weiter, wenn es ums zocken geht.
Einen iMac für die Arbeit nutzen? Jepp! Aber zuhause will ich den Apfel nicht haben.
Ich finde es gerade sehr interessant, wie wenig performance Grafikkarten haben um das vom Spieler gewünschte (oder doch eher vom Marketing?) Ergebnis zu erzielen.

Bisher kann keine Grafikkarte 4k mit Raytracing (und das bereits in der 2 respektive 3. Generation) native ohne Betrug flüssig darstellen. Aber genau das will doch angeblich der Spieler? Seltsam nur, das die Lösung dieses Problems seit Jahren auf der Hand liegt und man statt dessen nur Häppchenweise eine Verbesserung sieht, damit man ja immer einen Anreiz hat was neues zu kaufen.

Wie wäre es mal mit einer Karte mit sagen wir 1.024 RT-Cores anstatt nur popeligen 84 wie bei der 3090 ti? Vielleicht wären ja dann die Phantasiepreise und vor allem der Stromverbrauch dieser Karten zu rechtfertigen.

Nur mal so in den Raum gestellt. ;-)

Wie Du schon geschrieben hast, wollen die Hersteller jedes Jahr eine neue Generation an Karten verkaufen.
Also wird sowas nicht passieren. Eine Karte mit 1.024 RTs kannst Du dann für die Arbeit kaufen und die kostet dann schlappe 10k oder mehr. Aber für den Zockerheini in den eigenen vier Wänden werden die Hersteller sowas nicht auf den Markt bringen.
 
DLSS hat mittlerweile auch eine recht gute Verbreitung gegenüber FSR und natürlich XeSS (Mods ausgenommen). Man kann auch einfach und schnell andere DLL-Dateien probieren und z. B. eine Version 2.1.x durch eine 2.4.x ersetzen (CP2077, Shadow of the Tomb Raider, Metro Exodus Enhanced).
Der Hauptgrund für eine Nvidia-Karte war bei den Preisen tatsächlich eine 5 Jahre lange Garantie (Zotac, EVGA). Da würde ich mir mehr als 2 bis 3 Jahren bei AMD wünschen, außer den wenigen Gigabyte Aorus Elite Modellen mit 4 Jahren.

@Mirkmaenn
Die Betrugsbilder via DLSS 2.3 und höher, FSR 2.1 und XeSS sehen doch mittlerweile sehr gut und vor allem brauchbar aus. Manche nutzen das sogar für noch mehr Performance ohne Raytracing, auch eine Energieeinsparung ist möglich. Man nutzt das in Kombination mit einem niedrigen FPS-Limit ohne Raytracing, schon ist man ohne Undervolting bei 80 Watt Boardpower in Cyberpunk mit einer 3060. Diese "Betrugstechniken" werden so wie es aussieht nicht mehr verschwinden.
 
Zuletzt bearbeitet:
Rly?
Wer möchte sich denn in dieses enge Korsett von einem OS zwängen?
Windows ist bei weitem nicht der Heilige Gral, hat viele Macken und frißt teilweise zuviel Performance, aber diesem OS läuft jeder Scheiß und das ohne das ich mir erst über Kompatiblitäten Gedanken machen muss.
Da ist Linux ja schon weiter, wenn es ums zocken geht.

Da sind die Schulen federführend. Die wollen jedem Schüler ein iPad geben und machen das bereits. Das ist ein riesiges trojanische Pferd eine ganze Generation auf Apple zu bekommen und danach werden die Schüler in ein Berufsleben entlassen das von Windows dominiert wird. GG.

Der Rest passiert von alleine. Viele potentille Kunden. Apple hat niedrige TDP, damit wird Upscaling Pflicht. Das wird vielleicht nicht das Upscaling das jeder aus Digital Foundry Videos kennt die mit der Lupe vergleichen, aber das werden verdammt viele Leute in den Händen halten.
 
Da sind die Schulen federführend. Die wollen jedem Schüler ein iPad geben und machen das bereits. Das ist ein riesiges trojanische Pferd eine ganze Generation auf Apple zu bekommen und danach werden die Schüler in ein Berufsleben entlassen das von Windows dominiert wird. GG.

Das ist ja alles schön und gut, aber klärt immer noch nicht die Verwendbarkeit von Spielen unter diesen OS.
Und es zählt nicht nur das was die Schüler in der Schule nutzen. Es zählt auch das was die Schüler zuhause nutzen und das sind nun mal meisten Rechner/Laptops mit Windows oder Tablets mit Android.
Nicht jeder Haushalt leistet sich ein Gerät von Apple für den Sprößling.
Zudem müsste man auch noch die Konsolen mit einbeziehen.
Die Kids von heute die einen Rechner benutzen, nutzen diesen nur weil Papi oder Mami einen Rechner haben und auch eine affinität dazu haben.
Meine Sohn wollte einen Rechner, weil er mit mir zusammen immer am Rechner gezockt hat. Mittlerweile hat er zur PS5 gewechselt, weil ich immer Playstations hatte.
Das gleiche Ergebnis kann ich bei meinem Bruder und seinen Kindern sehen.

Also nutzen die Kids von heute entweder einen Rechner, weil die Eltern Rechner nutzen oder gehen direkt zu den Konsolen über. Und genau das setzt sich auch in die Köpfe der kleinen Racker und nicht etwas Apple Produkte mit denen sie lernen mussten.

Der Rest passiert von alleine. Viele potentille Kunden. Apple hat niedrige TDP, damit wird Upscaling Pflicht. Das wird vielleicht nicht das Upscaling das jeder aus Digital Foundry Videos kennt die mit der Lupe vergleichen, aber das werden verdammt viele Leute in den Händen halten.

Das sehe ich so noch nicht. Im Smartphone Bereich bestimmt und auf dem iPad natürlich auch, aber das sich die Kids jetzt Reihenweise iMacs kaufen um darauf zu zocken? Nope!
Da müsste Apple schon eine Konsole auf den Markt werfen, aber dann können sie nicht mehr ihr proprietäres System nutzen, denn darauf wird kaum ein Spieleentwickler programmieren wollen. Nicht umsonst haben die Playstation und die XBox fast die selbe Hardware als Unterbau.
 
Zurück