FidelityFX Super Resolution: AMD stellt sich der Qualitäts-Kritik

Klassischer Versuch der Beweislastumkehr, nicht mit mir... Zu erst mal musst Du beweisen dass der Algorithmus auf normalen Shadern mit einem Performance plus laufen würde, denn das hast Du ja initial behauptet ohne jegliche Fakten:
Eigentlich nicht. Anscheneind fällt dir das lesen wieder mal schwer, aber es gibt das Wort "dürfte" in meiner Aussage. Es ist am Ende eine Mutmaßung meinerseits das Wörtchen war daher bewusst gewählt ;). Du stellst es bei dir aber als Fakt dar. Außerdem gab es mal ein Control mit DLSS "1.9" was ausdrücklich nicht auf Tensor Cores lief.

Aber damit du vielleicht verstehst was ich bei der Performance meine:


Das deckt sich recht gut mit dem was ich mit NN bisher erlebt habe. Die TC sind zwar schneller aber eben oft nicht so krass wie es das Marketing gerne erzählt.

Die aktuelle Faktenlage spricht eben dagegen:
- Nvidia nutzt einen ML-Ansatz mit DLSS, DLSS läuft auf Tensor Cores
- AMD nutzt einen Spatial-Upscaler ohne ML-Komponente, FSR läuft auf den Shadern
- Intel wird für XeSS auch eine ML-Komponente nutzen

https://mixed.de/intel-arc-gpus-bieten-nvidia-dlss-die-stirn/
Die Faktenlage sagt zu meinen Aussagen garnichts, du solltest weniger interpretieren. Die Faktenlage könnte genauso heißen:
- Nvidia ist in der Forschung führend und nutzt ML
- Intel ist in der Forschung vorne mit dabei und nutzt ML
- AMD ist in dem Bereich unbedeutend und nutzt kein ML

Also 2 Hersteller nutzen dedizierte Einheiten für ihre ML-Upscaler. Ein Hersteller hat keine dedizierten Einheiten und nutzt keine ML-Komponente in seinem Upscaler. Die Evidenz spricht für meine Theorie.
Und hier kommen wir dazu was man aus den Fakten macht. Intel muss dedizierte Einheiten verbauen wenn man Nvidia im KI Bereich wieder angreifen will und das die dann zwangsweise im Consumerbereich landen ist da genausowenig verwunderlich. Dazu bringt Intel anders als AMD viel Know-How aus der Forschung etc. mit da hat man ganz andere Möglichkeiten bei der Implementierung. Das man dann die speziell entwickelten dedizierten Einheiten verwendet ist dann auch klar. Aber es ist kein Beweis dass das ganze nicht auch ohne geht.
Korrekt, die Tensor Cores kommen ja auch aus dem Server Bereich. Wenn es per Shader einfach machbar wäre, dann hätte Nvidia garantiert die Chipfläche nicht für die Tensor Cores genutzt sondern einfach noch mehr Shader draufgepackt. Den Algorithmus hätten sie ja trotzdem proprietär verkaufen können.
Nur das du Quadros+GeForce hast. Und bei ersterem sind Tensor Cores eben interessant. Rate mal weshalb wir diese nun auf den GeForce Karten haben. Die Chipfläche hätte man sicher bei den GeForce gespart hat aber im Zuge der Quadros keinen Sinn gemacht. Nvidia hat dann die Tensor Cores aber sinnvoll in das Consumer Segment eingesetzt und das war eine guter Schachzug.
Also doch langsamer. Wieso bin ich auf Nvidias Marketing reingefallen wenn die dedizierten Tensor Cores einen Sinn haben?
Hast du dir deine Marketingfolien angeschaut. Man spricht von Größenordnung schneller und nicht von "ein Paar" Prozent. Diese Größenordnung habe ich bisher nur vs. CPU gesehen aber gegen ähnlich starke GPUs ohne Tensor Cores leider nicht. Und kann auch nirgendwo Aussagen finden wo alte HW ansatzweise so krass deklassiert wird wie in den Marketingfolien.
 
Naja die Situation war schon ein ganz andere. Erstens wurden jegliche Grafikkarten (damals noch ohne Pandemie und Co) automatisch ab 100€ aufwärts teurer mit kaum vorhandenem Leistungsanstieg nur durch die raytracing und tensor cores
Man hat aber auch für dafür mehr bekommen.
Nehmen wir mal die RX 5700 XT und die RTX 2070 super. Beide nehmen sich in der Rasterleistung nicht viel.
Während man mit der Nvidia Karte FSR/DLSS/Raytracing bekommt, steht aus der Habenseite von der RX 5700 XT nur FSR.
Was jetzt jemand will/braucht ist eine andere Sache. Aber unbestreitbar ist, daß eine RTX 2070 super mehr zu bieten hat. In Cyberpunk war ich, bei einer Auflösung von 3440x1440p und identischer Einstellung, mit der RTX 2070 super/DLSS Quali schneller unterwegs als mit der RX 6800.
Was DLSS anno 2018 abgeliefert hat interessiert doch nicht. Wir haben 2021 und FSR muß sich mit dem aktuellen DLSS messen.
 
Was meinst du mit Shader-Emulation? DP4 ist ja kein Shader Kram. Das sind dedizierte Vektoreinheiten. XeSS auf normalen Shadern wird wohl nicht so der Hit denke ich mal.
Aber so wird es ja laufen auf "nicht ARC GPUs":
XeSS will be available in two variants: XMX-accelerated exclusive to the Intel ARC GPUs, and DP4a-based that relies on Microsoft Shader Model 6.4 / 6.6.

Eigentlich nicht. Anscheneind fällt dir das lesen wieder mal schwer, aber es gibt das Wort "dürfte" in meiner Aussage. Es ist am Ende eine Mutmaßung meinerseits das Wörtchen war daher bewusst gewählt ;). Du stellst es bei dir aber als Fakt dar. Außerdem gab es mal ein Control mit DLSS "1.9" was ausdrücklich nicht auf Tensor Cores lief.

Aber damit du vielleicht verstehst was ich bei der Performance meine:


Das deckt sich recht gut mit dem was ich mit NN bisher erlebt habe. Die TC sind zwar schneller aber eben oft nicht so krass wie es das Marketing gerne erzählt.


Die Faktenlage sagt zu meinen Aussagen garnichts, du solltest weniger interpretieren. Die Faktenlage könnte genauso heißen:
- Nvidia ist in der Forschung führend und nutzt ML
- Intel ist in der Forschung vorne mit dabei und nutzt ML
- AMD ist in dem Bereich unbedeutend und nutzt kein ML


Und hier kommen wir dazu was man aus den Fakten macht. Intel muss dedizierte Einheiten verbauen wenn man Nvidia im KI Bereich wieder angreifen will und das die dann zwangsweise im Consumerbereich landen ist da genausowenig verwunderlich. Dazu bringt Intel anders als AMD viel Know-How aus der Forschung etc. mit da hat man ganz andere Möglichkeiten bei der Implementierung. Das man dann die speziell entwickelten dedizierten Einheiten verwendet ist dann auch klar. Aber es ist kein Beweis dass das ganze nicht auch ohne geht.

Nur das du Quadros+GeForce hast. Und bei ersterem sind Tensor Cores eben interessant. Rate mal weshalb wir diese nun auf den GeForce Karten haben. Die Chipfläche hätte man sicher bei den GeForce gespart hat aber im Zuge der Quadros keinen Sinn gemacht. Nvidia hat dann die Tensor Cores aber sinnvoll in das Consumer Segment eingesetzt und das war eine guter Schachzug.
Dein Zitat:
Man benötigt aber keine Tensorcores um ein DLSS Algorithmus auszuführen. Er wird effizienter laufen aber Performance dürfte auch ohne Tensor Cores deutlich ankommen.
Du sagst explizit: "Performance dürfte auch ohne Tensor Cores deutlich ankommen", wenn ich dem widerspreche soll ich plötzlich Beweise liefern. Zu erst musst Du allerdings Beweise dafür liefern dass die Performance bei einer Shader-Emulation steigt, das bleibt ja Deine Aussage, auch wenn da "dürfte" steht. Wenn Du natürlich meinst dass es nur ganz vielleicht, also eher nicht, per Shader-Emulation einen Performance-Boost bringt, dann sind wir einer Meinung. ;)

Zum Rest Deiner Aussage stimme ich zu, NV + Intel haben ML Knowhow, AMD aktuell noch weniger. Das wird sich durch den Zukauf von Xilinx ändern, nur ist man da eben ein paar Generationen hintendran.

Hast du dir deine Marketingfolien angeschaut. Man spricht von Größenordnung schneller und nicht von "ein Paar" Prozent. Diese Größenordnung habe ich bisher nur vs. CPU gesehen aber gegen ähnlich starke GPUs ohne Tensor Cores leider nicht. Und kann auch nirgendwo Aussagen finden wo alte HW ansatzweise so krass deklassiert wird wie in den Marketingfolien.
Was Du vergisst bei den Benchmarks die Du verlinkt hast: die 1080ti wird da NUR für FP16/FP32 genutzt. Also alle Shader, das lässt sich auf Gaming so gar nicht ummünzen. Der Test prüft die relative AI-Training Performance der unterschiedlichen Chips, nicht wie es sich beim Gaming verhält, da sind die Shader ja mit etwas anderem beschäftigt...
 
Viele andere Archs unterstützen ja DP4. Ich würde es halt nicht als Shader-Variante beschreiben. DP4 sind Vektoreinheiten.
Erleuchte mich, ich verstehe es genau so: DP4a läuft auf Intel Arc auf den dedizierten Einheiten, wird bei anderen Archs aber über die Shader laufen:

So let's get right into the thick of it. On Intel Alchemist GPUs, Intel XeSS will operate through XMX acceleration—specific matrix engines built into the architecture that perform a role similar to that of Nvidia's Tensor Cores. It's this deep learning acceleration that'll help XeSS boost your performance in-game.

For non-Intel Xe-HPG graphics cards, however, this acceleration can instead be done through DP4A instructions at a somewhat greater expense (meaning it won't be quite as performant as XMX-accelerated XeSS). These DP4A instructions are used to multiply 8-bit integers (one byte, INT8) accumulated into one 32-bit integer and then run on a GPU's ALUs. These are also used to accelerate certain operations that do not require high precision, i.e. deep learning.

Modern GPUs support DP4A (Signed Integer Dot-Product of 4 Elements and Accumulate) in line with Microsoft Shader Model 6.4, while other older GPUs don't. That means some GPUs can accelerate certain instructions required by XeSS, while others are unable to.

Wenn ich es richtig verstehe dann geht es um INT8 Operationen, und die würden die Tensor Cores auf NV GPUs auch beschleunigen, da schiebt Intel aber einen Riegel vor...
 
Erleuchte mich, ich verstehe es genau so: DP4a läuft auf Intel Arc auf den dedizierten Einheiten, wird bei anderen Archs aber über die Shader laufen:
DP4a läuft ja nicht auf Intel Arc in dem Sinne, dass die XMX Matrix Cores verwendet werden. Das ist weitläufig ein Tensor Core Pendant. Auf nicht Intel Arc-Archs wird ein DP4a Fallback verwendet, der mehrere Taktzyklen für eine Matrixoperation benötigt, weil die Matrixoperation elementar aus mehreren Skalarprodukten zusammengesetzt wird.

Das ist langsamer, aber nicht sooo viel langsamer, weil XMX und Tensor Cores eh stark an der Bandbreite hängen. Unterem Strich hat man die gleiche IQ (wenn man oder Intel will), aber nur geringfügig weniger Leistung.

Liste mit GPUs/Archs, welche DP4a unterstützen:
1634549115325.png


Schaubild, das zeigt, wie sich eine Matrixoperation aus mehreren Skalarprodukten zusammensetzt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Schaubild von Intel bzgl. der Upscaler Runtimes:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet von einem Moderator:
DP4a läuft ja nicht auf Intel Arc in dem Sinne, dass die XMX Matrix Cores verwendet werden. Das ist weitläufig ein Tensor Core Pendant. Auf nicht Intel Arc-Archs wird ein DP4a Fallback verwendet, der mehrere Taktzyklen für eine Matrixoperation benötigt, weil die Matrixoperation elementar aus mehreren Skalarprodukten zusammengesetzt wird.

Das ist langsamer, aber nicht sooo viel langsamer, weil XMX und Tensor Cores eh stark an der Bandbreite hängen. Unterem Strich hat man die gleiche IQ (wenn man oder Intel will), aber nur geringfügig weniger Leistung.

Liste mit GPUs/Archs, welche DP4a unterstützen:
Anhang anzeigen 1377418
Das habe ich schon so verstanden, also XeSS wird auf Intel ARC beschleunigt durch die XMX Matrix Engines, auf anderen GPUs läuft es über den DP4a Fallback.

Intel XSS will be powered by DP4a and XMX instructions which are present in either already-released DG1 GPUs (Xe-LP) or the upcoming Intel Xe-HPG series (DG2). The XMX Matrix Engines are the building block of AI acceleration on next-generation Arc “Alchemist” GPUs. Each DG2 chip will feature 16 Matrix Engines and 16 Vector Engines

Somit ist man ja nicht weit entfernt von einer proprietären Lösung. Klar, man gibt der Konkurrenz eine Möglichkeit es zu nutzen, die beste Performance erzielt man aber auf der eigenen GPU über die dedizierten Einheiten. Und man blockt für Nvidia die Möglichkeit ihre Tensor Cores dafür einzusetzen, obwohl diese dazu fähig wären.
 
Klar, man gibt der Konkurrenz eine Möglichkeit es zu nutzen, die beste Performance erzielt man aber auf der eigenen GPU über die dedizierten Einheiten.
Man will natürlich das eigene Produkt damit pushen. Die XMX Variante wird ein paar % schneller sein. Für einige sind 5-10% Leistungsunterschied wichtig. Auch Intel will am Ende Vorteile für sich daraus generieren und das ist auch völlig legitim.
 
Aber so wird es ja laufen auf "nicht ARC GPUs":



Dein Zitat:

Du sagst explizit: "Performance dürfte auch ohne Tensor Cores deutlich ankommen", wenn ich dem widerspreche soll ich plötzlich Beweise liefern. Zu erst musst Du allerdings Beweise dafür liefern dass die Performance bei einer Shader-Emulation steigt, das bleibt ja Deine Aussage, auch wenn da "dürfte" steht. Wenn Du natürlich meinst dass es nur ganz vielleicht, also eher nicht, per Shader-Emulation einen Performance-Boost bringt, dann sind wir einer Meinung. ;)
Dann triff doch keine so klaren Aussagen. Ich habe eindeutig gekennzeichnet wo ich eine Einschätzung treffe du hingegen nicht. Und nein ich sehe da keine Probleme mit Gegenargumenten aber damit das jemand behauptet es sei Fakt und nicht liefert.
Aber ja ich gebe dir mal ein Artikel zum Thema DLSS ohne Tensor Cores:
The first step towards DLSS 2.0 was the release of Control. This game doesn’t use the "final" version of the new DLSS, but what Nvidia calls an “approximation” of the work-in-progress AI network. This approximation was worked into an image processing algorithm that ran on the standard shader cores, rather than Nvidia’s special tensor cores, but attempted to provide a DLSS-like experience. For the sake of simplicity, we're going to call this DLSS 1.9, and we’ll talk about this more when we look at DLSS in Control.

Zum Rest Deiner Aussage stimme ich zu, NV + Intel haben ML Knowhow, AMD aktuell noch weniger. Das wird sich durch den Zukauf von Xilinx ändern, nur ist man da eben ein paar Generationen hintendran.


Was Du vergisst bei den Benchmarks die Du verlinkt hast: die 1080ti wird da NUR für FP16/FP32 genutzt. Also alle Shader, das lässt sich auf Gaming so gar nicht ummünzen. Der Test prüft die relative AI-Training Performance der unterschiedlichen Chips, nicht wie es sich beim Gaming verhält, da sind die Shader ja mit etwas anderem beschäftigt...
Hast du dafür einen Beleg. Ich wäre doch erstaunt wenn ein nachgelagerter Upscaling Prozess für die Shader ein Problem darstellen sollte. Vor allem da dieser nur einen Bruchteil der Rechenzeit benötigt.
 
FSR ist genau richtig um aus älteren Katen noch ein bisschen mehr "rauszuholen". DLSS sehe ich mehr als Möglichkeit teure Effekte (Raytracing) möglich zu machen, auch wenn die aktuellen Karten alleine noch nicht genug Leistung hätten.
 
Man hat aber auch für dafür mehr bekommen.
Nehmen wir mal die RX 5700 XT und die RTX 2070 super. Beide nehmen sich in der Rasterleistung nicht viel.
Während man mit der Nvidia Karte FSR/DLSS/Raytracing bekommt, steht aus der Habenseite von der RX 5700 XT nur FSR.
Was jetzt jemand will/braucht ist eine andere Sache. Aber unbestreitbar ist, daß eine RTX 2070 super mehr zu bieten hat. In Cyberpunk war ich, bei einer Auflösung von 3440x1440p und identischer Einstellung, mit der RTX 2070 super/DLSS Quali schneller unterwegs als mit der RX 6800.
Was DLSS anno 2018 abgeliefert hat interessiert doch nicht. Wir haben 2021 und FSR muß sich mit dem aktuellen DLSS messen.

In Cyberpunk wird AMD aktiv sabotiert. Anders kannst du das nicht mehr nennen. Mittlerweile geht auch cas nicht mal mehr in Kombination mit raytracing.
Trotzalledem kann ich
mit einer 6800 mit 1440 und hohen Einstellungen, raytracing Schatten flüssig spielen.
 
Dann triff doch keine so klaren Aussagen. Ich habe eindeutig gekennzeichnet wo ich eine Einschätzung treffe du hingegen nicht. Und nein ich sehe da keine Probleme mit Gegenargumenten aber damit das jemand behauptet es sei Fakt und nicht liefert.
Aber ja ich gebe dir mal ein Artikel zum Thema DLSS ohne Tensor Cores:
Wie gut DLSS 1.9 in Control war wissen wir ja alle... Für die Artefakte und das Ghosting wurde DLSS in dieser Iteration massiv (und zu Recht) kritisiert. Jetzt läuft DLSS 2.X auf den Tensor Cores und bietet sehr gute Bildqualität UND einen Performance Boost. FSR bietet einen Performance Boost bei schlechterer Bildqualität. Also irgendeinen Sinn werden die Tensor Cores schon haben, sonst würde Intel ja mit der eigenen Lösung nicht auch spezialisierte Einheiten mit ihren XMX Matrix Cores verbauen.

Hast du dafür einen Beleg. Ich wäre doch erstaunt wenn ein nachgelagerter Upscaling Prozess für die Shader ein Problem darstellen sollte. Vor allem da dieser nur einen Bruchteil der Rechenzeit benötigt.
Ja, der Beleg steht in Deiner Quelle:

Performance of each GPU was evaluated by measuring FP32 and FP16 throughput (# of training samples processed per second) while training common models on synthetic data.
All experiments utilized Tensor Cores when available


Es wurde der reine FP16/32 throughput anhand von AI-training-models gemessen. Also lief auf den Pascal Shadern nur das. Was dort verglichen wird ist quasi Pascal Shader vs Turing Tensor Core, und nicht Pascal Shader vs Turing Shader + Tensor Core.
 
Man will natürlich das eigene Produkt damit pushen. Die XMX Variante wird ein paar % schneller sein. Für einige sind 5-10% Leistungsunterschied wichtig. Auch Intel will am Ende Vorteile für sich daraus generieren und das ist auch völlig legitim.
Kann Nvidia Tensor Cores zur Beschleunigung von XeSS nutzen wie Intel XMX um mehr Performance zu gewinnen?
 
Kann Nvidia Tensor Cores zur Beschleunigung von XeSS nutzen wie Intel XMX um mehr Performance zu gewinnen?
Gute Frage. Out of the Box nicht, laut Karthik von Intel.
1634554056514.png

Source

Da XeSS laut Intel aber Open Source sein wird, wird Nvidia das anpassen können. Aber warum sollten sie das tun? Sie haben ja ihre eigene Implementierung.
 
Wie gut DLSS 1.9 in Control war wissen wir ja alle... Für die Artefakte und das Ghosting wurde DLSS in dieser Iteration massiv (und zu Recht) kritisiert. Jetzt läuft DLSS 2.X auf den Tensor Cores und bietet sehr gute Bildqualität UND einen Performance Boost. FSR bietet einen Performance Boost bei schlechterer Bildqualität. Also irgendeinen Sinn werden die Tensor Cores schon haben, sonst würde Intel ja mit der eigenen Lösung nicht auch spezialisierte Einheiten mit ihren XMX Matrix Cores verbauen.
Die Qualität des Ergebnisse spielt erstmal dafür keine Rolle. Es war klar dass es sich um einen Zwischenschritt handelt. Die Entwicklung wurde dahingehend eingestellt da man ja die Tensor Cores nutzen kann. Es zeigt aber recht deutlich das DLSS eben nicht zwingend die Tensor Cores benötigt.
Ja, der Beleg steht in Deiner Quelle:

Es wurde der reine FP16/32 throughput anhand von AI-training-models gemessen. Also lief auf den Pascal Shadern nur das. Was dort verglichen wird ist quasi Pascal Shader vs Turing Tensor Core, und nicht Pascal Shader vs Turing Shader + Tensor Core.
Das ist kein Beleg... Es ging darum dass die Shader das nicht machen könnten wenn du zockst. Außerdem läuft FP32 nicht auf den Shadern? :confused: Dachte Turings Tensor Cores können nur FP16 INT 8 INT4
Ich warte immernoch darauf dass du erläuterst warum die Shader das nicht leisten sollten. Das Upscaling findet doch im Nachgang statt und nicht parallel zur Frameberechnung oder?
 
Diese Leute spielen idR. aber nicht in UWQHD, weil teuer.
Das ist vollkommen falsch. Viele Leute holen sich gerade für das Home Office einen UWQHD Monitor und die sind auch einfacher zu bekommen als neue Hardware.

Dementsprechend kommt es gerade momentan recht häufig vor, dass neue Bildschirme gekauft werden aber die Hardware aufgrund der Verfügbarkeit und den Preisen noch hinterher hinkt. FSR ist da ein sehr hilfreiches Feature.
Gute Frage. Out of the Box nicht, laut Karthik von Intel.
Anhang anzeigen 1377425
Source

Da XeSS laut Intel aber Open Source sein wird, wird Nvidia das anpassen können. Aber warum sollten sie das tun? Sie haben ja ihre eigene Implementierung.
Wenn ich mich nicht stark verschätze dürften einige Anpassungen im Nvidia Treiber wie die jeweiligen Befehle an die Grafikkarte weitergegeben werden durchaus für die Nutzung der Tensor-Cores führen. Aber wie du schon angemerkt hast: Es funktioniert nicht ohne Zuarbeit von Nvidia.
 
Die Qualität des Ergebnisse spielt erstmal dafür keine Rolle. Es war klar dass es sich um einen Zwischenschritt handelt. Die Entwicklung wurde dahingehend eingestellt da man ja die Tensor Cores nutzen kann. Es zeigt aber recht deutlich das DLSS eben nicht zwingend die Tensor Cores benötigt.
Die Qualität spielt eine Rolle. Wenn man dieselbe Qualität nicht bekommt ohne Performance Einbußen, dann bringt das Feature ja nicht viel. Das Ziel war ja Performance Boost + hoher Qualitätserhalt.

Das ist kein Beleg... Es ging darum dass die Shader das nicht machen könnten wenn du zockst. Außerdem läuft FP32 nicht auf den Shadern? :confused: Dachte Turings Tensor Cores können nur FP16 INT 8 INT4
Ich warte immernoch darauf dass du erläuterst warum die Shader das nicht leisten sollten. Das Upscaling findet doch im Nachgang statt und nicht parallel zur Frameberechnung oder?
https://www.hardwareluxx.de/images/...on-00033_FC7A1FBBF69C4EA2982432BF5515DFFE.jpg
Läuft parallel, ein Schema zur Renderpipeline und wo DLSS da genau läuft konnte ich jetzt nicht finden.
 
Gute Frage. Out of the Box nicht, laut Karthik von Intel.
Anhang anzeigen 1377425
Source

Da XeSS laut Intel aber Open Source sein wird, wird Nvidia das anpassen können. Aber warum sollten sie das tun? Sie haben ja ihre eigene Implementierung.
Naja wäre doch dumm von Nvidia wenn die ihre eigenen Beschleuniger nicht verwenden um ein Upscaling Verfahren der offen ist performanter zu machen.
Es dürfte zukünftig einige XeSS Only Spiele geben, und mit Tensor Core Nutzung wäre man dann die entscheidenden 5-15% schneller als die Konkurrenz die keine KI Beschleuniger nutzt bei etwa gleicher Rohleistung (z.Bsp. AMD GPU's) und man würde nicht hinter Intel fallen.

Die Qualität des Ergebnisse spielt erstmal dafür keine Rolle. Es war klar dass es sich um einen Zwischenschritt handelt. Die Entwicklung wurde dahingehend eingestellt da man ja die Tensor Cores nutzen kann. Es zeigt aber recht deutlich das DLSS eben nicht zwingend die Tensor Cores benötigt.
DLSS 1 nutzte normale Shader und das Ergebnis kennt man, es war Müll.
FSR setzt auch auf Shader, ist zwar besser als DLSS 1.0, aber qualitativ trotzdem nicht zu gebrauchen.
 
Zuletzt bearbeitet:
Die Qualität spielt eine Rolle. Wenn man dieselbe Qualität nicht bekommt ohne Performance Einbußen, dann bringt das Feature ja nicht viel. Das Ziel war ja Performance Boost + hoher Qualitätserhalt.
Pure Spekulation. Du vergisst dass die Shader Variante ein Entwicklungszwischenschritt war. Das da nicht alles sauber läuft verwundert nicht. Unsere Entwicklungszwischenschritte laufen auch teilweise beschissen und Konzepte werden bei entsprechenden Analysen geändert weil man sich da mehr Erfolg verspricht. Oft sind aber mehrere Wege denkbar und eine Frage der Präferenz bzw. :"was ist weniger Aufwand?" und seltener eine technische Notwendigkeit.
Nur weil man sinnvollerweise auf Tensor Cores gewechselt ist, (mehr Perf., einfacheres Handling) heißt es nicht das es zwingend notwendig war.
https://www.hardwareluxx.de/images/...on-00033_FC7A1FBBF69C4EA2982432BF5515DFFE.jpg
Läuft parallel, ein Schema zur Renderpipeline und wo DLSS da genau läuft konnte ich jetzt nicht finden.
Wirklich viel parallel läuft da ja nicht und was soll da jetzt nicht mit den Shadern funktionieren?
 
Zurück