AMD FSR 2.0: Implementierung in drei Tagen, unterstützt auch alte Nvidia-GPUs

Hab das mal gesucht das NIS aber unter dem begriff nicht gefunden. Nach ein bisschen suchen fand ich das richtige, heisst bei Nvidia Systemsteuerung unter dem reiter 3D Einstellung Bildschärfe erhöhen(nicht höher einstellen als 20-30%) alias NIS. Danke das du das erwähnt hast, dachte lange das NVIDIA da nix im petto hat :D
 
Vermutlich wird es auch bald eine treiberbedingte Lösung geben die FSR 2.0 Qualität darstellen kann,
Ach ja? Wie kommst du darauf? Vielleicht hab ich irgendwas nicht mitbekommen, das will ich nicht ausschließen. Allerdings würde mich das doch wundern. AMD bringt FSR2.0 weil man sie ständig mit DLSS vergleicht und sie da aufschließen wollen. Nvidia hat DLSS aber schon, also warum sollten sie bei NIS weiter Hand anlegen um zu sich selbst aufzuschließen? Ich denke das ist äußerst unrealistisch. Stell dir nur Mal vor das würde funktionieren. Warum sollten die Spieleentwickler dann noch DLSS einbauen?
 
Da würde ich mir nicht allzuviel Hoffnung machen. Das ist noch immer eine ganz andere Methode. Gleiche Ergebnisse sind da eher unwahrscheinlich. Was aber auch gut ist. Das schmieren vom DLSS mag ich nämlich nicht.
 
Da würde ich mir nicht allzuviel Hoffnung machen. Das ist noch immer eine ganz andere Methode. Gleiche Ergebnisse sind da eher unwahrscheinlich. Was aber auch gut ist. Das schmieren vom DLSS mag ich nämlich nicht.
FSR 2.0 und DLSS nutzen schon die gleichen Eingangsinformationen - sie bearbeiten sie nur anders.
AMD mit handgeschnitzten Algorithmen.
Nvidia mit einem sehr aufwändig trainierten Neuronalen Netz.

Beide Ansätze haben ihre Vor- und Nachteile.

@DLSS als Treiberfeature, anstelle im Spiel implementiert.
Das wird es nicht geben, da RSR und NIS beide nicht mehr als ein Post Processing (wie FXAA) sind, werden sie nie Zugriff auf die gleichen Informationen haben, wie DLSS und FSR.
Entsprechend können die Ergebnisse nicht so gut werden.
 
Wer nur <1,3 o.ä. will, der kann in Zukunft auch in allen Games NIS oder XeSS oder RSR nutzen.
(habe mir für RSR eine CustomResi 1836p erstellt und damit quasi 1836-->2160 = NIS Ultra 85% x 85% Pendant)

Würde mal sagen, die Stromeinsparung ist für den Sommer ganz interessant, weils damit kühler/leiser läuft.
 
Das schmieren vom DLSS mag ich nämlich nicht.
Hm? DLSS schmiert nicht, es sei denn du meinst Ghosting. Das wurde vor ein paar Versionen größtenteils behoben.

Beim Thema schmieren fällt mir nur das verschwommene, unscharfe Bild der ursprünglichen Version von FSR ein. Wollen wir einmal sehen, ob AMD dieses Manko im Nachfolger behoben hat.

Intel behauptet das zumindest für die eigene Technologie XeSS. Könnte spannend werden!
 
Hää?
mit FSR 1.0 ist nix verschwommen, ... solltest vllt. mal Bloom+Blur ausschalten
evtl.
ist eher vom GameXYZ her das LOD so gewünscht für den Hintergrund
 

Anhänge

  • Hellblade@4k-ultraFSR.jpg
    Hellblade@4k-ultraFSR.jpg
    1,8 MB · Aufrufe: 37
  • MYST@4k-FSR-Ultra.jpg
    MYST@4k-FSR-Ultra.jpg
    3,3 MB · Aufrufe: 27
  • 4k-FSR-Ultra.jpg
    4k-FSR-Ultra.jpg
    1,9 MB · Aufrufe: 29
  • Ghostrunner@TSR.jpg
    Ghostrunner@TSR.jpg
    260,1 KB · Aufrufe: 37
@RX480 Ich glaube es hängt von der Auflösung und auch dem subjektiven Empfinden ab. Mit WQHD Auflösung hab ich derzeit noch kein Spiel gefunden, in dem FSR 1.0 für mich nutzbar gewesen wäre. Selbst mit dem Ultra Quality Setting wird das Bild subjektiv unschärfer. Mehr noch aber stört mich die fehlende Bildstabilität.
Dahingehend empfinde ich DLSS als Segen, insbesondere wenn man es mit Downsampling kombiniert. Aber wenn ich sehe, wie sehr manche Leute FSR 1.0 hypen, bin ich da wohl eher ein Sonderfall :)

FSR 2.0 sieht für mich unter dem Gesichtspunkt super aus und ich hoffe, dass es mehr oder weniger auf Augenhöhe mit DLSS agieren kann.
 
@RX480 Ich glaube es hängt von der Auflösung und auch dem subjektiven Empfinden ab. Mit WQHD Auflösung hab ich derzeit noch kein Spiel gefunden, in dem FSR 1.0 für mich nutzbar gewesen wäre. Selbst mit dem Ultra Quality Setting wird das Bild subjektiv unschärfer. Mehr noch aber stört mich die fehlende Bildstabilität.
Dahingehend empfinde ich DLSS als Segen, insbesondere wenn man es mit Downsampling kombiniert. Aber wenn ich sehe, wie sehr manche Leute FSR 1.0 hypen, bin ich da wohl eher ein Sonderfall :)

FSR 2.0 sieht für mich unter dem Gesichtspunkt super aus und ich hoffe, dass es mehr oder weniger auf Augenhöhe mit DLSS agieren kann.

Nachschärfen ist mit fsr Pflicht für mich.
 

Und genau das hat Nvidia gemacht
Ich hab letztens tatsächlich erst mich darüber belesen, als ich auf folgenden Artikel gestolpert bin, gerne auch mal durchlesen: https://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-4.html

Ist also nicht künstlich ausgebremst worden, aber es wurde eben auch nicht viel Arbeit in die Optimierung auf CPUs gesteckt. Das ist aber auch verständlich, wenn es Nvidia mit Hardwarebeschleunigung auf deren GPUs laufen lassen will. Und die Mehrkernoptimierung muss der Entwickler vornehmen, ist aber zu DX9 Zeiten wohl auch nicht so einfach gewesen. In Metro 2033 soll PhysX (Software) bspw. auf mehreren Kernen laufen, da haben die Entwickler etwas für gemacht.
 
Zuletzt bearbeitet:
@RX480 Ich glaube es hängt von der Auflösung und auch dem subjektiven Empfinden ab. Mit WQHD ...
Für 1440p Raster lohnt sich FSR+RSR net, außer man hätte bei der Graka zu klein dimensioniert/gekauft.
(oder will mit ner 6800nonXT unbedingt mal mit RT spielen, bei sinnlos viel W)

In 4k Raster wird RSR im Sommer schon nützlich/sparsam sein.
wg. subjektiv nehme ich persönlich halt extra 1836p-->4k, um das Maximum an feiner Geometrie als Basis fürs Upsampling zu haben (1440p-->4k ist nur Was für Shooter, ... wenn man denn nen schnellen/teuren Moni hat)

btw.
Wer nen 120Hz+ HDR-Moni betreiben kann, der kann auch ne 6900xtxh kaufen. ... wenn man sich mal die Preise so anschaut,
ist so ein Moni eh nix für Einsteiger.
 

Anhänge

  • 4k-hdr_Monis.JPG
    4k-hdr_Monis.JPG
    184,5 KB · Aufrufe: 24
Zuletzt bearbeitet:
Ich hab letztens tatsächlich erst mich darüber belesen, als ich auf folgenden Artikel gestolpert bin, gerne auch mal durchlesen: https://www.tomshardware.com/reviews/nvidia-physx-hack-amd-radeon,2764-4.html

Ist also nicht künstlich ausgebremst worden, aber es wurde eben auch nicht viel Arbeit in die Optimierung auf CPUs gesteckt. Das ist aber auch verständlich, wenn es Nvidia mit Hardwarebeschleunigung auf deren GPUs laufen lassen will. Und die Mehrkernoptimierung muss der Entwickler vornehmen, ist aber zu DX9 Zeiten wohl auch nicht so einfach gewesen. In Metro 2033 soll PhysX (Software) bspw. auf mehreren Kernen laufen, da haben die Entwickler etwas für gemacht.

Das Argument bleibt aber dasselbe. Bei PhysX wurde jahrelang so getan als bräuchte man einen eigenen Beschleuniger in Hardware oder als hätten Nvidia GPUs eine "secret sauce" eingebaut, die mit dem Erwerb von PhysX kam. Am Ende kam dabei halt raus, dass das nie so war, sondern man eben schlichtweg proprietären Code ausschließlich für die eigenen GPUs optimiert hat und anderen, da sie keinen Zugriff auf den Code hatten, die Möglichkeit verwehrt hat diesen Code für ATI GPUs oder CPUs zu optimieren. Gleichzeitig aber war es möglich den Code per Software zu forcen um zu sehen wie "lahm" es dann ist.

Für mich persönlich stehen die Zeichen so, dass es mit DLSS ähnlich ist. Niemand weiß so genau, wie und ob DLSS mit den "Tensor Cores" arbeitet und ob die Aussage, dass es ohne diese nicht geht, eben eine "Kundenbindungsentscheidung" ist, oder eine technische Tatsache. Es gab jedenfalls schon DLSS Versionen, die ohne Tensor Cores funktionierten und soweit das hier im Forum die technisch versierten User beschrieben haben, passiert bei DLSS keine "on the FLY AI-Berechnung", das neuronale Netzwerk trainiert die Software anderswo, nicht aber beim Endkunden in Echtzeit (so zumindest hab ich das verstanden, der Endkunde nutzt lediglich das Ergebnis des Trainings).

Grundsätzlich bin ich jedenfalls gegen Herstellerbindungen wo Argumente konstruiert und vorgeschoben werden, und wo immer es geht kaufe ich mir keine Original-Hersteller Sachen, wo man nach Strich und Faden abgezogen wird und das geht von Kaffeevollautomatenreinigungstabletten über Staubsaugerbeutel bis Druckertintenpatronen. Das sind alles Dinge wo man schnell mal von Faktor 3 bis 10 übervorteilt wird.

Kann Nvidia Features nur auf bestimmten Gens anbieten um mehr Anreiz für Neukauf zu schaffen? Klar, aber ich muss es nicht gut finden.
 
Für mich persönlich stehen die Zeichen so, dass es mit DLSS ähnlich ist. Niemand weiß so genau, wie und ob DLSS mit den "Tensor Cores" arbeitet und ob die Aussage, dass es ohne diese nicht geht, eben eine "Kundenbindungsentscheidung" ist, oder eine technische Tatsache. Es gab jedenfalls schon DLSS Versionen, die ohne Tensor Cores funktionierten und soweit das hier im Forum die technisch versierten User beschrieben haben, passiert bei DLSS keine "on the FLY AI-Berechnung", das neuronale Netzwerk trainiert die Software anderswo, nicht aber beim Endkunden in Echtzeit (so zumindest hab ich das verstanden, der Endkunde nutzt lediglich das Ergebnis des Trainings).
Es würde kein Sinn machen nicht auf Tensor Cores zu arbeiten. Schließlich bieten die ja genau für solche Anwendungen immense Vorteile. Am Ende werden aber die Tensor Cores nicht zwingend benötigt, dass hat auch Nvidia selbst bewiesen als sie vor DLSS 2.0 mit dem Algorithmus experimentiert haben und Control anfangs noch einen ALgorithmus verwendeten der nur auf den Shadern lief. Dieser war wenn ich mich noch richtig erinnere zu Aufwendig, da dieser für jedes Spiel angepasst werden musste.

Grundsätzlich bin ich jedenfalls gegen Herstellerbindungen wo Argumente konstruiert und vorgeschoben werden, und wo immer es geht kaufe ich mir keine Original-Hersteller Sachen, wo man nach Strich und Faden abgezogen wird und das geht von Kaffeevollautomatenreinigungstabletten über Staubsaugerbeutel bis Druckertintenpatronen. Das sind alles Dinge wo man schnell mal von Faktor 3 bis 10 übervorteilt wird.

Kann Nvidia Features nur auf bestimmten Gens anbieten um mehr Anreiz für Neukauf zu schaffen? Klar, aber ich muss es nicht gut finden.
Wenn ich Innovationen nicht monetarisieren kann warum sollte ich die dann noch bringen? Klar wäre es für uns schön aber letzten Endes wurde DLSS nicht gebracht um uns einen gefallen zu tun sondern um sich von der Konkurrenz abzuheben.
 
Es würde kein Sinn machen nicht auf Tensor Cores zu arbeiten. Schließlich bieten die ja genau für solche Anwendungen immense Vorteile. Am Ende werden aber die Tensor Cores nicht zwingend benötigt, dass hat auch Nvidia selbst bewiesen als sie vor DLSS 2.0 mit dem Algorithmus experimentiert haben und Control anfangs noch einen ALgorithmus verwendeten der nur auf den Shadern lief. Dieser war wenn ich mich noch richtig erinnere zu Aufwendig, da dieser für jedes Spiel angepasst werden musste.

Bei DLSS sind die Tensor Kerne notwendig, weil sich Nvidia auf ihr Spezialgebiet Neuronale Netze versteift hat und das eben auch für Upsampling nutzen wollte.
Wirklich nötig sind die nicht, wenn man sich die vorhandenen Informationen zu FSR2 anschaut.

1) FSR2 braucht Informationen über Tiefe, Vektoren (Bewegung) und Farbe bei jedem Bild.

2) Spiele (bzw. Engines), die bereits eine "Konkurrierende Upscaling Methode mit temporaler Komponente" nutzen können FSR2 relativ schnell integrieren, weil die drei Informationen schon vorhanden sind und wie gebraucht von der Engine geliefert werden (oder zumindest so, dass man sie mit wenig Aufwand für AMD nutzbar machen kann)

Nvidia hatte ein mehr oder minder Däumchen drehendes NN Team, dass sich mit Grundlagenforschung auseinandersetzte und konnte denen mal nen realen Anwendungsfall als Futter geben und damit sogar viele Hype Punkte bei Gamern einsammeln.

Wenn ich Innovationen nicht monetarisieren kann warum sollte ich die dann noch bringen? Klar wäre es für uns schön aber letzten Endes wurde DLSS nicht gebracht um uns einen gefallen zu tun sondern um sich von der Konkurrenz abzuheben.
Wenn man sich mit Upscaling von der Konkurrenz absetzt, bedeutet es nur, dass man nicht genug Rechenleistung in den eigenen GPUs hat.
 
Bei DLSS sind die Tensor Kerne notwendig, weil sich Nvidia auf ihr Spezialgebiet Neuronale Netze versteift hat und das eben auch für Upsampling nutzen wollte.
Wirklich nötig sind die nicht, wenn man sich die vorhandenen Informationen zu FSR2 anschaut.
Sie sind auch beim Nutzung von NN nicht zwingend notwendig. Aber wenn man schon extra Einheiten genau für diese Aufgabenzwecke hat nutzt man diese sinnvollerweise auch.
1) FSR2 braucht Informationen über Tiefe, Vektoren (Bewegung) und Farbe bei jedem Bild.

2) Spiele (bzw. Engines), die bereits eine "Konkurrierende Upscaling Methode mit temporaler Komponente" nutzen können FSR2 relativ schnell integrieren, weil die drei Informationen schon vorhanden sind und wie gebraucht von der Engine geliefert werden (oder zumindest so, dass man sie mit wenig Aufwand für AMD nutzbar machen kann)
DLSS benötigt diese Informationen doch genauso? Ob nun ein klassischer Algorithmus die Daten verarbeitet oder ein NN spielt ja erstmal keine Rolle. Wichtig ist dass es viele nutzen und dass muss bei allen Herstellern erstmal umgesetzt werden.
Nvidia hatte ein mehr oder minder Däumchen drehendes NN Team, dass sich mit Grundlagenforschung auseinandersetzte und konnte denen mal nen realen Anwendungsfall als Futter geben und damit sogar viele Hype Punkte bei Gamern einsammeln.
Natürlich man hatte so viele Däumchen gedreht weil man ja sonst keine Forschungsprojekte verfolgen könnte. Wenn man führend in dem Bereich ist warum nicht nutzen? Das machen letzten Endes fast alle Firmen so...
Wenn man sich mit Upscaling von der Konkurrenz absetzt, bedeutet es nur, dass man nicht genug Rechenleistung in den eigenen GPUs hat.
Das ist grober unfug. Ausgerechnet die Leistungsstärksten Karten bieten ebenfalls das Feature. Und bei einem gewissen Konkurrenten konnte über Jahre nichts abliefern und war bis vor kurzem bei der Rechenpower "nicht vorhanden".
Für diverse Leute ist DLSS mit ein Kaufargument ob du es magst oder nicht. Es liegt an AMD bzw. Intel mit entsprechenden alternativen dieses Argument zu entkräften. Ich würde mir bspw. keine AMD Karte zum selben Preis und klassischer Rasterisierungsleistung kaufen wenn die Features fehlen.
 
Sie sind auch beim Nutzung von NN nicht zwingend notwendig. Aber wenn man schon extra Einheiten genau für diese Aufgabenzwecke hat nutzt man diese sinnvollerweise auch.
Diese Einhaiten haben auf den Consumer Karten aber sonst kaum einen Nutzen - abgesehen von RT, dass es aber in weniger Spiele geschafft hat, als DLSS.
DLSS benötigt diese Informationen doch genauso? Ob nun ein klassischer Algorithmus die Daten verarbeitet oder ein NN spielt ja erstmal keine Rolle. Wichtig ist dass es viele nutzen und dass muss bei allen Herstellern erstmal umgesetzt werden.
Du hast offenbar meinen Text nicht verstanden... ich schreib doch extra, dass DLSS und FSR die Informationen benutzen - und es deshalb bedeutet, dass man eben KEIN NN dafür braucht.
Natürlich man hatte so viele Däumchen gedreht weil man ja sonst keine Forschungsprojekte verfolgen könnte. Wenn man führend in dem Bereich ist warum nicht nutzen? Das machen letzten Endes fast alle Firmen so.
Irgendwann muss man mal von der Grundlagenforschung wegkommen und endlich was real nutzbares auf den Tisch bringen.
Siehe Blockchain.
Aktuell gibt es keine reale Anwendung außerhalb der diversen Coins.
Es gibt immer wieder Ansätze, doch nichts davon wird am Ende ein real genutztes Produkt.
Ein ehemaliger Kollege und Blckchain enthusiast ist von seinem Job zu einer Firma gewechselt, die Blockchains in Verbindung mit Warenwirtschaft und Verträgen einsetzen wollte... Tjoa... die gibts nicht mehr.

Das ist grober unfug. Ausgerechnet die Leistungsstärksten Karten bieten ebenfalls das Feature.
Was verrät uns das?
Dass auch die leistungsstärksten Karten nicht genug Power haben, um RT halbwegs flüssig darzustellen, ohne auf diverse Tricks (nur ein Ray pro Pixel Cluster, anstelle mehrerer Rays pro Pixel, copy&paste von Reflexionen... Objekte aus RT ausklammern, Reflexionen teilweise doch wieder als screen space Reflexionen machen...) und dazu noch DLSS zurückgreifen zu müssen.

Eine GPU hat dann genug Power, wenn RT mit Licht, Schatten und Reflexionen bei 4k mit 60fps minimum laufen.
Und zwar nativ.. ohne DLSS.
Dabei mein ich dann eine GPU der 3090 Klasse. Die ist ja für 1080p Gaming vollkommen drüber.
Eine 3060 darf das dann bei 1080p leisten.
Eigentlich sollte es eine 3050 sein, da die aktuell als DIE 1080p Karte von Nvidia angepriesen wird, aber das wäre dann doch etwas zu optimistisch.

Und bei einem gewissen Konkurrenten konnte über Jahre nichts abliefern und war bis vor kurzem bei der Rechenpower "nicht vorhanden".
Für diverse Leute ist DLSS mit ein Kaufargument ob du es magst oder nicht. Es liegt an AMD bzw. Intel mit entsprechenden alternativen dieses Argument zu entkräften. Ich würde mir bspw. keine AMD Karte zum selben Preis und klassischer Rasterisierungsleistung kaufen wenn die Features fehlen.
Natürlich ist DLSS ein Kaufargument.. damit können die zu schwachen Karten nämlich schön so tun, als hätten sie für UHD mit max Details genug Rechenleistung und müssten das Ganze nicht bei 1800p, oder gar 1440p berechnen und dann per DLSS hochskalieren.
DLSS greif ab und an auch mal daneben - bleibt nicht aus, wenn man ein NN schön trainiert hat, die gelernten Handlungen aber nicht auf diese Szene passen.
Passiert natürlich auch bei "'Handgeklöppelten" Algorhithmen. die lassen sich aber feiner abstimmen, als ein NN, bei dem du im Endeffekt am einen Ende Bildinformationen einkippst und irgendwas raus kommt.
Da läuft die bessere Abstimmung über bessere Trainingsdaten.


Lange Rede, kurzer Sinn:
Bei RTX 6000 und Radeon RX 9000 dürften wir dann schon etwas näher dran sein - auch weil die Engines bis dahin besser mit RT umgehen können.
MCM wird es in Zukunft richten. Dann haben Nvidia GPUs auch wirklich mal 18.000 FP32 Shader Kerne und nicht nur die Hälfte plus INT16 Kerne, die auch FP32 beherrschen.. aber in 90% der Fälle zu sehr mit INT Berechnungen beschäftigt sind, als dass sie als FP32 Kerne zählen können.
Ja, mir ist bewusst, dass Ada jetzt GPUs mit 18k Kernen bringen wird - aber sehr wahrscheinlich nicht alle aktiv und erst recht nicht für kleinere GPUs, als den 100er Chip.
 
Diese Einhaiten haben auf den Consumer Karten aber sonst kaum einen Nutzen - abgesehen von RT, dass es aber in weniger Spiele geschafft hat, als DLSS.
Ich glaube wenn man nachschaut ist man erstaunt was da sonst so alles bei beiden Herstellern für viele Brach liegt.
Du hast offenbar meinen Text nicht verstanden... ich schreib doch extra, dass DLSS und FSR die Informationen benutzen - und es deshalb bedeutet, dass man eben KEIN NN dafür braucht.
Stimmt da habe ich das falsch verstanden.
Irgendwann muss man mal von der Grundlagenforschung wegkommen und endlich was real nutzbares auf den Tisch bringen.
Siehe Blockchain.
Aktuell gibt es keine reale Anwendung außerhalb der diversen Coins.
Es gibt immer wieder Ansätze, doch nichts davon wird am Ende ein real genutztes Produkt.
Ein ehemaliger Kollege und Blckchain enthusiast ist von seinem Job zu einer Firma gewechselt, die Blockchains in Verbindung mit Warenwirtschaft und Verträgen einsetzen wollte... Tjoa... die gibts nicht mehr.
Verfolgst du Nvidias Forschung? Gefühlt sind gerade deine Aussagen mit einem klaren nein zu werten. Dafür braucht man noch nicht mal die unterschiedlichen Produkte anschauen, es reicht einfach zu schauen wo man vertreten ist und was am Ende in die eigenen Endprodukte einfliesst. Software sells Hardware...
Was verrät uns das?
Dass auch die leistungsstärksten Karten nicht genug Power haben, um RT halbwegs flüssig darzustellen, ohne auf diverse Tricks (nur ein Ray pro Pixel Cluster, anstelle mehrerer Rays pro Pixel, copy&paste von Reflexionen... Objekte aus RT ausklammern, Reflexionen teilweise doch wieder als screen space Reflexionen machen...) und dazu noch DLSS zurückgreifen zu müssen.

Eine GPU hat dann genug Power, wenn RT mit Licht, Schatten und Reflexionen bei 4k mit 60fps minimum laufen.
Und zwar nativ.. ohne DLSS.
Dabei mein ich dann eine GPU der 3090 Klasse. Die ist ja für 1080p Gaming vollkommen drüber.
Eine 3060 darf das dann bei 1080p leisten.
Eigentlich sollte es eine 3050 sein, da die aktuell als DIE 1080p Karte von Nvidia angepriesen wird, aber das wäre dann doch etwas zu optimistisch.
Deshalb haben auch nur RT spiele dieses Feature und es gibt keine RT Spiele ohne DLSS :ugly:
Letzten Endes kannst du das Spiel auf jede Gen die in Zukunft kommen wird ummünzen. XY bietet nicht genug Leistung für das oder jenes. Ich könnte die 3090 auch heute ohne Probleme mit nem FHD Monitor ohne RT in die Knie zwingen. Es ist und bleibt eine Frage der eigenen Ansprüche ob das passiert oder nicht.

Natürlich ist DLSS ein Kaufargument.. damit können die zu schwachen Karten nämlich schön so tun, als hätten sie für UHD mit max Details genug Rechenleistung und müssten das Ganze nicht bei 1800p, oder gar 1440p berechnen und dann per DLSS hochskalieren.
Oder man nutzt es schlicht um die Regler stärker anzuziehen oder einfach mit besseren FPS zu arbeiten. Oder eben einer potentiell längeren Lebensdauer da man eben nicht nativ spielen muss und die qualitativen Ansprüche weiter erfüllt bleiben.
DLSS greif ab und an auch mal daneben - bleibt nicht aus, wenn man ein NN schön trainiert hat, die gelernten Handlungen aber nicht auf diese Szene passen.
Passiert natürlich auch bei "'Handgeklöppelten" Algorhithmen. die lassen sich aber feiner abstimmen, als ein NN, bei dem du im Endeffekt am einen Ende Bildinformationen einkippst und irgendwas raus kommt.
Da läuft die bessere Abstimmung über bessere Trainingsdaten.
Und das ist nicht richtig. Die Szenen werden zu keinem Zeitpunkt was falsches Zeigen da die Objekte da sind. Einzig die Frage ob die Abtastpunkte richtig gewählt/repräsentant für die Szene ist darf man zwar hinterfragen führt dann aber nur zu leichten Abweichungen. Weshalb ich auch das "besser als Nativ" klar in Frage stelle solange es keine qualitativen Analyse mit einer objektiv besseren Quelle gibt.
Auch das klassische Algorithmen sich feiner Abstimmen lassen ist kein Fakt. Je nach dem was der Algorithmus abliefern muss kann das ganze vom Aufwand und Komplexität explodieren wo NN vergleichsweise einfach bleiben. Ob und was besser funktioniert hängt am Ende von der Aufgabenstellung ab, aber gerade im Bereich der Bildbearbeitung haben NN Vorteile.
 
Zurück