AMD Fidelity FX Super Resolution: Der DLSS-Konkurrent im Video

Ja es läuft auf allen Karten, aber was nützt es, wenn die Qualität nicht mal im Ansatz an das AI-Upscaling von DLSS2.0 herankommt? DLSS1.0 wurde damals noch zurecht ordentlich kritisiert und wenn man sich die Bildvergleiche bei der AMD-Präsentation, wo man obendrein noch von Cherrypicking ausgehen kann, anschaut, dann würde ich mir nicht zu viel versprechen.

Momentan hat man noch nicht viel gesehen, das wird erst interessant, wenn unabhängige Videos rauskommen. Ich war bei DLSS auch skeptisch, wurde dann aber mit diesem Video bekehrt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Interessant wäre auch zu wissen, von welcher Auflösung aus AMD hochrechnet.

Fehlt der AI-Ansatz, dann kann man sich die Nummer schenken, sofern es auch ohne spielbar ist.
Der Grundsatz war, eine Leistungssteigerung bei gleichbleibender Qualität zu erreichen.

Eigentlich nicht, niemand hat ernsthaft erwartet, dass DLSS aus 720p echtes 4K machen kann, aber der Qualitätsgewinn ist enorm, wie man im obrigen Video sehen kann. Verglichen mit echtem 720p stampft das mit DLSS auf 4K aufgeblasene Material das ursprüngliche in den Boden.

Das ist Matsch mit Schadensbegrenzungsfilter und wohlgemerkt auf "Ultra-Quality". :ugly:

Ich habe es mir in 2 facher Vergrößerung auf meinem 32" 4K Monitor angesehen und ja, man sieht es, aber das ist bei DLSS auch nicht anders (wenn man weiß, worauf man achten muß, dann sticht es ins Auge). Interessant ist sowieso der Performancemodus und dann nicht der Vergleich mit der Zielauflösung, da verliert man immer (siehe obriges Video), sondern mit der Ursprungsauflösung.

Ich gebe dem ganzen jedenfalls eine Chance und wenn es auf meiner GTX 670 laufen sollte, dann würde mir das momentan wesentlich mehr helfen, als DLSS.

Im übrigen hat Nvidia jetzt über zwei Jahre Zeit für Optimierungen gehabt, eventuell kommt ja auch von AMD noch etwas.
 
Hehe, geil, jetzt werden schon nicht fertig gerenderte Beispiele genommen um zu zeigen wie mies DLSS aussieht. Du bist ja lustig. :lol:
Es zeigt deutlich, wie massiv DLSS in bestimmte Bildbereiche hinein wirkt, da fällt die daraus resultierende Detailarmut sofort auf. Fertig gerendert mag es vielleicht etwas gefälliger aussehen, ändert aber nichts an der Problematik.
 
Es zeigt deutlich, wie massiv DLSS in bestimmte Bildbereiche hinein wirkt, da fällt die daraus resultierende Detailarmut sofort auf. Fertig gerendert mag es vielleicht etwas gefälliger aussehen, ändert aber nichts an der Problematik.
Ja klar tut es das, wobei Quality nicht sooo stark eingreift. Aber hier geht es ja um FSR, und das wird nun mal maximal eine ähnliche, vermutlich eher schlechtere, Qualität aufweisen. Also gibt's hier nur ein weiteres "Wunderplugin".
 
Ja klar tut es das, wobei Quality nicht sooo stark eingreift. Aber hier geht es ja um FSR, und das wird nun mal maximal eine ähnliche, vermutlich eher schlechtere, Qualität aufweisen. Also gibt's hier nur ein weiteres "Wunderplugin".
Vermutlich wird es so sein, das macht es aber nicht besser.

Wie immer man es auch nennen will: Es hat alles seine Preis, man tauscht BQ gegen FPS.
 
Denke, wenn unabhängige Reviewer später die gleichen Maßstäbe wie bei DLSS ansetzen, wird man zu einem vernichtenden Urteil bezüglich der Qualität kommen.
Dass DLSS 1.0 nicht das "gelbe vom Ei" war/ist wird wohl ein jeder (ohne Brille) eingestehen.
Und DLSS 2.0 einen guten Job macht, glaub auch.
Wenn die 1. Intension von AMD auch nicht das gelbe vom Ei sein sollte/ist, wird es sich somit "lohnen" auf RDNA 3.0 zu warten/freuen.
Unabhängige Tests werden dies in Bälde klären. Bis dahin ... :bier:

MfG Föhn.
 
Dass DLSS 1.0 nicht das "gelbe vom Ei" war/ist wird wohl ein jeder (ohne Brille) eingestehen.
Und DLSS 2.0 einen guten Job macht, glaub auch.
Wenn die 1. Intension von AMD auch nicht das gelbe vom Ei sein sollte/ist, wird es sich somit "lohnen" auf RDNA 3.0 zu warten/freuen.
Unabhängige Tests werden dies in Bälde klären. Bis dahin ... :bier:

MfG Föhn.
Das sehe ich auch so.
Problem ist einfach, die grünen Fanboys wollen immer die maxime veranschlagen, 90% verbreitung stand heute, jede Engine, Plug & Play, besser als Nativ usw usw.

Auf einer so erratischen Basis kann keine sinnvolle Diskussion stattfinden.
 
Das sehe ich auch so.
Problem ist einfach, die grünen Fanboys wollen immer die maxime veranschlagen, 90% verbreitung stand heute, jede Engine, Plug & Play, besser als Nativ usw usw.

Auf einer so erratischen Basis kann keine sinnvolle Diskussion stattfinden.
Bitte wie? Hier im Thread wurde mal wieder zuerst seitens Team Red gegen DLSS gestänkert, nicht umgekehrt. Siehe Verlauf... Im anderen Thread übrigens auch.

Was das Thema Verbreitung DLSS angeht kommt seitens Team Red seit Release die Aussage "wird sich ewig nicht verbreiten", und jetzt umgekehrt gilt das nicht oder wie?
 
Problem ist einfach, die grünen Fanboys wollen immer die maxime veranschlagen, 90% verbreitung stand heute, jede Engine, Plug & Play, besser als Nativ usw usw.
Weiß nicht, AMD hatte 3 Jahre Zeit*, was Vergleichbares an den Start zu bringen. Wenn das nach dieser langen Zeit so performt wie in den Videos zu sehen ist, dann wäre ich durchaus enttäuscht.

* mit der kleinen Annahme, dass sie ein halbes Jahre vorher wussten, dass Nvidia so was bringen wird
 
In meinen Augen verfolgt AMD eine völlig andere Strategie als DLSS zu kopieren.
DLSS nutzt aktuelle High End Hardware um mit deren Technik die Bildqualität weiter nach oben zu pushen.

FSR dient wie AMD es kurz und präzise selbst beschreibt den alten Gurkenrechnern damit sie aktuelle Spiele in möglichst hoher Qualität spielen können ohne eine neue Grafikkarte kaufen zu müssen.
Sprich mit einfachsten Mitteln die maximale Bildqualität erreichen, Fokus liegt auf breite Unterstützung und mit einfachsten Mitteln kann man natürlich nicht gleichzeitig auch höchste Qualität bieten. Das ist ein Kompromiss den sich AMD sicher gut überlegt hat, und anscheinend auch die Masse mit ihren Gurkenrechnern da draußen feiern.

So der aktuelle Stand, Zielgruppe -> alte Hardware weiter am Leben halten, denen geht es nicht um maximale Bildqualität.

Es ist anzunehmen dass FSR kontinuierlich weiterentwickelt wird, ich kann mir vorstellen dass dann auch das High End Gaming bedient wird.
 
Weiß nicht, AMD hatte 3 Jahre Zeit*, was Vergleichbares an den Start zu bringen.
(Ernsthafte) Frage : Und wie lange hat NV für DLSS 1.0 benötigt ? :confused:
Klar, die haben den ein oder anderen Ingenieur mehr in ihren Reihen, aber trotzdem würd es mich interessieren.

MfG Föhn.
 
In meinen Augen verfolgt AMD eine völlig andere Strategie als DLSS zu kopieren. [...]
FSR dient wie AMD es kurz und präzise selbst beschreibt den alten Gurkenrechnern damit sie aktuelle Spiele in möglichst hoher Qualität spielen können
Solltest du "Performance" gemeint haben, dann stimme ich zu.
Das Feature reanimiert definitiv die ein oder andere ältere Karte, aber Qualitätsabstriche sind offensichtlich.
ohne eine neue Grafikkarte kaufen zu müssen.
Das ist für ne Firma, die Grafikkarten verkaufen will, echt ein fragwürdiges Argument. :ugly:
So der aktuelle Stand, Zielgruppe -> alte Hardware weiter am Leben halten, denen geht es nicht um maximale Bildqualität.
Macht null Sinn aus deren Perspektive.
AMD will Grafikkarten verkaufen und nicht totgeglaubte Hardware am Leben halten.

Vielleicht drehen sie es JETZT im Nachhein so, weil offensichtlich keine großartige Qualität gehalten werden kann. Aber für mich klang das im Marketing in der Vergangenheit eigentlich immer eher so, als wolle man mit "Super Resolution" die Qualität erhöhen und eine noch bessere Bildqualität, als das native Bild erreichen. Und eigentlich wollte man DLSS schon ordentlich Konkurrenz machen.

Wenn das jetzt zu einem Feature degradiert wird, was man nur einsetzen sollte, wenn es echt gar nicht mehr anders geht, dann ist das schon ein ziemlich krasser Rohrkrepierer.
 
In meinen Augen verfolgt AMD eine völlig andere Strategie als DLSS zu kopieren.
DLSS nutzt aktuelle High End Hardware um mit deren Technik die Bildqualität weiter nach oben zu pushen.
Äh, nein. DLSS ist primär auch ein Upscaler für bessere Performance. Dass DLSS eine hervorragende Kantenglättung mit sich bringt ist eher ein Nebeneffekt. Ansonsten werden auch bei DLSS Teile rekonstruiert was immer mit Artefakten verbunden ist. Es geht eigentlich nur darum welcher Upscaler die wenigsten Artefakte mit sich bringt bei vergleichbarem Performance-Plus.
 
Abwarten was AMD am 22ten wirklich zeigt, aber ich hoffe hier glaubt keiner, dass AMD mit SR Murx raus bringt.
Es wird eher eine Revolution und die Landschaft gerade was die Entwickler angeht stark zum guten verändern.
 
Macht null Sinn aus deren Perspektive.
AMD will Grafikkarten verkaufen und nicht totgeglaubte Hardware am Leben halten.
Ich glaube es geht dabei im Kern um schnell breite Unterstützung zu fassen, es soll sehr einfach zu implementieren sein und hilft der Masse da draußen eine bessere "Qualität" darstellen zu können, also sehr attraktiv für jeden Entwickler.

Vielleicht drehen sie es JETZT im Nachhein so, weil offensichtlich keine großartige Qualität gehalten werden kann. Aber für mich klang das im Marketing in der Vergangenheit eigentlich immer eher so, als wolle man mit "Super Resolution" die Qualität erhöhen und eine noch bessere Bildqualität, als das native Bild erreichen. Und eigentlich wollte man DLSS schon ordentlich Konkurrenz machen.
Das habe ich so nie rausgehört, ganz am Anfang als RDNA 2 vorgestellt wurde hieß es in einem Satz so dass zukünftig FSR eingesetzt werden soll um die Performance bei aktiviertem Raytracing oben zu halten. Mehr wurde da auch nicht erwähnt.
Aber da waren sie auch noch in der Entwicklung und konnten entsprechend ihrer Strategie lenken.

Wenn das jetzt zu einem Feature degradiert wird, was man nur einsetzen sollte, wenn es echt gar nicht mehr anders geht, dann ist das schon ein ziemlich krasser Rohrkrepierer.
Ich denke den meisten wird es freuen, Raytracing wird zumindest spielbar mit AMD.
DLSS 2.0 ist in Cyberpunk übrigens auch in der höchsten Einstellung schlechter als nativ (Analyse Gamers Nexus), es kommt sehr auf das Spiel an.


Ich kann mir einfach nicht vorstellen dass AMD aktuell planlos irgendwelchen Müll raushaut, wahrscheinlicher ist dass sie einen Plan haben, und auch wenn wir den jetzt nicht erkennen, dass er mittel-langfristig goldrichtig ist.
 
Weiß nicht, AMD hatte 3 Jahre Zeit*, was Vergleichbares an den Start zu bringen. Wenn das nach dieser langen Zeit so performt wie in den Videos zu sehen ist, dann wäre ich durchaus enttäuscht.

* mit der kleinen Annahme, dass sie ein halbes Jahre vorher wussten, dass Nvidia so was bringen wird
Wenn in den Videos ja zumindest mal was zu sehen wäre was man anständig analysieren könnte würde ich evtl. sogar beipflichten. Da AMD aber aus weclehn Gründen auch immer keinen vernünftigen Vergleich stand heute ermöglicht, ist das alles stochern im dunkeln. Was irgendwelche Zeitansätze jetzt am Ende damit zu tun haben verstehe ich nicht, ist jetzt nicht so als hätte ich ne weitere Fuddelfix Technik vermisst.
Ich glaube es geht dabei im Kern um schnell breite Unterstützung zu fassen, es soll sehr einfach zu implementieren sein und hilft der Masse da draußen eine bessere "Qualität" darstellen zu können, also sehr attraktiv für jeden Entwickler.
Ich denke auch dass der breite Ansatz im Vordergrund steht. Ich erwarte mir ehrlich gesagt nicht viel von der Technik, am Ende wäre mir ein breiter Einsatz auch wichtiger. Eine Technik die zwar da ist, ich aber nicht nutzen kann weil nicht vorhanden in dem Titel den ich gerade Spiele ist was tolles zum tot labern hier, hat aber für mich als Nutzer schlicht keinen Vorteil. Praktisch wäre es aber, für den Lappi kann ich sowas durchaus gebrauchen. Auf 15Zoll 4k hat man Raum für kompromisse und auf der mobilen Plattform bin ich Kompromisse auch gewohnt.
 
Zurück