AMD Fidelity FX Super Resolution: Der aktuelle Stand zum DLSS-Konkurrenten

Vollkommen egal ob das eine Studie zur Marketing Unterstützung ist, das macht sie nicht falsch.

Fakt ist dass in Multiplayer Games jegliche Verzögerung, sei es durch:

- Input Lag
- Niedrige FPS
- Niedrige Hertz des Monitors
- Hohe Latenz zum Server



Auch schön:
Natürlich haben mehr FPS einen Vorteil, Lag, Inputlag etc. Ohne Frage. Aber es wird auch viel übertrieben.
 
Ich habe das real auf dem Bildschirm gesehen und das Manko ohne DLSS ist für mich höher.
Weniger FPS und ein deutlicheres Flimmern in Bewegung und weniger Objektdetails.
Habe eine RTX 3060 im Hardwareluxx Forum für 500 Euro gekauft und kann es hoffentlich am Samstag gleich selbst probieren. Fachartikel von rapid81 verlinkt dazu sind eindeutig. Für mich stimmt es einfach nicht was du behauptest.
Das ist ja auch völlig okay für mich. Ganz sicher will ich dich nicht zu einer anderen Meinung überreden. Ich allerdings empfand selbst die Asphalttexturen in death stranded schon störend unter DLSS quality. Ich bin da einfach empfindlich. Hätte ich es anders empfunden, ich hätte die Karte noch und nicht so schnell wieder verkauft.

Wie hier auch ein anderer User geschrieben hat, nativ hat auch seine Nachteile manchmal. Beispielsweise wenn der Entwickler sich beim TAA keine Mühe gegeben hat. Das habe ich ja auch nirgends bestritten. Nur wenn ich an einem Produkt ausschließlich positives aufzähle und die negativen Dinge weg lasse, dann ist das eben nur die halbe Wahrheit.
 
Nvidia hat da einfach nen natürlichen Vorteil mit den Tensor Cores.
Wenn AMD gleichziehen will, muss deren Lösung als schon von Grund auf besser sein, als die von Nvidia.
Das ist natürlich schon etwas ernüchternd...
ja mit der aktuellen generation wird AMD nicht mithalten können, aber die kann sich sowieso niemand leisten und es sieht auch wirklich nicht danach aus, als würden die dinger bald billiger werden
man kann nur hoffen, dass bald eine neue generation kommt, die minen hardwareseitig verhindert kann und dann wird AMD natürlich auch eigene rechenkerne für FFX dazubauen
falls das ganze dann funktioniert, dann hat AMD wieder den vorteil opensource zu sein
 
Soweit ich das mit bekommen habe , haben sie auf der Xbox jetzt geliefert und darum wird auch dieser Artikel geschrieben worden sein ...
Vielleicht geht es auch schneller als gedacht , wenn die PS5 mal durch ist wird es nicht mehr lange dauern und wenn das ergebnis dann an DLSS 2 ran kommt ist doch alles Gut :)
Das DLSS wie es einmal war will sicher keiner haben ...
interessant , DLSS ist jetzt also schon bei einigen der Wurf der Letzen 15 Jahre und wenn man einige so ließt besser als Nativ ... Marketing von Nvidia funktioniert !
...

DLSS ist nicht nur Marketing. Guck dir einfach mal die letzten paar DLSS Test von z.B. der PCGH an zu Outriders oder Control wo DLSS Quality ein besseres Bild abliefert als ein nativ gerendertes. Besonders feine Strukturen wie Gitter werden mit DLSS besser dargestellt als beim nativ gerenderten Bild. Klar gibt es hier und da Artefakte aus der temporalen Komponente von DLSS die man beim nativen Bild nicht hat, aber im Schnitt hat man mit DLSS Quality das ruhigere Bild mit mehr Details als beim nativ gerenderten Bild. Wenn man mit DLSS runter geht auf Standard, Performance usw. überholt das nativ gerenderte Bild DLSS.

Was den Artikel angeht, hat AMD im Bereich FSR bisher weiterhin nichts geliefert. Was für Xbox freigeschaltet wurde ist AMD Fidelity FX was CAS (Contrast Adaptive Sharpening), CACAO (Combined Adaptive Compute Ambient Occlusion), VRS (Variable Rate Shading) und SSSR (Stochastic Screens Space Reflecttons) beinhaltet. Dazu gab es aber eine eigene News.

In dieser News soll es um FSR gehen und da wird nur gesagt das in der letzten Aussage aus dem März gesagt wurde dass es irgendwann ende diesen Jahres kommen soll und es auch dann erst weitere Infos dazu geben soll. Also eine News komplett ohne neue Infos. Im März wurde gesagt das es neue Infos gegen Ende des Jahres geben wird und jetzt im April gab es noch keine neuen Infos.
 
Gerade in Cyberpunk bzw. jetzt auch in cod warzone ist DLSS 2.0 ein echter Gamechanger. Bei CoD musst ich in 4k die Details massiv runter schrauben um auf 4k/120hz zu kommen. Mit DLSS kann ich alle Regler auf max stellen und hab in recht stabile 120hz und obendrein auch eine brauchbare Kantenglättung.
AMD sollte möglichst bald liefern, spätestens wenn es wieder einen echten Wettbewerb gibt, ist es ein durchaus wichtiges Verkaufsargument.

Aktuell und die nächsten Monate könnte AMD die Vorgänger teurer verkaufen ;). Hier muss man AMD aber positiv zugestehen, das Sie immernoch in Ihrem Shop zum UVP verkaufen (wenn auch immer nur wenige Sekunden).
 
Okay, du legst Wert auf die hohen fps, da ist das wirklich ein Unterschied. Für mich, dem alles über 60fps nicht wichtig ist, ist es bisher noch kein Gamechanger.
Allerdings finde ich wirklich gut was für einen Schritt Nvidia von 1.0 zu 2.0 hingelegt hat. DLSS war zu Beginn wirklich unbrauchbar in meinen Augen. Inzwischen aber hat sich das tatsächlich in manchen Spielen zu einem Mehrwert gemausert und das ist stark, das gestehe ich gern ein. So Spiele wie outriders sind halt speziell. Die haben mit DLSS top Performance und das bessere Bild. Das liegt aber eben nicht allein an DLSS, sondern daran dass das TAA im Spiel komplett für den Poppes ist. Das können andere besser. Hier hat der Entwickler mMn nicht genug Mühen investiert, einfach weil sie ja DLSS schon drin hatten. Auf der einen Seite kann ich das nachvollziehen, auf der anderen ist es aber eine Frechheit.
Es ist also wie es immer war, wir sind davon abhängig wie sich der Entwickler bemüht.

In so einem Fall hätte AMD mMn kaum Chancen einen Fuß in die Tür zu bekommen. Dieses Studio hat sich ein fast fertiges System geschnappt und mit wenigen Klicks integriert und der Rest war nicht so wichtig. Wie bitte will AMD so jemanden von ihrem neuen, anderen, unerprobten und evtl. schlechteren Ansatz überzeugen? Dass AMD hier weiterhin den open source Ansatz verfolgt, ist bestimmt auch zu großen Teilen genau dieser Situation geschuldet. Die hatten mMn zwei Möglichkeiten. Einmal die Leistung in Hardware brachial steigern, dass hätte das optisch beste Ergebnis zur Folge gehabt, oder aber zeitnah mit ihrem Ansatz um die Ecke kommen. Letzteres ist allerdings nicht eingetreten bisher und es wird mit jedem verstrichenen Monat schwieriger überhaupt zu konkurrieren.
Haben sie die Ruhe weg, weil sie wissen dass die neuen Konsolen nicht auf DLSS setzen können, oder was lässt sie noch ruhig schlafen? Vielleicht ist ihr Ansatz auch so unfassbar effizient dass sie so selbstsicher sein können, aber ich wüsste nicht wie das gehen sollte. Momentan wundere ich mich sehr darüber.
 
ja mit der aktuellen generation wird AMD nicht mithalten können, aber die kann sich sowieso niemand leisten und es sieht auch wirklich nicht danach aus, als würden die dinger bald billiger werden
man kann nur hoffen, dass bald eine neue generation kommt, die minen hardwareseitig verhindert kann und dann wird AMD natürlich auch eigene rechenkerne für FFX dazubauen
falls das ganze dann funktioniert, dann hat AMD wieder den vorteil opensource zu sein
Laut Steam Hardware Umfrage vom März gibt es vergleichbar viele "neue" Ampere User wie damals in der gleichen Zeit nach dem Turing Release. Also irgendwie kommen die Leute an Karten, zu welchen Preisen weiss man nicht.

Was meinst Du mit "Open Source"? Sowohl DLSS als auch FFXSR lassen sich in alle Engines / Spiele integrieren, aber ohne Zutun der Entwickler geht es nicht. Ob AMD eigene Kerne für FFXSR baut ist Spekulation und alles andere als gesichert. Gerade wenn für FFXSR keine Extra-Hardware benötigt wird könnte sich das Feature schneller verbreiten.
 
Das ist ja auch völlig okay für mich. Ganz sicher will ich dich nicht zu einer anderen Meinung überreden. Ich allerdings empfand selbst die Asphalttexturen in death stranded schon störend unter DLSS quality. Ich bin da einfach empfindlich. Hätte ich es anders empfunden, ich hätte die Karte noch und nicht so schnell wieder verkauft.

Wie hier auch ein anderer User geschrieben hat, nativ hat auch seine Nachteile manchmal. Beispielsweise wenn der Entwickler sich beim TAA keine Mühe gegeben hat. Das habe ich ja auch nirgends bestritten. Nur wenn ich an einem Produkt ausschließlich positives aufzähle und die negativen Dinge weg lasse, dann ist das eben nur die halbe Wahrheit.
Das Problem ist oftmals eine fehlerhafte Implementierung von DLSS. Du möchtest mit DLSS in 4K ja die 4K Optik erreichen. Manche Engines erkennen aber nur die interne Auflösung (bei DLSS Leistung nur FullHD) und spielen dann fälschlicherweise auch nur die FullHD Texturen ein.
 
Das Problem ist oftmals eine fehlerhafte Implementierung von DLSS. Du möchtest mit DLSS in 4K ja die 4K Optik erreichen. Manche Engines erkennen, aber nur die interne Auflösung (bei DLSS Leistung nur FullHD) und spielen dann fälschlicherweise auch nur die FullHD Texturen ein.
Du hast DLSS anscheinend nicht so ganz verstanden (no offense). Aber es sollen in Deinem Beispiel ja die FullHD Texturen geladen werden. Das sieht man auch am verringerten VRAM Verbrauch durch DLSS.

Beispiel CP2077 mit guter DLSS Integration:
- nativ WQHD + max Details + RT Psycho = 7 GB VRAM Usage / 8 GB allocated VRAM
- DLSS Quality WQHD + max Details + RT Psycho = 6,3 GB VRAM Usage / 7,1 GB allocated VRAM

Hab auch Screenshots dazu falls mal wieder Beweise nötig sind.
 
Aber eben im Moment nur mit Manko!

Persönlich würde ich beispielsweise für den Sprung von 50 fps auf 100 fps nicht fünf Prozent Bildqualität opfern wollen. Ich! Was andere entscheiden ist deren Sache. Ich! würde es nicht. Genau das drücken hier aber viele nicht aus. In diesem thread gibt es bestimmt zwanzig User oder mehr, die einfach sagen DLSS ist toll und ich kann mit einer xx60 Karte in 4K spielen. Allerdings ohne die Abstriche zu erwähnen. Genau das ist halt eben nicht so. Warum bitte spielt man denn in hoher Auflösung? Weil man maximale Bildqualität will. Genau die dann zu verringern um die Bildrate für diese Auflösung zu generieren ist doch Quatsch. Das ist mMn das was viele bestreiten. Also nicht dass DLSS in der Lage ist das zu ermöglichen, sondern unter gleichen Voraussetzungen.

Ja klar das ist ja okay, aber mit DLSS Quality machst du keine Abstriche in der Bildqualität sonder diese steigt ggü. nativer Auflösung. Es gibt noch ein paar Spiele wo dem nicht so ist aber die neueren Implementation, gerade in der UE4, sind sehr gelungen. Das Problem ist eben AMD wird eine Lösung geschätzt erst in einem Jahr fertig haben (seihe Aussagen von AMD selbst). Dann müssen die Entwickler das auch noch in ihre Engine einbauen.
Das kostet wieder Zeit. Und AMD hat keine separaten Recheneinheiten für KI Beschleunigung. Daher ist davon auszugehen, dass die AMD Lösung deutlich langsamer agieren wird. Von demher komme ich zu der Einschätzung, dass AMDs Ansatz erst mit der nächten AMD Generation so richtig zünden und konkurrenzfähig sein wird.
 
In einem PCWorld interview diese Woche hat Frank Azor auf meine Frage zum Status von Super Resolution geantwortet: "... soon.. you don't have to wait until 2022 or 2023..."


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
In einem PCWorld interview diese Woche hat Frank Azor auf meine Frage zum Status von Super Resolution geantwortet: "... soon.. you don't have to wait until 2022 or 2023..."
Frank Azor hat auch gegen einen RX6000 Paperlaunch gewettet:

1619161515092.png
 
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Adaptive-Sync ist ein VESA-Standard.

Der Große Cache bei RDNA2 ist eine Innovation, die NVidia auch erst bei der nächsten Gen nutzen kann und dann hoffentlich ein sinnvolles SI für 16 GiB in der Mittelklasse und 24 bis 32 GiB bei den großen Karten hinbekommt.
 
Frank Azor hat auch gegen einen RX6000 Paperlaunch gewettet:

Anhang anzeigen 1361622
Ja, hat er. Und über die Definition was eines Paperlaunch ist wird noch heute fleisig gestritten... Meiner Meinung nach wurde über den Tweet viel zu viel Aufhebens gemacht, vermutlich weil viele einfach ein Ziel für ihren Frust benötigten. Aber es war auch eine blöde Idee sowas zu posten, und man kann hoffen das er daraus gelernt hat.
 
Adaptive-Sync ist ein VESA-Standard.

Der Große Cache bei RDNA2 ist eine Innovation, die NVidia auch erst bei der nächsten Gen nutzen kann und dann hoffentlich ein sinnvolles SI für 16 GiB in der Mittelklasse und 24 bis 32 GiB bei den großen Karten hinbekommt.
Joah, und SAM ist ein PCIe-Standard. Kann man jetzt drüber streiten, NV hat Adaptive-Sync zuerst in den Consumer Markt gebracht, AMD dafür Resize-BAR. Klammern wir das also mal aus.

Der Infinity Cache ist keine Innovation sondern eine Design-Entscheidung. Dadurch wird grafisch nichts verbessert, nur die Performance unter bestimmten Umständen (niedrigere Auflösungen).

Raytracing ist meines Wissens nach die einzige grafische Innovation der letzten 10 Jahre.
DLSS ist keine grafische Innovation im Sinne von neuen Effekten, ohne ist RT aber mit massivem Performance Verlust verbunden.

Welche neuen Grafikeffekte hat AMD zuerst integriert?
Ja, hat er. Und über die Definition was eines Paperlaunch ist wird noch heute fleisig gestritten... Meiner Meinung nach wurde über den Tweet viel zu viel Aufhebens gemacht, vermutlich weil viele einfach ein Ziel für ihren Frust benötigten. Aber es war auch eine blöde Idee sowas zu posten, und man kann hoffen das er daraus gelernt hat.
Ich wollte damit nur sagen dass man Release Dates nie trauen kann. Generell nicht, egal wer sie kommuniziert.
 
Puh, stimmt, danke. Ich dachte schon ich wäre "nur" noch Durchschnitt.
Ich nehme an, dass das ein Fehlannahme ist. Wie kommt ihr darauf, dass euer Click zum Server geschickt werden muss?
Das ist Wahrscheinlich einfach nur clientseitiges Javascript.

Rotes Bild anzeigen -> Random Timer -> Grünes Bild. Dafür brauch ich keinen Server-Request.
 
Ich nehme an, dass das ein Fehlannahme ist. Wie kommt ihr darauf, dass euer Click zum Server geschickt werden muss?
Das ist Wahrscheinlich einfach nur clientseitiges Javascript.

Rotes Bild anzeigen -> Random Timer -> Grünes Bild. Dafür brauch ich keinen Server-Request.
Du machst mich fertig.... :heul:

Naja, wenigstens den Input Lag kann man abziehen. :D
 
Du hast DLSS anscheinend nicht so ganz verstanden (no offense). Aber es sollen in Deinem Beispiel ja die FullHD Texturen geladen werden. Das sieht man auch am verringerten VRAM Verbrauch durch DLSS.

Beispiel CP2077 mit guter DLSS Integration:
- nativ WQHD + max Details + RT Psycho = 7 GB VRAM Usage / 8 GB allocated VRAM
- DLSS Quality WQHD + max Details + RT Psycho = 6,3 GB VRAM Usage / 7,1 GB allocated VRAM

Hab auch Screenshots dazu falls mal wieder Beweise nötig sind.
Zufälliger Weise ist CP so ein Beispiel für schlechte DLSS integration. Die Texturen sind verschwommen.
 
Adaptive-Sync hat übrigens nicht AMD (in Form von Freesync) zuerst rausgebracht, sondern Nvidia mit G-Sync. Jaja, blablubb, proprietärer Mist, ich weiss. Nichtsdestotrotz kam die Innovation nicht vom Team Red.

Wie eigentlich immer, oder? Ich meine, was kam den von AMD als Innovation (SAM mal außen vorgelassen, das ist keine eigenständige Entwicklung)? NV hat uns in den letzten 10 Jahren Adaptive Sync, DLSS und RT gebracht, AMD hat jedes Mal nachgezogen. Das wird mit RTX IO vermutlich nicht anders laufen.
Ja so ist es. Nvidia legt immer vor und hat zusätzlich die fortschrittlichere Lösung. Amd kommt dann irgendwann hinterher und kann bestenfalls aufschließen. Ich finde das echt schade und weil ich nicht auf die neuesten Innovation verzichten möchte oder ewig warten will ,kaufe ich keine radeons mehr .
 
Ja so ist es. Nvidia legt immer vor und hat zusätzlich die fortschrittlichere Lösung. Amd kommt dann irgendwann hinterher und kann bestenfalls aufschließen. Ich finde das echt schade und weil ich nicht auf die neuesten Innovation verzichten möchte oder ewig warten will ,kaufe ich keine radeons mehr .
In der Unterhundposition bringt aber AMD auch einiges (wenn auch nicht so komplexes). Sei es durch Mantle -> Vulkan oder Sie nutzen aktuelle Schnittstellen effizienter aus, weil sie es müssen "SAM bzw. rBar".
 
Zurück