AMD Fidelity FX Super Resolution: Wann erscheint der Konkurrent zu Nvidias DLSS?

Was er damit sagen will ist das NV dezidierte Rechenwerke fürs Upscaling mit "Leistung x" verwendet, AMD diese aber nicht anbietet.
Weiters sagt er das eine aktuelle 6800XT/6900XT die halbe Leistung dieser Rechenwerke (auf ihren Shadern) bietet im Vergleich zu einer bestimmten RTX Karte.

PS: Wenns um (KI) Upscaling geht dann steht deine Formulierung auch: "nV rulezzz und AMD suckzzz"
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
 
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Bekannt ist wohl das es auf den AMD Chips keine dezidierten Rechenwerke dafür gibt - es lässt einfach mit angrenzender Sicherheit darauf schließen das dieses Upscaling auf den normalen Shadern laufen wird.
Auch Wissen wir von DLSS 1.0 wie das aussehen kann. "Intelligentes" Upscaling braucht nunmal Rechenleistung, die kann AMD nicht einfach aus dem Hut zaubern.
Ich unterstelle dir hier keinesfalls ein AMD Fanboy oder Nvidia Hater zu sein, aber deine persönliche Abneigung gegen RavionHD ist eindeutig zu erkennen - was seine (unglücklich Formulierte) Kernaussage aber nicht unrichtiger macht
 
Ich bin gespannt was AMD da programmiert. Gerüchte von RDNA3 besagen doch glaube auch, das AMD auf solche Tensor Cores setzen will oder?

Ich konnte jetzt ein paar Spiele mit DLSS testen. Am 1440p Monitor und DLSS Qualität war ich schon ganz zufrieden.
Besonders gut gefällt mir das aber am OLED TV in 4K und DLSS Qualität. Das ist ein echter FPS Booster und rein von der Bildschärfe konnte ich bei ~3m Entfernung zum TV, keinen wirklichen Unterschied zu nativen 4K feststellen :daumen:

Nur die Spieleauswahl ist noch etwas begrenzt aber wird ja gefühlt von Woche zu Woche mehr :)
 
DLSS war bei Cyberpunk schon ganz hilfreich, FPS Gewinn war schon erheblich.

Zocke grad Metro Exodus und da führt DLSS zu nem echt mega verwaschenen Bild. Ka. scheint nicht in jedem Spiel gleich sinvoll zu sein.
 
Etwas propertäres kann nicht zu einem Standard werden. Der Hersteller dieser Funktion hat alle Rechte darauf und kann jederzeit andere Hersteller davon ausschließen oder einschränken. Standard kann es erst dann werden, wenn es für alle frei verfügbar ist um es in die eigene Hard-oder Software zu integrieren.
Alles andere ist ein Pseudo-Standard der einen Hersteller bevorzugt. Und das will man als Enduser ganz sicher nicht.

Bestes Beispiel dafür, was passieren kann, ist PhysX. Ich denke dass sollte für alle abschreckendes Beispiel genug sein.

Cunhell
Vor allem wollen es die Devs dann nicht, die den Spaß irgendwie anwenden müssten.. Turing wurde 2018 (!) released und bislang hat sich da so gut wie nichts getan. Falls AMD das gemeinsam mit Sony und MS und ein paar Publishern/Devs richtig angeht, könnte die Bilanz da durchaus schnell deutlich besser aussehen. PhysX ist da schon ein gutes Bsp., adaptive Sync wäre das nächste. Hängt imho halt sehr davon ab, was es dann tatsächlich praktisch für Ergebnisse bringt und wie leicht es anwendbar ist. Darin, die Branche mitzunehmen, war AMD bislang jedenfalls immer mit Abstand besser als Mister Lederjacke, dem die Kooperationspartner immer schneller abhanden zu kommen scheinen, als er neue nachkaufen kann.
 
Nope. Irgendwie überhaupt nicht.

D.h., wenn er sagen will: "nV rulezzz und AMD suckzzz" versteht man es, ja. Aber auch nur dann. Damit könntest Du natürlich Recht behalten. :-)
Was er aber nicht tun würde, ist es doch eine ganz schön dumme Aussage.

Ich bin ebenfalls auf die Ergebnisse Gespannt. Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt. In Deahth Stranding sieht der Asphalt mies aus und manche Übergänge an Wasserkanten sind merkwürdig versetzt. In Watch Dogs Legion ebenfalls Wasserkanten z.B. an Schiffen funktionieren manchmal gar nicht und manche Pfützen spiegeln total heftig, zeigen aber keine Auswirkungen wenn Autos sie durchfahren. In Cyberpunk gibts nachts Spiegelungen der Umgebung in Schaufenstern die sogar das Licht von Innen überdecken. Was ein Quatsch. Nicht falsch verstehen, das ist Gemecker auf hohem Niveau, aber wenn ich schon "realistische Spiegelungen" erstelle, dann will ich auch dass sie realistisch sind und nicht nur vorgekaukelt. Jetzt fragt ihr euch warum ich augenscheinlich DLSS und Raytracing verwechsle? Zu Recht! Allerdings nicht ohne Grund. Denn Wenn man RT aktiviert, ohne DLSS, klappen diese Dinge besser. Die AI hinter DLSS scheint da manchmal zu flunkern/schludern und ich persönlich störe mich daran sehr.
 
Wenn Nvidia 10 Millionen Karten bis Ende das Jahres mit DLSS an Spieler ausliefert und AMD nicht, dann wäre Herbst21 ein Problem. Derzeit sieht es nicht danach aus.

Schon wieder so eine Schwachsinns-Einschätzung von dir.

Wenn die Steam-Statistik auch nur ansatzweise Hand- und Fuß hat, sind bereits jetzt über 10 Millionen Spielerechner im Umlauf, die von DLSS profitieren.

RTX 2060 bis RTX 3080 sind immerhin, 13,2% der erfassten Steam-Hardwarebasis, bei 120 Mio. monatlichen Nutzern wären das ca. 16 Millionen PC-Systeme.

Plus bereits im Einsatz befindliche RTX3070- und RTX3060-Ti-Systeme, die in der Statistik noch nicht aufgeschlüsselt sind und einen nicht unerheblichen Anteil der auf ca. 8 Millionen angewachsenen "DirectX 8 GPUs and below"-Kategorie ausmachen dürften. Denn in dieser Kategorie landen auch brandneue GPUs, die im Steam-Survey-System noch nicht definiert und gesondert ausgewiesen sind.
 
Zuletzt bearbeitet:
Was hat denn der Preis damit zu tun? Wenn ich recht informiert bin dann bringt DLSS die 3070 oberhalb einer 6900XT raus und das ohne eine schlechtere Optik zu bekommen.
Für den halben Preis. Müsste nur mal gut lieferbar sein. Für 499 würde ich eine kaufen.
Eine RTX 2070 super zB lässt die RX 6800 in Cyberpunk dank DLSS/Qualität locker stehen.
RX 6800.JPG


RTX 2070 super.JPG


DLSS ist einfach gut und AMD wäre gut beraten schnellst möglich eine Alternative zu bringen.
 
Metro Exodus nutzt DLSS 1.0, das ist grundsätzlich nicht empfehlenswert.

DLSS 2.0 hat je nach Mode eine höhere Bildqualität wie die native Auflösung und einen hohen FPS Boost wie bereits einige male nachgewiesen wurde.
 
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Klar, man kann und sollte das ganze weniger reißerisch behandeln. Aber auch ich sehe das eher verhalten mit der AI Upscaling Konkurrenz von AMD. Im Kern muss ein neuronales Netz dafür verwendet werden, ansonsten muss man von klassischen Ansätzen sprechen, welche nicht an die Performance oder die Bildqualität der AI Ansätze ranreichen können.

Für das Traversieren eines neuronalen Netzwerkes braucht's Matrixoperation Power, eben genau das, was die Tensor Cores von Nvidia bieten. A*B + C in zwei Taktzyklen, wobei 4x4 Matrizen verwendet werden. Ich sehe nicht, wie man das effizient mit normalen Shadern umsetzen will. Das wird zu deutlichen Kompromissen bei der Performance und Bildqualität führen. Sie machen es, weil es gemacht werden muss, aber wirklich konkurrenzfähig wird es erst mit RDNA 3, wenn nämlich die dedizierten Einheiten dafür kommen.
 
Was er aber nicht tun würde, ist es doch eine ganz schön dumme Aussage.

Ich bin ebenfalls auf die Ergebnisse Gespannt. Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt. In Deahth Stranding sieht der Asphalt mies aus und manche Übergänge an Wasserkanten sind merkwürdig versetzt. In Watch Dogs Legion ebenfalls Wasserkanten z.B. an Schiffen funktionieren manchmal gar nicht und manche Pfützen spiegeln total heftig, zeigen aber keine Auswirkungen wenn Autos sie durchfahren. In Cyberpunk gibts nachts Spiegelungen der Umgebung in Schaufenstern die sogar das Licht von Innen überdecken. Was ein Quatsch. Nicht falsch verstehen, das ist Gemecker auf hohem Niveau, aber wenn ich schon "realistische Spiegelungen" erstelle, dann will ich auch dass sie realistisch sind und nicht nur vorgekaukelt. Jetzt fragt ihr euch warum ich augenscheinlich DLSS und Raytracing verwechsle? Zu Recht! Allerdings nicht ohne Grund. Denn Wenn man RT aktiviert, ohne DLSS, klappen diese Dinge besser. Die AI hinter DLSS scheint da manchmal zu flunkern/schludern und ich persönlich störe mich daran sehr.
was philosophierst du hier eigentlich von DLSS und RT, wenn du eine "ATI Technologies Radeon VII" Grafikkarte verwendest :D ansonsten Signatur updaten ;)
 
Solange zu FidelityFX SS gar nichts bekannt ist, vielleicht in Deinen feuchten Träumen. Solange man weder etwas von den softwaretechnischen Hintegründen von temporalem AA + Upscaling versteht, noch auch nur irgendwelche Infos dazu hat, was genau TCs machen, noch irgendwelche vergleichenden Praxistests existieren, sollte man doch einfach mal die Bälle flachhalten, oder? Selbst wenn man zur Fraktion "nv rulezzz und AMD suckzzz" gehört.
Shader sind nichts anderes als Rechenkerne, Zitat Wikipedia:
Hardware-Shader (auch Shadereinheiten, Shader Units) sind kleine Recheneinheiten in aktuellen Grafikchips...
Tensor Cores sind auch Recheneinheiten, siehe Nvidia:
Die Formulierung AI Shader ist daher nicht falsch.
 
Von mir aus muss es ja gar nicht genau so schnell laufen, dafür aber immer optisch korrekt.
Mit Radeon VII im PC bis du glaube ich auch nicht sonderlich qualifiziert, wobei das denkt man sich auch ohne die Signatur gelesen zu haben. Ein Haufen voller komischer Behauptungen die unwahr sind.
 
Zuletzt bearbeitet:
Ich bin gespannt was AMD da programmiert. Gerüchte von RDNA3 besagen doch glaube auch, das AMD auf solche Tensor Cores setzen will oder?
Handfeste Gerüchte gibt es keine, es wird aber spekuliert dass AMD mit RDNA3 ähnliche Einheiten auf Hardwarebasis einbauen wird.
Das würde natürlich auch zeigen wie weit Nvidia bereits 2018 gedacht hat wenn AMD das erst frühestens Ende 2022 auf den Markt bringt.
 
was philosophierst du hier eigentlich von DLSS und RT, wenn du eine "ATI Technologies Radeon VII" Grafikkarte verwendest :D ansonsten Signatur updaten ;)
Ob du es glaubst oder nicht, ich habe exakt einen PC an dem ich sitze und hier tippe und zu dem gehört die Signatur. Muss ich jetzt jedes mal den PC umrüsten um zu einer Karte etwas zu schreiben? Schau mal auf den Tacho, es ist erst 15 Uhr, also Arbeitszeit und zu der sitze ich nun einmal meist am Arbeits-PC. Deshalb auch die Radeon VII. Freu dich doch lieber dass es auch User gibt die nicht einfach einer Marke nachrennen, sondern beides testen und nutzen.

Edit
Du siehst es doch auch auf den Bildern die dahell63 oben gepostet hat. Die 2070 hat höhere fps, aber das Bild ist qualitativ deutlich schlechter. Schau dir feine Konturen wie Zäune an und die Dächer der Hütten, oder aucht mal auf Licht und Farben. Fällt dir auf, dass die Farben von Lichtquellen blasser sind mit DLSS? Danke an dahell für dieses Beispiel. Hier sieht man gut dass DLSS einfach noch nicht wie nativ ausschaut, aber immerhin schon mal ganz okay mMn. War ja schon immer so. Mehr fps gehen auf Kosten der Qualität, da braucht man sich nichts vormachen.
 
Wenn ich meine Glaskugel anwerfe, könnte ich mir vorstellen, dass AMDs Lösung qualitativ zwischen DLSS 1.0 und 2.0 liegen könnte. Bei gleichem Geschwindigkeitsgewinn wäre die Bildqualität schlechter als DLSS 2.0 und bei gleicher Bildqualität der Performancegewinn wieder geringer.

Was AMD aber bezüglich Raytracing das Genick bricht, sind meines Erachtens fehlende angepasste Profile. In vielen Spielen hat man nur die Möglichkeit einzelne RT-Effekte an- und auszuschalten (bspw. in Control). Viel besser fände ich es jedoch, pro Effekt die Qualität regulieren zu können. Im Zweifel hätte ich z.B. lieber unscharfe / leicht flackernde aber korrekte Reflektionen als stattdessen gleich auf den klassischem Ansatz zurückfallen zu müssen.
 
Bei Nvidia sehe ich das klassische Henne Ei Problem. War es nicht eher so das die Tensor Cores aus dem Profibereich kommen und DLSS eingeführt wurde, damit sie beim gaming kein toter wertloser Ballast sind? ;-)
Ob so eine Lösung die zwangsläufig besseren Ergebnisse bringt würde ich einfach mal anzweifeln.
 
Shader sind nichts anderes als Rechenkerne, Zitat Wikipedia:

Tensor Cores sind auch Recheneinheiten, siehe Nvidia:
Die Formulierung AI Shader ist daher nicht falsch.
Shader sind Recheneinheiten aber nicht alle Recheneinheiten sind Shader.

Ich wollte letztlich ja auch nur darauf hinaus, dass die Rolle der TCs für DLSS (also generell die der Hardwareeinheiten für DLSS) imho nach wie vor weitestgehend unklar und eine Blackbox ist. M.E. wurden sie unter DLSS 1.0 z.Bsp. gar nicht genutzt, d.h. da lief wohl alles -und läuft ggf. auch heute bei DLSS2.0 noch oder jedenfalls größtenteils- über die allgemeine Shader. Fakt ist doch, dass diese Matrizenrechenkerne in erster Linie für den HPC-Bereich entwickelt wurden und für DLSS bestenfalls dual use oder eben vielleicht auch Ballast sind. Gerne Korrektur, wenn es jemand (begründbar) besser weiß.

Was FidelityFX SS angeht, sollte man imho abwarten, wie es überhaupt funktioniert bevor man pauschal irgendwelche vermeintlich fehlenden hardwaretechnischen Voraussetzungen kritisiert. Dazu weiß man ja noch weniger, als zur DLSS-Funktionalität.
...

Was AMD aber bezüglich Raytracing das Genick bricht, sind meines Erachtens fehlende angepasste Profile. In vielen Spielen hat man nur die Möglichkeit einzelne RT-Effekte an- und auszuschalten (bspw. in Control). Viel besser fände ich es jedoch, pro Effekt die Qualität regulieren zu können. Im Zweifel hätte ich z.B. lieber unscharfe / leicht flackernde aber korrekte Reflektionen als stattdessen gleich auf den klassischem Ansatz zurückfallen zu müssen.
Da hat nV halt zwei, drei Jahre Vorlauf in der Zusammenarbeit mit einzelnen Projekten. Sobald die nächsten RT-Implementierungen kommen, wird sicher auch der Ansatz, den AMD dort aktuell fährt, adäquat bedient.
 
Zurück