Auch für PS5: AMD Fidelity FX Super Resolution in Arcadegeddon

Ich höre immer dieselben Argumente, aber Fakten dazu? Eher nicht.
Fakt ist: Nvidias DLSS, so gut es auch ist, ist eine proprietäre Technologie. AMDs FSR ist von Anfang an als Open Source-Technologie geplant gewesen. Das, plus der gewählte technische Ansatz seitens AMD sorgt für eine sehr schnelle Verbreitung und produktübergreifende Kompatibilität. Strategisch betrachtet war das ein mega Move!

Niemand will DLSS schlecht reden oder die technischen Errungenschaften welche zu dieser Technologie geführt haben herunterspielen, aber es gibt nun mal verschiedenen Wege die zum Ziel führen. DLSS ist der eine Weg, und FSR ist der andere. Die Frage die sich dem Hardware-Enthusiasten nun stellen sollte, lautet: Mit welcher Technologie betritt Intel die Bühne? :devil:

Der Impact der Konsolen ist aus der heutigen Welt nicht mehr wegzudenken. Dabei ist es völlig egal ob die Konsole von Nintendo, Sony, Microsoft oder anderen Herstellern (Bspl. Valve) kommt. Das Gesamtpaket macht den Unterschied.

Open Source ist in meinen Augen, besonders auf Technologie bezogen einfach the way it's meant to be played. ;)
 
Ich hoffe mal nicht, dass Intel jetzt mit Variante 3 um die Ecke kommt... :rolleyes:

MfG
XeSS enters the room. Und dann kommt noch von Epic TSR (Temporal Super Resolution). In Unreal hat man dann Plugins für mindestens 3 Upscaler (FSR, DLSS, TSR). Und Intel wird garantiert auch Kohle auf den Tisch legen um das 4. Plugin für die meistgenutzte Engine unserer Zeit zu bekommen.
 
Ich hoffe mal nicht, dass Intel jetzt mit Variante 3 um die Ecke kommt... :rolleyes:
Warum nicht? :D
Ich wünsche mir das durchaus. Für den Kunden ist das nicht schlecht. Er hat dann die freie Wahl.

Der GPU-Markt braucht Bewegung. Und Bewegung erschaffst du nur, wenn du Features und Technologien entwickelst auf die deine Konkurrenten reagieren müssen. Egal ob proprietär oder nicht.
 
Warum nicht? :D
Ich wünsche mir das durchaus. Für den Kunden ist das nicht schlecht. Er hat dann die freie Wahl.

Der GPU-Markt braucht Bewegung. Und Bewegung erschaffst du nur, wenn du Features und Technologien entwickelst auf die deine Konkurrenten reagieren müssen. Egal ob proprietär oder nicht.
Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen. :-)

MfG
 
Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen. :-)

MfG
Das stimmt, wobei damals Nvidia mit der Geforce256 den Markt konsolidiert hat.

Was ist denn heute der "heiße shice":
- Raytracing -> wird bleiben, alle Hersteller bauen RT-Cores / Units ein, Renderpath sowohl in DX als auch VK vorhanden
- Upscaling -> hier gibt es verschiedene Ansätze, mit und ohne machine-learning Komponente

Was man sagen kann ist dass die Ansätze mit ML Komponente bessere Ergebnisse liefern. Sowohl Intel als auch AMD arbeiten an entsprechenden Implementierungen. XeSS hat laut Gerüchten einen ML Ansatz und AMD hat auch schon Patente für Upscaling mit ML Komponenten. Es gibt auch schon RDNA3/4 Leaks die andeuten dass AMD ein "Tensor Core" Pendant einbaut. Damit gäbe es dann, genau wie bei DLSS 1.0 -> 2.0, einen Umbruch. Ohne "Tensor Cores" kann man FSR 2.0 (ich nenne es mal so) dann auch nicht nutzen.

Spekulation: wenn alle Hersteller einen ML Upscaler haben dann werden sie umschwenken auf eine DirectML Implementierung und wir haben dasselbe wie bei der RT-Entwicklung. Zuerst eigene Süppchen, dann eine generell nutzbare API. Microsoft regelt das seit jeher so, sobald es eine allgemeine API in Windows gibt sind die Hersteller quasi gezwungen die zu unterstützen.
 
Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen. :-)

MfG
3dfx, 3DLabs, Matrox, Cirrus Logic etc.... Das waren noch Zeiten... :love:

Survival of the fittest gehört eben dazu. Nicht nur in der Tech-Branche. Aber du hast schon Recht, eine gewisse Gefahr ist dabei. Gerade wenn Tech-Unternehmen zu groß werden, steigt auch die Bürokratie innerhalb des Unternehmens und die Reaktionsgeschwindigkeit nimmt aufgrund vermeindlicher Monopolstellungen ab. Schön zu sehen bei Intel oder der Übernahme von ATi. Die Dynamik bleibt auf der Stecke und man muss sich erstmal neu sortieren/aufstellen.

Was ist denn heute der "heiße shice":
- Raytracing -> wird bleiben, alle Hersteller bauen RT-Cores / Units ein, Renderpath sowohl in DX als auch VK vorhanden
- Upscaling -> hier gibt es verschiedene Ansätze, mit und ohne machine-learning Komponente
Die beiden Technologien sind auch wichtig. :daumen:

Heißer shice für morgen:
- Chiplet-Design
- ausreichend VRAM

Es gibt auch schon RDNA3/4 Leaks die andeuten dass AMD ein "Tensor Core" Pendant einbaut. Damit gäbe es dann, genau wie bei DLSS 1.0 -> 2.0, einen Umbruch. Ohne "Tensor Cores" kann man FSR 2.0 (ich nenne es mal so) dann auch nicht nutzen.
Das wäre ziemlich bitter und ein großer Rückschritt. Proprietäre Lösungen sind in meinen Augen einfach nicht die Zukunft. Ich würde mich echt stark wundern, wenn man nach dem Launch von Freesync und FSR hier die Rolle Rückwärts macht. Mal sehen ob die Leaks Recht behalten, oder ob es doch anders kommt.
 
Die beiden Technologien sind auch wichtig. :daumen:

Heißer shice für morgen:
- Chiplet-Design
- ausreichend VRAM
Chiplet-Design - wird definitiv irgendwann Einzug halten in GPU's
"Ausreichend" VRAM - ich denke da wird erst mal ordentlich optimiert mit DirectStorage + Sampler Feedback Streaming

SFS verbraucht bis zu 70% weniger VRAM bei gleicher Qualität. Sagen wir am Ende kommen 50% weniger VRAM Verbrauch dabei raus, die kann man dann in höher aufgelöste Assets investieren und benötigt für 4K dieselbe Menge Speicher wie vorher.


Das wäre ziemlich bitter und ein großer Rückschritt. Proprietäre Lösungen sind in meinen Augen einfach nicht die Zukunft. Ich würde mich echt stark wundern, wenn man nach dem Launch von Freesync und FSR hier die Rolle Rückwärts macht. Mal sehen ob die Leaks Recht behalten, oder ob es doch anders kommt.
Das wäre per DirectML ja nicht proprietär. Wäre wie mit DXR / Vulkan RT, sowohl NV RT-Cores als auch AMD Ray-Accelerators sprechen mit den APIs. Verbauen halt alle Hersteller ihre "Tensor Cores" und DirectML liefert das Upscaling.
 
Chiplet-Design - wird definitiv irgendwann Einzug halten in GPU's
"Ausreichend" VRAM - ich denke da wird erst mal ordentlich optimiert mit DirectStorage + Sampler Feedback Streaming

SFS verbraucht bis zu 70% weniger VRAM bei gleicher Qualität. Sagen wir am Ende kommen 50% weniger VRAM Verbrauch dabei raus, die kann man dann in höher aufgelöste Assets investieren und benötigt für 4K dieselbe Menge Speicher wie vorher.
Ich freu mich schon wenn´s soweit ist. Das Potential von Chiplets ist enorm. :)

Kurze Ergänzung meinerseits: Das mit dem VRAM war unglücklich formuliert. Ich hatte hier eigentlich den Shared-Memory der PS5 und XBox SX im Kopf. Sorry für die Verwirrung. :D In meinen Augen hätten beiden Konsolen nämlich locker 32GB Shared-Memory haben dürfen.

Das wäre per DirectML ja nicht proprietär. Wäre wie mit DXR / Vulkan RT, sowohl NV RT-Cores als auch AMD Ray-Accelerators sprechen mit den APIs. Verbauen halt alle Hersteller ihre "Tensor Cores" und DirectML liefert das Upscaling.
Ja, das stimmt. Wobei man ja für DirectML keine spezialisierte Hardware braucht.

Bei den Konsolen wird das in meinen Augen noch ziemlich spannend werden. Keine von beiden hat dezidierte Hardware für Machine Learning. D.h. alles muss direkt über die GPU laufen. Die Xbox SX kann hier auf DirectML zurückgreifen, wenn ich mich nicht täusche, aber die PS5 braucht eine eigene proprietäre API für ML.

Einen kleinen Ausblick haben wir ja durch den Patch von Spider Man: Miles Morales bekommen. *Klick*, *Klick*
Wie es scheint laufen die API hier schon recht ordentlich.
 
Ja, das stimmt. Wobei man ja für DirectML keine spezialisierte Hardware braucht.
Man "benötigt" auch für RT keine spezialisierte Hardware, genauso wenig wie für DirectML. Das auf der CPU oder den GPU Shadern laufen zu lassen kostet allerdings Performance, und genau das möchte man ja nicht. Beschleunigung ist hier das Ziel, RT-Cores für RT, Tensor-Cores für ML.
 
Beschleunigung ist hier das Ziel, RT-Cores für RT, Tensor-Cores für ML.
Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.
Die PS5 hat doch RDNA2 inklusive Ray-Accelerators? Die RT-Effekte laufen darüber und sind in beiden Games stark abgespeckt im Vergleich zur PC Version.
 
Die PS5 hat doch RDNA2 inklusive Ray-Accelerators?
Ich bin immer davon ausgegangen das der RT-Core von Nvidia ein dezidierter separater Core ist, und AMD ihren CUs nur einen Ray Accelerator verpasst hat, damit die CUs beim Raytracing entlastet werden. Korrigier mich bitte wenn ich falsch liege, aber gerade deswegen sind die RT-Cores doch soviel effizienter wie AMDs Ray-Accelerator Erweiterung, oder? :huh:

Entspricht ein Ray-Accelerator im RDNA2 wirklich 1 zu 1 einem RT-Kern von Nvidia?

Wenn ja, dann hatte ich das so im Detail echt nicht auf dem Schirm.
 
Ich bin immer davon ausgegangen das der RT-Core von Nvidia ein dezidierter separater Core ist, und AMD ihren CUs nur einen Ray Accelerator verpasst hat, damit die CUs beim Raytracing entlastet werden. Korrigier mich bitte wenn ich falsch liege, aber gerade deswegen sind die RT-Cores doch soviel effizienter wie AMDs Ray-Accelerator Erweiterung, oder? :huh:

Entspricht ein Ray-Accelerator im RDNA2 wirklich 1 zu 1 einem RT-Kern von Nvidia?

Wenn ja, dann hatte ich das so im Detail echt nicht auf dem Schirm.
Nein, NV RT-Cores sind anders aufgebaut als Ray-Accelerators bei AMD. Aber beide erfüllen denselben Zweck: RT-Berechnungen beschleunigen. Du meintest ja im Post davor dass Miles Morales und Control auf der PS5 auch ohne RT-Beschleunigung beeindruckend wären, das stimmt so halt nicht ganz. RDNA2 hat dafür auch "extra" etwas eingebaut um es nicht auf den Shadern laufen zu lassen.
 
Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.

Spiderman nutzt schon eigenes temporales Upscalingverfahren. Was soll sich denn da noch von der Performance her tun? RT Mode macht Upscaling von 1080-1440p und Leistungsmodus eben von 1440p. Da wird FSR nichts daran ändern weil man auch nur von 1440p upscalen wird. Mehr Leistungspuffer ist da nicht.

Auch die Aussage weiter Oben dass DLSS der eine Weg und FSR der Andere ist halt nur halb richtig. Gibt eben mit Checkerboard, TAAU bis eben dann DirectML unzählige Verfahren wie man Bild auf höhere Auflösung bekommt.
Wird sicherlich jeder Entwickler je nach Engine halt entscheiden was sinnvoll und passend ist. Heißt eben nicht dass FSR jetzt automatisch in jedem Konsolengame landet wenn Engine selber TAAU Lösung oder anderen Ansatz mitbringt.
FSR ist nur Möglichkeit von vielen und wie man schon von der PS4/One Generation weiß wird da selbst bei Port nicht einheitlich behandelt. Jeder Entwickler wird auch weiterhin sein eigenen Süppchen kochen. So wird es auch weiterhin Konsolen-Ports vom PC geben die mal auf Nvidia oder auf AMD besser laufen und entsprechende Features unterstützen.
Nur weil PS5 FSR ein Game nutzt kann es dennoch bedeuten dass die PC Fassung auch DLSS kann. Entwickler werden trotzdem bei PC Version die Firma mit den größten Marktanteil im Blick haben.

Rechne fest damit dass ganzen Upscaling-Techniken koexistieren werden und es so schnell keine klaren Standard gibt der in jedem Game drin ist.
Der PC ist in Sachen Entwicklung von Technik auch noch mal eigenen Feld als der Konsolenmarkt. Gibt nur hier und da mal Überschneidungen.
 
Zurück