Ich verstehe sehr wohl die Argumente, halte sie aber für übertrieben. Weder sind G-Sync und PhysX tot, noch ist abzusehen dass DLSS durch FSR verdrängt wird.Du möchtest es offensichtlich einfach nicht verstehen, weswegen hier eine weitere Unterhaltung keinen Sinn macht.
MfG
Fakt ist: Nvidias DLSS, so gut es auch ist, ist eine proprietäre Technologie. AMDs FSR ist von Anfang an als Open Source-Technologie geplant gewesen. Das, plus der gewählte technische Ansatz seitens AMD sorgt für eine sehr schnelle Verbreitung und produktübergreifende Kompatibilität. Strategisch betrachtet war das ein mega Move!Ich höre immer dieselben Argumente, aber Fakten dazu? Eher nicht.
XeSS enters the room. Und dann kommt noch von Epic TSR (Temporal Super Resolution). In Unreal hat man dann Plugins für mindestens 3 Upscaler (FSR, DLSS, TSR). Und Intel wird garantiert auch Kohle auf den Tisch legen um das 4. Plugin für die meistgenutzte Engine unserer Zeit zu bekommen.Ich hoffe mal nicht, dass Intel jetzt mit Variante 3 um die Ecke kommt...
MfG
Warum nicht?Ich hoffe mal nicht, dass Intel jetzt mit Variante 3 um die Ecke kommt...
Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen.Warum nicht?
Ich wünsche mir das durchaus. Für den Kunden ist das nicht schlecht. Er hat dann die freie Wahl.
Der GPU-Markt braucht Bewegung. Und Bewegung erschaffst du nur, wenn du Features und Technologien entwickelst auf die deine Konkurrenten reagieren müssen. Egal ob proprietär oder nicht.
Das stimmt, wobei damals Nvidia mit der Geforce256 den Markt konsolidiert hat.Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen.
MfG
3dfx, 3DLabs, Matrox, Cirrus Logic etc.... Das waren noch Zeiten...Ich kann mich noch an Zeiten erinnern, wo jeder Hersteller sein eigenen Süppchen gekocht hatte, so toll war das nicht und DX eine echte Bereicherung. Die Konkurrenz hatte damals eher dazu geführt, dass es wahrscheinlicher war auf das Pferd zu setzen, dass den Markt später erfolglos verlässt, obwohl feature 1 & 2 so vielversprechend klangen.
MfG
Die beiden Technologien sind auch wichtig.Was ist denn heute der "heiße shice":
- Raytracing -> wird bleiben, alle Hersteller bauen RT-Cores / Units ein, Renderpath sowohl in DX als auch VK vorhanden
- Upscaling -> hier gibt es verschiedene Ansätze, mit und ohne machine-learning Komponente
Das wäre ziemlich bitter und ein großer Rückschritt. Proprietäre Lösungen sind in meinen Augen einfach nicht die Zukunft. Ich würde mich echt stark wundern, wenn man nach dem Launch von Freesync und FSR hier die Rolle Rückwärts macht. Mal sehen ob die Leaks Recht behalten, oder ob es doch anders kommt.Es gibt auch schon RDNA3/4 Leaks die andeuten dass AMD ein "Tensor Core" Pendant einbaut. Damit gäbe es dann, genau wie bei DLSS 1.0 -> 2.0, einen Umbruch. Ohne "Tensor Cores" kann man FSR 2.0 (ich nenne es mal so) dann auch nicht nutzen.
Chiplet-Design - wird definitiv irgendwann Einzug halten in GPU'sDie beiden Technologien sind auch wichtig.
Heißer shice für morgen:
- Chiplet-Design
- ausreichend VRAM
Das wäre per DirectML ja nicht proprietär. Wäre wie mit DXR / Vulkan RT, sowohl NV RT-Cores als auch AMD Ray-Accelerators sprechen mit den APIs. Verbauen halt alle Hersteller ihre "Tensor Cores" und DirectML liefert das Upscaling.Das wäre ziemlich bitter und ein großer Rückschritt. Proprietäre Lösungen sind in meinen Augen einfach nicht die Zukunft. Ich würde mich echt stark wundern, wenn man nach dem Launch von Freesync und FSR hier die Rolle Rückwärts macht. Mal sehen ob die Leaks Recht behalten, oder ob es doch anders kommt.
Ich freu mich schon wenn´s soweit ist. Das Potential von Chiplets ist enorm.Chiplet-Design - wird definitiv irgendwann Einzug halten in GPU's
"Ausreichend" VRAM - ich denke da wird erst mal ordentlich optimiert mit DirectStorage + Sampler Feedback Streaming
SFS verbraucht bis zu 70% weniger VRAM bei gleicher Qualität. Sagen wir am Ende kommen 50% weniger VRAM Verbrauch dabei raus, die kann man dann in höher aufgelöste Assets investieren und benötigt für 4K dieselbe Menge Speicher wie vorher.
Ja, das stimmt. Wobei man ja für DirectML keine spezialisierte Hardware braucht.Das wäre per DirectML ja nicht proprietär. Wäre wie mit DXR / Vulkan RT, sowohl NV RT-Cores als auch AMD Ray-Accelerators sprechen mit den APIs. Verbauen halt alle Hersteller ihre "Tensor Cores" und DirectML liefert das Upscaling.
Man "benötigt" auch für RT keine spezialisierte Hardware, genauso wenig wie für DirectML. Das auf der CPU oder den GPU Shadern laufen zu lassen kostet allerdings Performance, und genau das möchte man ja nicht. Beschleunigung ist hier das Ziel, RT-Cores für RT, Tensor-Cores für ML.Ja, das stimmt. Wobei man ja für DirectML keine spezialisierte Hardware braucht.
Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.Beschleunigung ist hier das Ziel, RT-Cores für RT, Tensor-Cores für ML.
Die PS5 hat doch RDNA2 inklusive Ray-Accelerators? Die RT-Effekte laufen darüber und sind in beiden Games stark abgespeckt im Vergleich zur PC Version.Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.
Ich bin immer davon ausgegangen das der RT-Core von Nvidia ein dezidierter separater Core ist, und AMD ihren CUs nur einen Ray Accelerator verpasst hat, damit die CUs beim Raytracing entlastet werden. Korrigier mich bitte wenn ich falsch liege, aber gerade deswegen sind die RT-Cores doch soviel effizienter wie AMDs Ray-Accelerator Erweiterung, oder?Die PS5 hat doch RDNA2 inklusive Ray-Accelerators?
Nein, NV RT-Cores sind anders aufgebaut als Ray-Accelerators bei AMD. Aber beide erfüllen denselben Zweck: RT-Berechnungen beschleunigen. Du meintest ja im Post davor dass Miles Morales und Control auf der PS5 auch ohne RT-Beschleunigung beeindruckend wären, das stimmt so halt nicht ganz. RDNA2 hat dafür auch "extra" etwas eingebaut um es nicht auf den Shadern laufen zu lassen.Ich bin immer davon ausgegangen das der RT-Core von Nvidia ein dezidierter separater Core ist, und AMD ihren CUs nur einen Ray Accelerator verpasst hat, damit die CUs beim Raytracing entlastet werden. Korrigier mich bitte wenn ich falsch liege, aber gerade deswegen sind die RT-Cores doch soviel effizienter wie AMDs Ray-Accelerator Erweiterung, oder?
Entspricht ein Ray-Accelerator im RDNA2 wirklich 1 zu 1 einem RT-Kern von Nvidia?
Wenn ja, dann hatte ich das so im Detail echt nicht auf dem Schirm.
Und da bin ich mir eben nicht ganz sicher. Spider Man: Miles Morales & Control fand ich auf der PS5 ziemlich eindrucksvoll. Auch ohne RT und Tensor-Cores. Beschleunigung durch Zusatz-Cores ist natürlich wirklich super, aber die Games haben gezeigt das es auch anders geht. Mit AMDs FSR wird das ganze von der Performance her nochmals anders aussehen.