Dennoch schafft die 3080 und 3070 nicht das Verhältnis in einem vernünftigen Maße umzusetzen. Klar hat man ggf. DLSS aber ich glaube nicht dass es der Sinn sein kann, zu hoffen dass ein Spiel es unterstützt damit ich es mit max. Settings spielen kann.
Link Why 10 GB should be enough
Link Mesh Shader
Link Sampler Feedback Streaming
Link DirectStorage
Wir müssen hier wieder bei der aktuellen Faktenlage bleiben.
1. Die neuen Konsolen haben ~10 GB VRAM (16 GB shared memory für das gesamte System)
2. Die allermeisten Gamer haben 8 GB Grafikkarten (siehe aktuelle Steam Umfrage)
Aktuelle Spiele-Designer werden garantiert NICHT mit 16 GB VRAM planen. Durch verbesserte Streaming-Techniken (Links dazu s.o.) wird ein großer VRAM ggf. auch gar nicht mehr benötigt. 4K Texturen müssen ja bereits in die 10 GB VRAM der Konsolen passen, und von 8K Gaming sind wir noch locker ein Jahrzehnt entfernt. Erst mit 8K könnte dann wieder mehr VRAM nötig werden.
Ja, RT kostet VRAM, aber DLSS verringert die VRAM Kosten im gleichen Maße. Spiele mit RT und ohne DLSS laufen leider, wie in diversen Tests zu sehen, in hohen Auflösungen mit weniger als 40 FPS. So will doch keiner zocken, ergo verringert er die Auflösung / schaltet RT ab / nutzt DLSS.
Die hier dargelegten Argumente und Beispiele sind in höchstem Maße theoretischer Natur.
- auf einer 3060 in 4K zocken
- eine 3070 in WQHD, mit max details und RT Psycho befeuern OHNE DLSS
Wer macht denn ernsthaft so einen Unfug? Und welche RT Games unterstützen kein DLSS? Das sind 1-2 (AMD sponsored), und die haben nur 1-2 RT Effekte da sonst die Leistung auch auf den VRAM-Monstern von AMD einbricht...
Für ALLE die KEIN RT brauchen oder wollen zocken CP2077 mit einer RX 6900XT schneller als mit einer 3090 (für 2500 €) !! Vergleich das doch mal.
MfG Föhn.
Ach Föhn, ganz ehrlich, mach Dich nicht lächerlich. Ich hab doch schon gesagt dass die AMD Karten in reiner Rasterization und nativer Auflösung besser sind als die NV Pendants. Nur eben nicht was Features und Innovationen angeht. Deine Screenshots sind nicht die Elektronen Wert mit denen sie gesendet wurden, schaltet man auf der 3090 noch DLSS Ultra Quality ein dann überholt sie locker die 6900XT. Mit RT siehts dann richtig düster aus.
Aber hey, ich kann es verstehen, ohne cherry picking bekommt man die AMD Karten halt nicht besser dargestellt. RDNA2 ist was Innovationen / neue Features angeht schlechter als Turing. Die freie Chipfläche wurde in Rohleistung investiert, kann man machen, ist dann halt kacke wenn man Spiele in voller Pracht genießen will (und das inkludiert nun mal RT).