Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

Ja die Zunahme an Pfützen und spiegelnden Flächen in Nvidia-gesponsorten Titeln is ziemlich auffällig. :D

Normal rennt man in Spielen auch einfach nur an Scheiben vorbei und durch Pfützen durch und bleibt nicht stundenlang davor stehen und staunt.

Also Reflexionen finde ich nicht so wichtig wie Lichteffekte durch GI, Schatten und wenn z.B. auch die Farben des Lichts durch Materialien verändert werden und Auswirkungen auf Objekte hat.

Schreibe das als 3080-Besteller. :D

Hab aber eben nur geschaut, ob mir die Basisleistung vs. meine alte Karte für meinen WQHD G-Sync Monitor reicht.
RT/DLSS sehe ich erstmal als nice to have Demo an, die ich auch abschalten kann.
Naja, aber schaut man sich die UE5 Demo an (die ja auf der PS5 lief) braucht es für präzises GI und Schatten kein Raytracing...
Ich finde das wird immer vergessen, dass es noch Alternativen zu Raytracing gibt uns geben wird.
Ich bin davon noch nicht restlos überzeugt, ob Raytracing bei den Performance-Einbußen so viel mehr bringt als Entwicklungen innerhalb der Engines.
 
Früher oder später wird wohl jeder Karte die Puste ausgehen, es sei denn, der Fortschritt stoppt abrupt. Damit ist aber in den nächsten 10-20 Jahren nicht zu rechnen, auch wenn sich der Fortschritt stark verlangsamt. Wenn man dann in der Auflösung heruntergehen muß, dann macht DLSS das ganze wesentlich erträglicher. 1080p sind auf einem 32" Monitor schon grenzwertig, bei 720p kann man den einzelnen Pixeln dann Namen geben (besonders Hans in der Mitte sticht ins Auge).

Deshalb ist DLSS so wichtig.

Man kann auch einfach die Settings reduzieren in neuen Spielen. Und in 2-3 Jahren werden eh wieder neue Karten gekauft.
 
Möglich ist auch, dass das Spiel die vielen Shader nicht voll ausnutzen kann und daher von weniger höher taktenden Kernen profitiert.

Ich würde aber einfach auf unabhängige benchmarks warten und mir hier nicht gegenseitig an die Gurgel gehen :daumen:
 
Man kann auch einfach die Settings reduzieren in neuen Spielen. Und in 2-3 Jahren werden eh wieder neue Karten gekauft.

1: du kannst die Einstellungen nicht in die Unendlichkeit reduzieren, glaub mir, mit meine GTX 670 weiß ich momentan, wovon ich schreibe
2: mir sind Details relativ wichtig
3: plane ich eher mit 6-10 Jahren, aber jeder, wie er will
4: wenn ich zwei Jahre mehr Nutzungszeit haben kann, dann nehme ich die natürlich mit
 
Wenn die Karte in 4K schneller ist, aber in 1440p nicht mehr, woran soll es sonst liegen? Die 16GB werden hier wohl kaum begrenzen.
Vermutlich limitiert hier die CPU oder man ist nah dran, so dass der Treiberoverhead zum tragen kommt.
Speicherbandbreite gerade die kleine 6800. Vermutung. Ach wir werden sehen. Denke nicht das AMD in 1440p benches im CPU Limit raushaut. :ugly:
 
Speicherbandbreite gerade die kleine 6800. Vermutung. Ach wir werden sehen. Denke nicht das AMD in 1440p benches im CPU Limit raushaut. :ugly:

Wenn sie einen Vorteil davon haben, denn schon. So wie Nvidia auch garantiert auf den VRAM achtet.
Das ist pauschaler quatsch. Es kommt immer auf das verwendetet Spiel.
Natürlich kommt es immer auf das verwendete Spiel an, aber insgesamt war die RTX 3080 in WQHD schon merklich gehemmt. Wenn die Karten in geringeren Auflösungen überproportional an Leistungsvorsprung verlieren, dann deutet es auf ein CPU Limit hin.
 
raytracing ist aktuell (!) noch ein randphänomen und steckt in den kinderschuhen. mich überzeugt der einsatz, vielleicht mit ausnahme von minecraft, bisher noch nicht als kaufargument.

Raytracing sieht einfach nur gut aus :)

149320-235232-235231_rc.jpg
Cyberpunk-2077-Screenshots-Nvidia-15--pc-games.jpg
EkxgatsWkAANlyr-pcgh.jpg
 
Wenn ich mir dieses Video (in 4K60, sonst kommt es natürlich nicht rüber) ansehen, dann muß ich da deutlich widersprechen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

720p sieht bei mir Unspielbar aus. Das, was da hochskaliert auf 4K gezeigt wird, ist mehr als nur annehmbar. Es ist wesentlich besser, als natives Full HD und voll ganz spielbar. Ich würde es irgendwo bei WQHD einordnen (eher etwas darunter), wenn man genau hinsieht und das Video stoppt, dann sieht man doch etwas, aber dafür sind die Pixel erheblich kleiner.

DLSS hat das Zeug dazu alles zu ändern.
Ich werd das Video mal am PC anschauen, am Handy hat das ja keinen Sinn :)
Bin mal gespannt, bei WD sah 720p DLSS wie 720p aus
 
Wenn die Karte in 4K schneller ist, aber in 1440p nicht mehr, woran soll es sonst liegen? Die 16GB werden hier wohl kaum begrenzen.
Vermutlich limitiert hier die CPU oder man ist nah dran, so dass der Treiberoverhead zum tragen kommt.
Da mus s ich leider widersprechen. Das kann sicherlich damit zusammenhängen, gerade aber bei den Ampere Karte ist aber eher eine schlechte Auslastunger der CUs der Fall, so dass die zusätzliche FP32 Leistung erst in 4k eingebracht werden kann.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Hardware Unboxed VID zu dem Thema
 
Wer sich eine RTX 3090 kauft, der will in der Regel das beste. Geld sinnvoll (wobei man darüber debattieren kann) investieren ist bei der RTX 3080 sowie RTX 6800XT und darunter angesagt.
Dann her derjenige eine Fehlkauf getätigt.
Die 6900XT Stock ist auf fest selben Niveau, mit OC bis auf 2.5 GHz (von 2Ghz aus) rauf, das packt eine 3090 nicht mehr.

Wobei wir am ende über +-10% reden bei 500€ Unterschied
 
Raytracing ist mir ziemlich egal. Ein Grafikfeature was die FPS halbiert wird immer als erstes deaktiviert. DLSS trauer ich mehr nach, ein Feature das die FPS verdoppelt schalte ich sofort ein. Ich hoffe dass AMD Super Resolution bald auf die Reihe kriegt.
 
Zurück