Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

Raytracing ist mir ziemlich egal. Ein Grafikfeature was die FPS halbiert wird immer als erstes deaktiviert. DLSS trauer ich mehr nach, ein Feature das die FPS verdoppelt schalte ich sofort ein. Ich hoffe dass AMD Super Resolution bald auf die Reihe kriegt.
super resolution ist kein dlss.
das von amd ist downsampling...
das von nvidia ist "ai" upscaling
 
super resolution ist kein dlss.
das von amd ist downsampling...
das von nvidia ist "ai" upscaling
absolut falsch. Das kommende Super Resolution ist ebenso ein AI upsampler im Stile von DLSS, basierend auf DirectML

Was Du meinst ist evtl. "virtual super resolution". Das ist bereits seit längerer Zeit in den AMD Treibern drin und ist in der Tat ein Downscaler für Spiele, die dies nativ nicht unterstützen
 
Zuletzt bearbeitet:
Dann her derjenige eine Fehlkauf getätigt.
Die 6900XT Stock ist auf fest selben Niveau, mit OC bis auf 2.5 GHz (von 2Ghz aus) rauf, das packt eine 3090 nicht mehr.

Wobei wir am ende über +-10% reden bei 500€ Unterschied

Abwarten, in 5K und 8K dürfte sich die Stärke der RTX 3090 zeigen, da wird es dann interessant.
 
Hier sieht man, dass Average Frame Rate mit RT um 47% sinkt:
OK, ich setz mal die 2080Ti mit der 6800XT gleich. Dann ist das schon ein bedeutener Unterschied in der wirklichen Leistung. Wie gesagt, kann ich mir noch Verschiebungen seitens des Powerlimits vorstellen, aber zweistellig werden die wohl eher nicht ausfallen, sind ja allesamt schon so ziemlich an der Kotzgrenze.

Danke!
 
Quelle? Artikel gestern von PCGH besagt dass es sich bei Super Resolution um eine Deep-Learning Bildglättungstechnik handelt.
ja im pcgh artikel steht nichts von "super resolution"
ich hab abend mein treiber geöffnet von amd, unter anzeige steht ein aktivierungsfeld "virtuel super resolution"
glaube nicht das amd unterschiedliche dinge gleich benennt.
 
Hardware Unboxed VID zu dem Thema
Obwohl ...

Er redet davon, warum das Ergebnis der 3080 in 1440p in High Quality so "underwhelming" is(also enttäuschend, bzw. nicht gerade überwältigend), verglichen mit 4k.

Dabei wird ein Spieledurchschnitt gezeigt, wo die P1 fps um 136 liegen.
Average 171.

Das is doch mein Ziel ! :D
Immer 100 fps(gelockt) in WQHD(also außer natürlich in "Watch Dogs: Legion der Ruckelsoldaten".

Der Rest: Who cares ? :ka: :wayne:

Ich bleib' weiter bei meiner Bestellung. :cool:
Hoffentlich wird's noch was, mit dem Weihnachtsgeschenk an mich.

edit:

1.jpg
 
Da mus s ich leider widersprechen. Das kann sicherlich damit zusammenhängen, gerade aber bei den Ampere Karte ist aber eher eine schlechte Auslastunger der CUs der Fall, so dass die zusätzliche FP32 Leistung erst in 4k eingebracht werden kann.
Die Verdopplung der Shader hatte ich tatsächlich nicht bedacht.
Muss aber nicht unbedingt daran liegen. Müsste gerade dann der Abstand in 4K nicht noch größer sein? Gerade wegen der doppelten Shader.

Speicherbandbreite gerade die kleine 6800. Vermutung. Ach wir werden sehen. Denke nicht das AMD in 1440p benches im CPU Limit raushaut. :ugly:
Die reale Speicherbandbreite ist bei Ampere höher. Der Infinitycache ist nicht unendlich groß und wir wissen noch gar nicht, wie stark dieser zum tragen kommt.
 
Das hab ich schon kapiert @sifusanders
np.

Fand es trotzdem interessant, wie man anhand dieser Grafik in 1440p von "underwhelming" sprechen kann.
Bei mir würde es eher heißen: Erwartungen erfüllt! :)

(Immerhin mehr P1 fps, als vorher average mit der 1080 Ti.)
 
Das hab ich schon kapiert @sifusanders
np.

Fand es trotzdem interessant, wie man anhand dieser Grafik in 1440p von "underwhelming" sprechen kann.
Bei mir würde es eher heißen: Erwartungen erfüllt! :)
Geht mehr darum, dass verglichen zu den 4k Werten man eigentliche bessere Performance in1440p hätte erwarten können. Natürlich sind die Ampere aktuell nach wie vor die besten 1440p Karten auf dem Markt. Ändert sich evtl halt am 18.11- zudem auch dann der Abstand beider Architekturen jetzt nicht riesig ist. Weiterhin kommt es wie schon immer natürlich auch auf das Spiel an. Jeder muss halt gucken, welche Karte besser zu ihm selbst passt. Denke nicht, dass man wirklich 'falsch' entscheiden kann.
 
Muss aber nicht unbedingt daran liegen. Müsste gerade dann der Abstand in 4K nicht noch größer sein? Gerade wegen der doppelten Shader.
Die Anzahl Integer Rechnungen dürfte sich nicht verändern, daher kommen in 4k proportional mehr FP32 Rechnungen dazu und dann kann Ampere halt besser seine Karten (no pun intended) ausspielen - so hab ich es zumindest verstanden
 
700FPS+ = wenig? :ugly:

Die Anzahl Integer Rechnungen dürfte sich nicht verändern, daher kommen in 4k proportional mehr FP32 Rechnungen dazu und dann kann Ampere halt besser seine Karten (no pun intended) ausspielen - so hab ich es zumindest verstanden
Das habe ich verstanden, aber müsste die Abstand dann nicht trotzdem größer sein?
Ampere hat doch hier die Shader verdoppelt, dafür ist der Gewinn ziemlich klein.
Wieso steigt mit höherer Auflösung die FP32 Berechnungen?
 
Mittlerweile gibt es schon Beispiele, bei denen man den Unterschied auch wirklich sehen kann, z.B. Shadow of the Tombraider.

Das für mich wi8chtigste Argument ist, dass Raytracing irgendwann einmal verpflichtend sein könnte. Dann ließen sich die Spiele ohne nicht mehr starten und der Leistungsverlust würde sich durch alle Titel ziehen. Allerdings ist da die Frage, wie lange man seine Karte nutzen möchte.

Das Feature wird irgendwann einfach standardmäßig vorhanden sein. Sinnlos ist es ja nicht und gut aussehen tut es natürlich. Das genannte Cyberpunk-Beispiel sieht gut aus, aber die meisten Games dieser Kategorie sahen auch ohne Raytracing hammergeil aus.

Aber aktuell ist es a) ein Feature, dass nur wirklich große Triple A Titel, wenn überhaupt, unterstützen und b) immer noch so unperformant ist, dass es über eine hardwareseitige Lösung befeuert werden muss.

Wir halten fest: Für ein paar Lichteffekte und Spiegelungen in Pfützen, die bei Grafikdemos natürlich nett aussehen, aber im Gameplay null Relevanz haben.

Mir ist das generell bei Doom: Eternal aufgefallen. Das Spiel hat eine extrem gute Grafik, aber wenn man im Flow ist, fällt die Grafik nicht mehr bewusst auf. Da geht es um Gegner, gute Kombos, Aiming und Movement. Ich musste zwischendurch wirklich kurz bewusst innehalten, um die gestalterische Leistung der Level-Designer würdigen zu können. Diese Momente hielten ein paar Sekunden/Minuten und dann ging es mit dem Game weiter.

Gleiches empfinde ich bei Raytracing zur Zeit: Nice to have, aber daraus wird ein schlechtes Spiel kein gutes Spiel.

Und dafür FPS im zweistelligen Prozentbereich opfern? Ich glaube nicht, dass ich persönlich dazu bereit wäre.

Wenn es irgendwann keinen nennenswerten (!) Performance Impact hat, so wie andere Features wie Tiefenschärfe und Anti Aliasing und Co., dann wird es einfach zum Standard gehören. Aber solange das krampfhaft mit der Brechstange gelöst werden muss, sehe ich keinen Grund für einen gewaltigen Aufpreis bei gleichzeitigen Performance-Einbrüchen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück