Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

Der Punkt ist, dass man mit DLSS die Auflösung unglaublich effektiv aufblasen kann. 720p auf 4K hochgerechnet sieht dann plötzlich extrem gut aus. Zwar kommt es nicht an echtes 4K ran, Full HD schlägt es jedoch locker und gurkt subjektiv wohl irgendwo bei WQHD herum

Deshalb ist es so unglaublich wichtig, für mich die wichtigste Neuerung der letzten 10 Jahre.

Solange AMD nichts gleichwertiges hat, ist das eben ein massives Manko.
Dann lieber direkt in 4k... Oder bald 8k spielen, dann hat sich DSLSSL bald erledigt.
 
Das dauert ja noch ewig bis RT gut läuft.

Zumal die Reflexionen teilweise mal schön anzuschauen sind, aber ich finde andere Aspekte des RT viel spannender, wie z.B. global illumination in open world Titeln und da hat das neue Watch Dogs Legion gar nichts zu bieten. Nur für Reflexionen is mir der FPS-Einschnitt zu groß.

Ich kaufe meine Karte auch nach Basisleistung, nicht ob sie schönere Reflexionen beherrscht, die ich im Zweifelsfall für höhere fps und flüssigeres gameplay eh ausschalten würde. :)
Und natürlich für meinen g-sync Monitor.

Und was die Verfügbarkeit der neuen Radeons angeht, muss das erst mal bewiesen werden, dass die besser dastehen, als Ampere.
Würde mich für die AMD Freunde freuen, aber schaun wir mal und warten wir erst mal ab.
Auch weitere Tests.

Nur nicht zu früh ausflippen, vor Freude. ;)
Immer aufm Teppich bleiben.
AMD kocht auch nur mit Wasser.
 
Zuletzt bearbeitet:
Zumal die Reflexionen teilweise mal schön anzuschauen sind, aber ich finde andere Aspekte des RT viel spannender, wie z.B. global illumination in open world Titeln und da hat das neue Watch Dogs Legion gar nichts zu bieten. Nur für Reflexionen is mir der FPS-Einschnitt zu groß.

Ich kaufe meine Karte auch nach Basisleistung, nicht ob sie schönere Reflexionen beherrscht, die ich im Zweifelsfall für höhere fps und flüssigeres gameplay eh ausschalten würde. :)
Und natürlich für meinen g-sync Monitor.

Und was die Verfügbarkeit der neuen Rafeons angeht, muss das erst mal bewiesen werden, dass die besser dastehen, als Ampere.
Würde mich für die AMD Freunde freuen, aber schaun wir mal und warten wir erst mal ab.
Auch weitere Tests.

Nur nicht zu früh ausflippen, vor Freude. ;)
Immer aufm Teppich bleiben.
AMD kocht auch nur mit Wasser.
Überhaupt, wenn auf einmal in jedem spiel Pfützen sind nur wegen dem xD. Metro hat es gut gemacht.
Der Praktikant hat wieder zugeschlagen...



Mich würde vor allem interessieren, wird CYBERPUNK mit Raytracing auf AMD Karten funktionieren ????
ominös sind alles oder schon mal eine gesehen :devil:
 
Da Raytracing noch längere Zeit nahezu völlig irrelevant bleiben wird, ist diese Leistung absolut in Ordnung.
Ich find es eher ziemlich schade, dass es keine RX 6800 mit nur 12 GB VRAM und ohne RT Möglichkeiten gibt, die dafür wesentlich günstiger ist.
 
Ich hatte es auch mal getestet mit meiner 2080 in BF5 und muss zu meiner Schande gestehen ich hab den Unterschied im Laufe des Gefechtes nicht einmal bemerkt geschweige denn gesehen.
Bei Warzone hab ich überhaupt keinen Unterschied feststellen könne, außer das die Performance drunter gelitten hat.
Ich bin mir auch irgendwie sicher das die RT Performance in Zukunft noch besser wird da die Konsolen und die RX6000er Reihe sich ja sehr ähnlich sind und die Entwickler gezielt auf diese Technik hin programmieren und optimieren können.
Und selbst wenn, ich denke zusätzlich noch bis RT vollkommen im Massenmarkt bei wirklich spielbaren FPS angekommen ist vergeht noch mindestens eine Generation GPU´s, sowohl bei AMD als auch bei Nvidia.

Ich sehe das genauso. Mich würde mal interessieren, wie sehr die Raytracingkerne die Chipkosten steigern und wie hoch im nicht verwendeten Zustand deren Leistungsaufnahme ist.
Gäbe es aktuell noch Versionen der neuen Karten, die günstiger mit deaktivierten Raytracing wären, dann würde ich sofort diese kaufen.
Ich brauche aktuell kein Raytracing. Denn erstens spiele ich gerne etwas ältere Spiele, die sind nämlich fertig und kosten nur einen Bruchteil, haben allerdings auch kein Raytracing. Zweitens finde ich Raytracing zwar hübsch, aber häufig nimmt man es im Eifer des Gefechtes eh nicht war.
 
Wie damals von 1080p zu 1440p beginnt gerade der Wechsel von 1440p auf 4K.
Naja, da 1080p noch immer der mit großem Abstand verbreitetste Standard ist, sind wir von einem Standard von 1440p noch sehr, sehr weit entfernt. Einfach mal über den Rand eines Computerforums schauen sollte bei so etwas meistens helfen.
Und 4K ist immer noch eine Randerscheinung, auch wenn jeder zweite TV das mittlerweile bietet.
 
Überhaupt, wenn auf einmal in jedem spiel Pfützen sind nur wegen dem xD. Metro hat es gut gemacht

Ja die Zunahme an Pfützen und spiegelnden Flächen in Nvidia-gesponsorten Titeln is ziemlich auffällig. :D

Normal rennt man in Spielen auch einfach nur an Scheiben vorbei und durch Pfützen durch und bleibt nicht stundenlang davor stehen und staunt.

Also Reflexionen finde ich nicht so wichtig wie Lichteffekte durch GI, Schatten und wenn z.B. auch die Farben des Lichts durch Materialien verändert werden und Auswirkungen auf Objekte hat.

Schreibe das als 3080-Besteller. :D

Hab aber eben nur geschaut, ob mir die Basisleistung vs. meine alte Karte für meinen WQHD G-Sync Monitor reicht.
RT/DLSS sehe ich erstmal als nice to have Demo an, die ich auch abschalten kann.
 
Zuletzt bearbeitet:
25% weniger Leistung als Nvidia wären doch vertretbar. Mal sehen wie groß die Differenz ist, wenn in Spielen nur gewisse Effekte mit Raytracing berechnet werden. Ich könnte mir vorstellen, dass die Differenz dann sogar noch etwas kleiner ausfällt.

Und wer weiß, vielleicht bietet AMD ja treiberseitig die Möglichkeit die Raytracing-Auflösung zu reduzieren. Dann hat man im Zweifel noch die Wahl zwischen guter Optik und besserer Performance bei etwas Bildrauschen / Unschärfe. Ich kann mir eigentlich nicht vorstellen, dass eine halbierte Raytracing-Auflösung zu unbrauchbaren Ergebnissen führt..

So oder so, ich freue mich sehr auf die kommenden Tests :)
 
Boa PCGames es nervt einfach das Ihr immer wieder Gerüchte verteilt ohne verstand und wissen...


So wie Ihr Tagelang behauptet habt, das AMD grad so mit der 3080 mithalten kann, was blieb davon?

Wartet doch einfach ab

AMD kann doch mithalten. Wo ist das Problem?
Schneller geht immer.

Dazu hat AMD die Karten langsamer an die Partner verteilt, um genaue Leaks zu verhindern.
Mich würde vor allem interessieren, wird CYBERPUNK mit Raytracing auf AMD Karten funktionieren ????
Die Frage sollte wohl eher lauten, kommt es noch dieses Jahr raus.
 
Klar, natürlich ist die native Auflösung immer besser. Wenn ich allerdings wählen muß zwischen 1-2 FPS in nativem 4K und 60 FPS 720p auf 4K hochgerechnet, rate mal, was ich da nehmen werde...

Das ist aber falsch, wenn mit den aktuellen Karten auch in UHD mehr als 60 FPS drin sind.
 
Hier die wahren Zahlen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Würde so früh noch nicht so viel auf AMDs Resultat geben, aber für den Einstig ins RT Business ist es gar nicht mal so schlecht tbh.
 
Sowas darf ich mir nicht angucken, sonst steckt am Ende des Jahres ne 6900XT in meinem Rechner :s

Watch Dogs läuft nicht mit RT auf einer 3080 außer man passt an und dann bleibt nicht mehr viel übrig außer man bleibt auf 1080p aber selbst da :ugly: . Wenn es da nicht läuft, wo ist dann der Unterschied? Da machen 20-30% den braten auch nicht mehr fett.

Das dauert ja noch ewig bis RT gut läuft.
Watch Dogs läuft auch ohne RT beschissen. RT ist hier wohl kaum der Übeltäter.
 
Das ist aber falsch, wenn mit den aktuellen Karten auch in UHD mehr als 60 FPS drin sind.

Früher oder später wird wohl jeder Karte die Puste ausgehen, es sei denn, der Fortschritt stoppt abrupt. Damit ist aber in den nächsten 10-20 Jahren nicht zu rechnen, auch wenn sich der Fortschritt stark verlangsamt. Wenn man dann in der Auflösung heruntergehen muß, dann macht DLSS das ganze wesentlich erträglicher. 1080p sind auf einem 32" Monitor schon grenzwertig, bei 720p kann man den einzelnen Pixeln dann Namen geben (besonders Hans in der Mitte sticht ins Auge).

Deshalb ist DLSS so wichtig.
 
Sowas darf ich mir nicht angucken, sonst steckt am Ende des Jahres ne 6900XT in meinem Rechner :s


Watch Dogs läuft auch ohne RT beschissen. RT ist hier wohl kaum der Übeltäter.
Ja komme auf die dunkle Seite, sie liefert mehr FPS und verbrät weniger Strom und hat wahrscheinlich mehr OC Headroom.:devil:

Das schon aber wer ein Feature so bewirbt muss, das auch einstecken können. Außerdem habe ich nie gesagt das sie der Übeltäter ist :P Die kleine 6800 wohlgemerkt schlägt die 3090. 579 vs 1500 und nein Kirsche am Arsch kuck dir die anderen benches an der unterschied ist nicht so groß in 1440p. Selbst in Nvidia Kirschen Games :P einer geht noch in DX11 111!!!11!!

Screenshot_2020-10-30 Graphics Gaming Benchmarks.png
 
Zurück