• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

RushOliver

Komplett-PC-Käufer(in)
Das die kommenden AMD Karten bei Raytracing nur etwas über der 2080ti liegen würden, wurde schon vor dem AMD Event von Igorslab thematisiert...

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.


Davon abgesehen würde ich persönlich kein Raytracing benötigen.
 

sandworm

Freizeitschrauber(in)
Die 3090 interessiert keine ........ da 1500-2000€

Die wirklichen Kontrahenten sind die 6900XT , 3080 und die 6800 XT.

RTX 3080 (AIB TUF) = 635
RX 6800 XT (Referenzkarte) = 471
RX 6800 XT (AIB max. OC) = 471/2.015x2.3 = 542
RX 6900 XT (AIB) = 471 / 72 x 80 = 523 / 2 x 2.15 = 563 (Mit frühen Treibern)
X 6900 XT (AIB max. OC)= 471 / 72 x 80 = 523 / 2.015 x 2.3 = 602 (Mit frühen Treibern)

Die Referenzkarten sind ja bekanntermaßen sehr moderat mit lediglich 2.015 GHz getaktet.

Laut Leaks soll es auch Karten geben die um die 2.3GHz gaming-takt erreichen können.

Am Ende stehen also RTX 3080 (AIB TUF) = 635 vs. X 6900 XT (AIB max. OC) = 602 (Diff. 5% mit sehr frühen Treibern)

Jetzt wird ja bei einem solchen Benchmark eine maximale Auslastung erzeugt, was man so natürlich nicht auf normale Spiele übertragen kann. Bei Spielen würde ich eher von einer deutlich geringeren Last ausgehen und der
Unterschied könnte nochmals deutlich zusammenschrumpfen.

Also es ist möglich Das RDNA2 selbst bei RT (NVIDIAs Paradedisziplin) in etwa gleich schnell wird wie Ampere!

Also lasst euch nicht verarschen, die 33% hören sich nach viel an, aber sind schlussendlich total übertrieben.
 
Zuletzt bearbeitet:

BigYundol

Software-Overclocker(in)
RayTracing macht derzeit in langsameren Spielen wie bsw. Kingdom Come: Deliverance und Minecraft, in damit aufgemöbelten Klassikern (Quake) oder in Ingame Cutscenes noch am ehesten Sinn. Dafür würde ja auch 2080Ti-Level schon ganz gut reichen.
Aber ich bin gespannt. AMD hat bisher bei den neuen GPUs unglaublich dicht gehalten und alle Welt getrollt, vielleicht gibt's ja auch bei RT noch eine positive Überraschung, wer weiss. Ich bin aber auf jeden mal auf das grosse Dezember-Treiberupdate gespannt, was da schon alles hineinschaffen wird :)
 

Tolotos66

BIOS-Overclocker(in)
Ohne ein DLSS Pendant, nein. Das reicht leider nicht. Aber sowas wird denke ich bald kommen.
Hier muß ich Dir widersprechen.
DLSS ist optional und NICHT zwingender Bestandteil von RT.
Somit kann man die reine RT-Leistung (ohne DLSS) schon mit einer Radeon vergleichen. Natürlich ist das DLSS ein Schmankerl, welches den Radeons (noch) fehlt und die RT-Performance entscheident beinflussen kann.
Gruß T.
 

Mitchpuken

Software-Overclocker(in)
Ich habe leider Null Plan was hinter der Technik bzw technischer Aufwand von Raytracing steckt. Wenn ich mir jetzt aber überlege, dass die Konsolen von MS und Sony cpus und gpus von amd drin haben, dann sollte doch früher oder später RT weit verbreitet sein.
Könnte es passieren, rein aus technischer Sicht, dass eben dieses RT auf NV nicht funktionieren könnte? Oder ist das RT für alle Programmierer gleich und es hängt von der Hardware von AMD und NV ab was sie damit machen?
 

DKK007

PCGH-Community-Veteran(in)
Ich habe leider Null Plan was hinter der Technik bzw technischer Aufwand von Raytracing steckt. Wenn ich mir jetzt aber überlege, dass die Konsolen von MS und Sony cpus und gpus von amd drin haben, dann sollte doch früher oder später RT weit verbreitet sein.
Könnte es passieren, rein aus technischer Sicht, dass eben dieses RT auf NV nicht funktionieren könnte? Oder ist das RT für alle Programmierer gleich und es hängt von der Hardware von AMD und NV ab was sie damit machen?
Die API für das RT ist von MS entwickelt und auch zwingender Bestandteil von DX12 Ultimate.
Die Spiele die das nutzen werden also auf Intel, AMD und Nvidia-GPUs, welche RT können, laufen.
 

perupp

Software-Overclocker(in)
Boa PCGames es nervt einfach das Ihr immer wieder Gerüchte verteilt ohne verstand und wissen...


So wie Ihr Tagelang behauptet habt, das AMD grad so mit der 3080 mithalten kann, was blieb davon?

Wartet doch einfach ab
 

DarkWing13

Software-Overclocker(in)
Da geht es doch um die reine Rohleistung, oder?
Dann würde ich erstmal abwarten und Tee drinken, denn wer weiß, wie es in reellen (zukünftigen) Games mit RT aussieht, u. a. wenn der 3080 aufgrund von Speichermangel dabei die Puste ausgeht... ;)
 

Drago3344

Kabelverknoter(in)
hiho,
wie die meisten hier halte ich eine Schwerpunktsetzung auf Raytracing als den falschen Ansatz. Ich kann das nur aus Sicht einer RTX 2070 beurteilen, aber Raytracing ist nichts was mir lebenswichtig erscheint. Vielleicht wird das bei einer RTX 3080 deutlicher wahrnehmbar.

Wichtiger und spannender finde ich das die RTX 3080 richtig böse Gegenwind erhält. 150,00 Euro weniger bei einem gr.internen Speicher in Kombi von 16 zu 10 GB Speicher (mit Geschwindigkeitsunterschied schon klar) ergibt ohne Raytracing ein hoffentlich ernstes Problem für die RTX 3080. Wenn hier die Testwerte nur annähernd denen von AMD gleichen, wird eine RTX 3070 schnell einer RTX 3070 Super o.TI weichen und mit Sicherheit eine RTX 3080 Ti mit mehr Speicher kommen( bei vermutlich weiter schlechter Verfügbarkeit). Spannend finde ich dann die Frage der Preisgestaltung, den teurer dürften Sie kaum werden.

Hoffen wir das AMD + Co. mehr Ware auf die Straße bringen. Nur schade das das neue Feature erst die Ryzen 5000er Prozessoren unterstützt. Aber auch hier freue ich mich auf ausgiebige Tests, nicht nur auf Raytracingwerte.

Einen Kauf werde ich darum auf jeden Fall in das neue Jahr verschieben (gibt ja eh kaum/keine Ware).

Viel Spaß
 

Pu244

Lötkolbengott/-göttin
Hier muß ich Dir widersprechen.
DLSS ist optional und NICHT zwingender Bestandteil von RT.
Somit kann man die reine RT-Leistung (ohne DLSS) schon mit einer Radeon vergleichen. Natürlich ist das DLSS ein Schmankerl, welches den Radeons (noch) fehlt und die RT-Performance entscheident beinflussen kann.
Gruß T.

Der Punkt ist, dass man mit DLSS die Auflösung unglaublich effektiv aufblasen kann. 720p auf 4K hochgerechnet sieht dann plötzlich extrem gut aus. Zwar kommt es nicht an echtes 4K ran, Full HD schlägt es jedoch locker und gurkt subjektiv wohl irgendwo bei WQHD herum

Deshalb ist es so unglaublich wichtig, für mich die wichtigste Neuerung der letzten 10 Jahre.

Solange AMD nichts gleichwertiges hat, ist das eben ein massives Manko.
 

AlphaSec

Komplett-PC-Aufrüster(in)
Fehlt leider ein Vergleichswert von Turing, also z.B. einer 2080 oder 2080ti.
Eine Standard-2080Ti FE schafft ca. 400 FPS, bis ans Limit übertaktet Richtung 2,1 Ghz sollen wohl um die 480 FPS drin sein. Damit liegt Big Navi mit den jetzigen Betatreibern leicht vor TU 102 was die absolute Raytracing Leistung angeht, der prozentuale Einbruch vs. RT-off ist aber etwas größer laut Igors Test in Port Royal. Mit Treiberoptimierungen und etwas Glück könnte eine RT-Leistung zwischen TU 102 und GA 102 rauskommen, Tendenz wohl leicht Richtung Turing. Würde die Erwartungen einiger dennoch weit übertreffen und wäre für die erste Generation von AMD ziemlich gut.
 

Kuanor

PC-Selbstbauer(in)
Die Grafikleistung nur an Raytraycing und DLSS bzw. dem Gegenstück von AMD welches noch kommt ablesen zu wollen ist Blödsinn. Beides muss erst mal alles in ein Spiel implementiert werden. Dann muss es auch funktionieren.
Bisher gibt es nicht sehr viele Games mit Raytraycing und das wird sich wohl auch nicht so schnell ändern.

Ich finde AMD hat sich einen Gefallen getan sich erst mal nur auf die wichtigen Kerne bei den Grafikkarten zu konzentrieren. Mit RDNA3 werden wir dann wieder verbessertes Masterial sehen. Bis dahin werde ich wohl noch ohne Raytraycing auskommen können.


Derzeit wird wohl eher die Treibersituation entscheiden wie gut oder schlecht die Grafikkarten funktionieren. Hoffe mal das AMD da besser wird als in den letzten Jahren.


Mfg Kuanor
 

sandworm

Freizeitschrauber(in)
Der Punkt ist, dass man mit DLSS die Auflösung unglaublich effektiv aufblasen kann. 720p auf 4K hochgerechnet sieht dann plötzlich extrem gut aus. Zwar kommt es nicht an echtes 4K ran, Full HD schlägt es jedoch locker und gurkt subjektiv wohl irgendwo bei WQHD herum

Deshalb ist es so unglaublich wichtig, für mich die wichtigste Neuerung der letzten 10 Jahre.

Solange AMD nichts gleichwertiges hat, ist das eben ein massives Manko.
Kommt ja anscheinend im Frühjahr 2021
Ich tipp mal zu zusammen mit der 6700 / 6700XT also nur noch etwas Geduld.
 

Pu244

Lötkolbengott/-göttin
Kommt ja anscheinend im Frühjahr 2021
Ich tipp mal zu zusammen mit der 6700 / 6700XT also nur noch etwas Geduld.

Das ist eben die Frage, AMD(ATI) hat ja in der Vergangenheit die Leute durchaus erst hingehalten und dann die Dinge einfach gestrichen. Bei Vega war es TBR, bei der X800er Serie CF und auch der Wundertreiber für den Bulldozer ist mir negativ in Erinnerung geblieben.

Dann ist noch die Frage, wie gut das ganze ist, sowohl von der Qualität, als auch von der Geschwindigkeit. Nvidia hat ja da den Vorteil der Tensorkerne, die sowieso (sonst nutzlos) verfügbar sind, AMD muß das ganze wohl über die Shader machen.

Bei Nvidia ist die Frage, ob sich DLSS durchsetzen kann.
 

Nebulus07

Freizeitschrauber(in)
Der Punkt ist, dass man mit DLSS die Auflösung unglaublich effektiv aufblasen kann. 720p auf 4K hochgerechnet sieht dann plötzlich extrem gut aus. Zwar kommt es nicht an echtes 4K ran, Full HD schlägt es jedoch locker und gurkt subjektiv wohl irgendwo bei WQHD herum

Deshalb ist es so unglaublich wichtig, für mich die wichtigste Neuerung der letzten 10 Jahre.

Solange AMD nichts gleichwertiges hat, ist das eben ein massives Manko.
Dann lieber direkt in 4k... Oder bald 8k spielen, dann hat sich DSLSSL bald erledigt.
 

ChrisMK72

PCGH-Community-Veteran(in)
Das dauert ja noch ewig bis RT gut läuft.

Zumal die Reflexionen teilweise mal schön anzuschauen sind, aber ich finde andere Aspekte des RT viel spannender, wie z.B. global illumination in open world Titeln und da hat das neue Watch Dogs Legion gar nichts zu bieten. Nur für Reflexionen is mir der FPS-Einschnitt zu groß.

Ich kaufe meine Karte auch nach Basisleistung, nicht ob sie schönere Reflexionen beherrscht, die ich im Zweifelsfall für höhere fps und flüssigeres gameplay eh ausschalten würde. :)
Und natürlich für meinen g-sync Monitor.

Und was die Verfügbarkeit der neuen Radeons angeht, muss das erst mal bewiesen werden, dass die besser dastehen, als Ampere.
Würde mich für die AMD Freunde freuen, aber schaun wir mal und warten wir erst mal ab.
Auch weitere Tests.

Nur nicht zu früh ausflippen, vor Freude. ;)
Immer aufm Teppich bleiben.
AMD kocht auch nur mit Wasser.
 
Zuletzt bearbeitet:

dmasiretteb

PC-Selbstbauer(in)
Zumal die Reflexionen teilweise mal schön anzuschauen sind, aber ich finde andere Aspekte des RT viel spannender, wie z.B. global illumination in open world Titeln und da hat das neue Watch Dogs Legion gar nichts zu bieten. Nur für Reflexionen is mir der FPS-Einschnitt zu groß.

Ich kaufe meine Karte auch nach Basisleistung, nicht ob sie schönere Reflexionen beherrscht, die ich im Zweifelsfall für höhere fps und flüssigeres gameplay eh ausschalten würde. :)
Und natürlich für meinen g-sync Monitor.

Und was die Verfügbarkeit der neuen Rafeons angeht, muss das erst mal bewiesen werden, dass die besser dastehen, als Ampere.
Würde mich für die AMD Freunde freuen, aber schaun wir mal und warten wir erst mal ab.
Auch weitere Tests.

Nur nicht zu früh ausflippen, vor Freude. ;)
Immer aufm Teppich bleiben.
AMD kocht auch nur mit Wasser.
Überhaupt, wenn auf einmal in jedem spiel Pfützen sind nur wegen dem xD. Metro hat es gut gemacht.
Der Praktikant hat wieder zugeschlagen...



Mich würde vor allem interessieren, wird CYBERPUNK mit Raytracing auf AMD Karten funktionieren ????
ominös sind alles oder schon mal eine gesehen :devil:
 

Krabonq

Software-Overclocker(in)
Da Raytracing noch längere Zeit nahezu völlig irrelevant bleiben wird, ist diese Leistung absolut in Ordnung.
Ich find es eher ziemlich schade, dass es keine RX 6800 mit nur 12 GB VRAM und ohne RT Möglichkeiten gibt, die dafür wesentlich günstiger ist.
 

mechatronics

Komplett-PC-Käufer(in)
Ich hatte es auch mal getestet mit meiner 2080 in BF5 und muss zu meiner Schande gestehen ich hab den Unterschied im Laufe des Gefechtes nicht einmal bemerkt geschweige denn gesehen.
Bei Warzone hab ich überhaupt keinen Unterschied feststellen könne, außer das die Performance drunter gelitten hat.
Ich bin mir auch irgendwie sicher das die RT Performance in Zukunft noch besser wird da die Konsolen und die RX6000er Reihe sich ja sehr ähnlich sind und die Entwickler gezielt auf diese Technik hin programmieren und optimieren können.
Und selbst wenn, ich denke zusätzlich noch bis RT vollkommen im Massenmarkt bei wirklich spielbaren FPS angekommen ist vergeht noch mindestens eine Generation GPU´s, sowohl bei AMD als auch bei Nvidia.

Ich sehe das genauso. Mich würde mal interessieren, wie sehr die Raytracingkerne die Chipkosten steigern und wie hoch im nicht verwendeten Zustand deren Leistungsaufnahme ist.
Gäbe es aktuell noch Versionen der neuen Karten, die günstiger mit deaktivierten Raytracing wären, dann würde ich sofort diese kaufen.
Ich brauche aktuell kein Raytracing. Denn erstens spiele ich gerne etwas ältere Spiele, die sind nämlich fertig und kosten nur einen Bruchteil, haben allerdings auch kein Raytracing. Zweitens finde ich Raytracing zwar hübsch, aber häufig nimmt man es im Eifer des Gefechtes eh nicht war.
 

Daggy82

Komplett-PC-Aufrüster(in)
Wie damals von 1080p zu 1440p beginnt gerade der Wechsel von 1440p auf 4K.
Naja, da 1080p noch immer der mit großem Abstand verbreitetste Standard ist, sind wir von einem Standard von 1440p noch sehr, sehr weit entfernt. Einfach mal über den Rand eines Computerforums schauen sollte bei so etwas meistens helfen.
Und 4K ist immer noch eine Randerscheinung, auch wenn jeder zweite TV das mittlerweile bietet.
 

ChrisMK72

PCGH-Community-Veteran(in)
Überhaupt, wenn auf einmal in jedem spiel Pfützen sind nur wegen dem xD. Metro hat es gut gemacht

Ja die Zunahme an Pfützen und spiegelnden Flächen in Nvidia-gesponsorten Titeln is ziemlich auffällig. :D

Normal rennt man in Spielen auch einfach nur an Scheiben vorbei und durch Pfützen durch und bleibt nicht stundenlang davor stehen und staunt.

Also Reflexionen finde ich nicht so wichtig wie Lichteffekte durch GI, Schatten und wenn z.B. auch die Farben des Lichts durch Materialien verändert werden und Auswirkungen auf Objekte hat.

Schreibe das als 3080-Besteller. :D

Hab aber eben nur geschaut, ob mir die Basisleistung vs. meine alte Karte für meinen WQHD G-Sync Monitor reicht.
RT/DLSS sehe ich erstmal als nice to have Demo an, die ich auch abschalten kann.
 
Zuletzt bearbeitet:

rumpeLson

Komplett-PC-Aufrüster(in)
25% weniger Leistung als Nvidia wären doch vertretbar. Mal sehen wie groß die Differenz ist, wenn in Spielen nur gewisse Effekte mit Raytracing berechnet werden. Ich könnte mir vorstellen, dass die Differenz dann sogar noch etwas kleiner ausfällt.

Und wer weiß, vielleicht bietet AMD ja treiberseitig die Möglichkeit die Raytracing-Auflösung zu reduzieren. Dann hat man im Zweifel noch die Wahl zwischen guter Optik und besserer Performance bei etwas Bildrauschen / Unschärfe. Ich kann mir eigentlich nicht vorstellen, dass eine halbierte Raytracing-Auflösung zu unbrauchbaren Ergebnissen führt..

So oder so, ich freue mich sehr auf die kommenden Tests :)
 

DKK007

PCGH-Community-Veteran(in)
Boa PCGames es nervt einfach das Ihr immer wieder Gerüchte verteilt ohne verstand und wissen...


So wie Ihr Tagelang behauptet habt, das AMD grad so mit der 3080 mithalten kann, was blieb davon?

Wartet doch einfach ab

AMD kann doch mithalten. Wo ist das Problem?
Schneller geht immer.

Dazu hat AMD die Karten langsamer an die Partner verteilt, um genaue Leaks zu verhindern.
Mich würde vor allem interessieren, wird CYBERPUNK mit Raytracing auf AMD Karten funktionieren ????
Die Frage sollte wohl eher lauten, kommt es noch dieses Jahr raus.
 

DKK007

PCGH-Community-Veteran(in)
Klar, natürlich ist die native Auflösung immer besser. Wenn ich allerdings wählen muß zwischen 1-2 FPS in nativem 4K und 60 FPS 720p auf 4K hochgerechnet, rate mal, was ich da nehmen werde...

Das ist aber falsch, wenn mit den aktuellen Karten auch in UHD mehr als 60 FPS drin sind.
 

Duvar

Kokü-Junkie (m/w)
Hier die wahren Zahlen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Würde so früh noch nicht so viel auf AMDs Resultat geben, aber für den Einstig ins RT Business ist es gar nicht mal so schlecht tbh.
 

owned139

Software-Overclocker(in)
Sowas darf ich mir nicht angucken, sonst steckt am Ende des Jahres ne 6900XT in meinem Rechner :s

Watch Dogs läuft nicht mit RT auf einer 3080 außer man passt an und dann bleibt nicht mehr viel übrig außer man bleibt auf 1080p aber selbst da :ugly: . Wenn es da nicht läuft, wo ist dann der Unterschied? Da machen 20-30% den braten auch nicht mehr fett.

Das dauert ja noch ewig bis RT gut läuft.
Watch Dogs läuft auch ohne RT beschissen. RT ist hier wohl kaum der Übeltäter.
 

Pu244

Lötkolbengott/-göttin
Das ist aber falsch, wenn mit den aktuellen Karten auch in UHD mehr als 60 FPS drin sind.

Früher oder später wird wohl jeder Karte die Puste ausgehen, es sei denn, der Fortschritt stoppt abrupt. Damit ist aber in den nächsten 10-20 Jahren nicht zu rechnen, auch wenn sich der Fortschritt stark verlangsamt. Wenn man dann in der Auflösung heruntergehen muß, dann macht DLSS das ganze wesentlich erträglicher. 1080p sind auf einem 32" Monitor schon grenzwertig, bei 720p kann man den einzelnen Pixeln dann Namen geben (besonders Hans in der Mitte sticht ins Auge).

Deshalb ist DLSS so wichtig.
 

dmasiretteb

PC-Selbstbauer(in)
Sowas darf ich mir nicht angucken, sonst steckt am Ende des Jahres ne 6900XT in meinem Rechner :s


Watch Dogs läuft auch ohne RT beschissen. RT ist hier wohl kaum der Übeltäter.
Ja komme auf die dunkle Seite, sie liefert mehr FPS und verbrät weniger Strom und hat wahrscheinlich mehr OC Headroom.:devil:

Das schon aber wer ein Feature so bewirbt muss, das auch einstecken können. Außerdem habe ich nie gesagt das sie der Übeltäter ist :P Die kleine 6800 wohlgemerkt schlägt die 3090. 579 vs 1500 und nein Kirsche am Arsch kuck dir die anderen benches an der unterschied ist nicht so groß in 1440p. Selbst in Nvidia Kirschen Games :P einer geht noch in DX11 111!!!11!!

Screenshot_2020-10-30 Graphics Gaming Benchmarks.png
 
Oben Unten