AMD Radeon RX 6800 und RX 6800 XT im Test: Die besten Radeon-Grafikkarten aller Zeiten

Ehrlich gesagt ist mir grad die Zeit zu schade dafür, die Recap Videos zum AMD Event von Gamers Nexus, Hardware Unboxed, Moore's Law is dead und anderen durchzusehen - ganz zu schweigen von der Twitter timeline.
Es gibt allerdings auch andere Spiele mit DXR Raytracing, die nicht auf AMD GPUs laufen werden... u.A. Cyberpunk 2077.
Dazu hab ich grad sogar n Video, weil ich es eh momentan sehe:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wir stellen fest:
Du hast keine Quellen.
Und selbst einige der genannten hat keinerlei Infos dazu.
GN hat Minecraft getestet. Nicht eine Silbe von "not supported" oder ähnlicher Wortlaut. Stattdessen Spekulation, dass die Raymenge AMD zu schaffen macht.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

HWUnboxed hat RT zumindest beim Release nicht groß beachtet, beim Event Recap ebenfalls nciht, da die zu dem Zeitpunkt keine RT Daten von AMD hatten.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Und Moores Law is Dead ist mit seinen Spekulationen so seriös wie jeder Nutzer hier im Board der spekuliert.

Cyberpunk soll laut dem Video vorerst nicht laufen. Woran das scheitert, wird aber nicht erläutert. Sieht für mich nach einer Treibergeschichte aus. Glaube kaum das CD Project Red lust hat das Nutzererlebnis durch Grafikfehler oder sehr schlechter Performance zu zerstören. Dafür sind die bisher zu penibel bei ihren Games gewesen.

Im RT Benchmark des PCGH Reviews taucht übrigens auch kein BF5 auf... Da hat DICE schon vor langem gesagt, dass es nicht auf AMD GPUs laufen würde, weil alle Optimierung auf Nvidia ausgerichtet sei - ein DX12 Spiel.

Raff erwähnt BF5 nicht mal im Artikel zur Bestandsaufnahme, welche RT Titel zum Launch der RX6000er auf den AMD Karten laufen.
Schon komisch, wenn es doch so wenige RT Titel gibt und BF5 der erste überhaupt war... nicht mal n Wort drüber...
Komisch im Luxx mit RT getestet. Auf 2080 Niveau und weit Weg von nicht laufen. In Raffs Liste als Kompatibel deklariert. Wie soll man dich bitte ernstnehmen?


Wenn die wirklich alle deine genannte Spiele keinen support haben, warum laufen diese überhaupt und warum kommuniziert AMD das nicht mit den Testern? Es sind knapp 10 Spiele, dass man es anscheinend nicht schafft allen Testern die Kompatibilität aller Spiele zu nennen ist dann einfach nur ein Armutszeugnis.
 
Wenn ich alles mitzähle, das nicht bei 3 auf den Bäumen ist, sind es sogar rund 20 RT-Spiele – das Meiste Unreal-Engine-4-basiert (+diverse Techdemos). :D

MfG
Raff
 
@Khabarak

Erstaunlicher Weise laufen alle DXR Spiele, die vor dem Release von RDNA 2 erschienen sind, nahezu ausnahmlos fehlerfrei auf RDNA 2. Offenbar haben sich die Entwickler alle an die Specs gehalten und nicht direkt die Hardware oder das Vorhanden sein der NVAPI abgefragt (was sie z.B. für DLSS aber müssen!).

Kudos den Entwicklern! Und offenbar hat das Evil NVidia Empire auch bei ihrer Hilfe, die sie den Entwicklern beim EInbau von RT Effekten angedeihen ließen, darauf geachtet, dass diese RT Implementierung in diesen Spielen *nicht* NVidia Exklusiv ist.

Das muss ein ganz widerlicher Komplott des Evil Empires gewesen sein!

Allerdings hatten all diese Entwickler natürlich nie die Chance zu sehen, wie gut ihr Spiel auf RDNA 2 laufen würde. Dagegen hatten die Treiberentwickler von AMD sehr wohl die Möglichkeit, diese Spiele auf ihrem Treiber zu testen. Entsprechend sind alle älteren DXR Spiele ziemlich fehlerfrei: AMD hatte Zeit alle Probleme *im Treiber* zu beheben.

Nur Watch Dogs: Legion ist so neu, dass AMD das offenbar zeitlich nicht mehr hinbekommen hat. (Witzig wie oft es dennoch als Benchmark hergenommen wird, um zu beweisen, dass AMD's RT gar nicht so schlecht ist - wo doch dort jede Menge RT Effekte gar nicht angezeigt werden).

Bei Cyberpunk ist es anders: Das Spiel kommt nach dem Release von RDNA 2 auf den Markt. Sprich: Die Enwtickler sehen genau, dass ihr Spiel auf den aktuellen RDNA 2 Treibern nicht sauber läuft und blockieren das deswegen absichtlich. Ob die Probleme im Spiel oder im Treiber behoben werden müssen (ich gehe vom letzteren aus) ist unerheblich. Aber es ist kein böser Wille sondern nichts anderes als das vermeiden von unzufriedenen und verärgerten Kunden. Nicht mehr und nicht weniger.
Was du nicht mal wieder alles weißt, ohne einen Hauch an Beleg dafür zu haben...
Same procedure as every time.
 
Was du nicht mal wieder alles weißt, ohne einen Hauch an Beleg dafür zu haben...
Same procedure as every time.
Was stimmt denn von meinen Aussagen nicht? Oder welchen Aussagen würdest Du widersprechen weil sie unplausibel sind?

Wo in meinem Beitrag Annahmen sind, ist das klar als solche gekennzeichnet.
 
Zuletzt bearbeitet von einem Moderator:
Hallo zusammen,

ich habe eine AMD Radeon 6800 XT und einen freesyncfähigen TV (Samsung Q90R). Wenn ich aber Freesync aktiviere, dann habe ich teilweise Bildaussetzer und Tearing --> sprich: das Freesync funktioniert nicht wirklich. Wenn ich es ausschalte ist alles wieder in Ordnung (keine Bildaussetzer, aber Tearing). Bei Vsync passt alles. Jetzt habe ich mich aber (unter Anderem) für ne AMD-Grafikkarte entschieden, weil mein Monitor/TV Freesync unterstützt... ist das ein Treiberproblem, das noch iwann gefixt wird, weil die Karte noch so neu ist oder ein anderes?
 
Hallo zusammen,

ich habe eine AMD Radeon 6800 XT und einen freesyncfähigen TV (Samsung Q90R). Wenn ich aber Freesync aktiviere, dann habe ich teilweise Bildaussetzer und Tearing --> sprich: das Freesync funktioniert nicht wirklich. Wenn ich es ausschalte ist alles wieder in Ordnung (keine Bildaussetzer, aber Tearing). Bei Vsync passt alles. Jetzt habe ich mich aber (unter Anderem) für ne AMD-Grafikkarte entschieden, weil mein Monitor/TV Freesync unterstützt... ist das ein Treiberproblem, das noch iwann gefixt wird, weil die Karte noch so neu ist oder ein anderes?
Hi,
probiere am besten hier deine Frage zu klären:
Da sitzen die meisten Besitzer und können dir vielleicht sagen woran das liegt.
Am besten postest du dann auch das komplette System damit man sieht ob der Rest auch passt.
 
Hallo zusammen,

ich habe eine AMD Radeon 6800 XT und einen freesyncfähigen TV (Samsung Q90R). Wenn ich aber Freesync aktiviere, dann habe ich teilweise Bildaussetzer und Tearing --> sprich: das Freesync funktioniert nicht wirklich. Wenn ich es ausschalte ist alles wieder in Ordnung (keine Bildaussetzer, aber Tearing). Bei Vsync passt alles. Jetzt habe ich mich aber (unter Anderem) für ne AMD-Grafikkarte entschieden, weil mein Monitor/TV Freesync unterstützt... ist das ein Treiberproblem, das noch iwann gefixt wird, weil die Karte noch so neu ist oder ein anderes?
Bei Fernseher funktioniert FreeSync oft nur in einem sehr eingeschränkten Bereich.
Von generellen Treiberproblemen damit bei BN hab ich bis jetzt noch nichts gelesen.
 
Wurde das Problem mit dem vollen VRAM Takt bei 144+ Hz Monitoren oder UHD Videos inzw. behoben?
Das hat mich bei meiner alten RX5700XT immer gestört, da wurden 30W im idle von der GraKa verbraten. Die Nvidia hat das Problem nicht.
 
Wurde das Problem mit dem vollen VRAM Takt bei 144+ Hz Monitoren oder UHD Videos inzw. behoben?
Das hat mich bei meiner alten RX5700XT immer gestört, da wurden 30W im idle von der GraKa verbraten. Die Nvidia hat das Problem nicht.
Mulitmonitor ist recht sparsam bei den BN.
Multimedia wohl eher nicht.
Das Problem des Taktes bei 144hz kenne ich bis jetzt nur bei nvidia. Hilft es bei nicht den Desktop auf 120hz zu stellen? Bei mehreren Bildschirmen und bei UHD-Videos wurde es sogar schlimmer. Sieht man in der Tabelle im Test.
-----------------------------------------------6800xt---------6800--------3080------------3070-----------2080---------5700xt-----vega56
Leerlauf (Desktop)8 Watt7 Watt12 Watt10,5 Watt17 Watt11 Watt15 Watt
Dual-Display (UHD + FHD)39 Watt38 Watt21 Watt15 Watt42 Watt41 Watt15,5 Watt
UHD-Youtube-Video49 Watt44 Watt31 Watt17 Watt21 Watt16 Watt26 Watt
 
Das Problem des Taktes bei 144hz kenne ich bis jetzt nur bei nvidia. Hilft es bei nicht den Desktop auf 120hz zu stellen? Bei mehreren Bildschirmen und bei UHD-Videos wurde es sogar schlimmer. Sieht man in der Tabelle im Test.
-----------------------------------------------6800xt---------6800--------3080------------3070-----------2080---------5700xt-----vega56
Leerlauf (Desktop)8 Watt7 Watt12 Watt10,5 Watt17 Watt11 Watt15 Watt
Dual-Display (UHD + FHD)39 Watt38 Watt21 Watt15 Watt42 Watt41 Watt15,5 Watt
UHD-Youtube-Video49 Watt44 Watt31 Watt17 Watt21 Watt16 Watt26 Watt
Mutlimonitor macht bei allen immer wieder Probleme.
Gibt bei AMD als auch Nvidia immer wieder posts und diskussionen.
Bei mir hat aufgrund falscher EInstellungen die 2080 mal eben 50W gesoffen weil die nicht idled. Richtig eingestellt sind es 20-30W
Nvidia soll aber wesentlich robuster in diesem Kontext sein, als AMD die wohl sehr oft Probleme hatten. Wie das über die Breite bei BN wirklich aussieht muss man vermutlich noch abwarten.
 
In Windows war 60Hz statt 144Hz eingestellt. Das mochte meine Karte irgendwie nicht. Die 1060 davor hatte damit keine Probleme.
Sind 1x WQHD 144Hz Gsync Monitor und 60 HZ FHD Monitor. Der 144Hz über DP, der andere über HDMI
 
Und was war das Problem? Dass 60hz anstelle von 144hz eingestellt waren kann es wohl nicht gewesen sein?

PS: nvidia (<- 1080ti) ist hier schon echt gut. 3x UHD bei 139/101mhz. Mit UHD-Video 607/101mhz. Bei meiner AMD 7950 mit 3x 1680*1050 lief VRAM Takt immer auf Maximum und GPU Takt auch sehr hoch und das ohne alles direkt nach dem Windowsstart. Mit sidegrade von 7950 auf 970 hat die Karte bzw das neue Netzteil dann quasi fast nichts mehr gekostet :P
 
Zurück