AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

JayzTwoCents Test zeigt es deutlich und sagt alles zu der Karte.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Und warum würde man sich diesen Pseudoreviewer antun, wenn hier ein ordentlicher, geschriebener Test vorliegt und notfalls auch noch der von CB im Vergleich?
 
Kommt drauf an ob wir noch von "zivilen" reden (wenn dun Supercar deiner Wahl kaufst kaufst hat dieses den durchaus) oder von hart kompetitiven - aber selbst letztere haben nen sauberen ruhigen Leerlauf, der ist nur halt ziemlich hoch. :haha:

Aber wie gesagt das Argument ist ja ein anderes. Es geht mir auch wie manche unterstellen nicht um das Luxusproblem der 20W Verbrauch mehr bei Youtube. Natürlich ists keine Kostenfrage wenn man sich ne 1000€-Grafikkarte leisten kann. Es geht mir einfach ums Prinzuip, dass ne Weltfirms derart high-tech Technologien und Innvolationen bringt und dann über Jahre nicht in der Lage ist, was wirklich Grundlegendes halbwegs vernünftig hinzubekommen was seit gefühlten 20 Jahren einfach Stand der Technik ist.

Genauso der häufig vorkommende Bug, dass die Karten Bildflackern verursachen wenn man sich erdreistet, zwei Videos gleichzeitig abzuspielen. Das ist vielleicht weniger sinnlos als es klingt, wer im Hintergrund ein Musikvideo laufen hat und dann in Ungedanken auf nen YouTube Link klickt möchte vielleicht nicht deswegen nen Absturz riskieren.

Das sind alles vielleicht "Luxusprobleme" aber eben auch einfach vermeintlich leicht aus der Welt zu schaffende Kleinigkeiten wo ich einfach erwarte dass sie bei so teurer Hardware nicht auftreten.
Also das mit dem Bildflackern habe ich nicht. Ich habs extra wegen deinem post gerade nochmal mit zwei, drei und vier Videos gleichzeitig getestet, mit Fenster verschieberei, raus und rein tabben in den browser, schließen und Sitzung wiederherstellen... alles ohne Bildprobleme, gezuckele, geflackere, oder sonst was. Bist du sicher dass das an AMD liegt und nicht vielleicht an deinem browser?
Ich nutze hauptsächlich den Waterfox classic 2020.10. und ab und an den Edge chromium. Klappt mit beiden tadellod, wobei der edge beum Fenster verschieben und wieder maximieren das aktive Video für einen winzigen Moment grau hat wirken lassen.
Wenn ich den Treiber manuell abschieße, dann klappt nichts davon richtig und die CPU arbeitet sich schlapp, alles ist verzögert.
 
Eher ist Cude nebenher uninteressant weil closed, aber man kanns sich gerne so auslegen wie man will.
???

CUDA ist ein Standard in der Industrie, weil im Vergleich zu OpenCL deutlich besser dokumentiert und einfacher zu benutzen.
Welchen Vorteil hatte denn die Titan gegenüber einer ti, beide Gx102? Erstere war in Spielen oft langsamer weil sie nicht so hoch boostete und das ist nicht neu.
Die Titan hat sich für Spieler auch nie gegenüber dem Ti Chip gelohnt, es sei denn man brauchte den Speicher.
Also du hast keinen Schimmer, und für den Exoten programmieren gerade alle fleißig, weil sie es auch für die Konsole tun.
Glashaus und so.

Abgesehen davon waren die Konsolen auch schon die letzten 8 Jahre AMD exklusiv, und geholfen hat es nicht wirklich. Aber glaub mal weiter an deine Wolkenschlösser. In der Vergangenheit haben sich "zukünftige Optimierungen" fast nie relevant auf die Performance ausgewirkt. Also vielleicht doch lieber wieder zur Lotterie...
 
Da hält dieser "professionelle Reviewer" und "Enthusiast" eine 6900XT in der Hand und kommt nicht auf die vollkommen offensichtliche Idee, das OC-Potential dieser angeblich bestens gebinnten Karte abzuklopfen? Er könnte das einzig Richtige tun und diese Karte so jemandem wie der8auer schicken.
Video nicht gesehen? Er sagte er testet sie out of the box ohne irgendwas anzupassen, so wie es die meisten User auch tun.
 
Hast Recht, ist echt die falsche Region der 6900XT.
Bei 50 % günstiger als die 3090, bei weniger Verbrauch (300 zu 355 Watt) und besserem OC Potential (bis 3000 MHz).

MfG Föhn.

Hehe, warten wir mal auf den Straßenmarktpreis der 6900XT in einer oder 2 Wochen und vergleichen dann die Preise nochmal.

Bis dahin vergleiche ich UVP, wo die 6900XT zwar P/L für mich mind. so gut (oder auch nicht) da steht wie die 3900RTX, aber die 6800XT und die 3080 das deutlich rundere Paket für Gamer zum faireren Preis darstellen.

Wenn jetzt noch mal alle Karten verfügbar sind für den Preis, dann mache ich mir mal wirklich Gedanken.

Schade nur, dass die 6900XT nicht wirklich das Zeug zur Spitze hat, damit ist Nvidida mit einer möglichen 3080TI nicht mehr so stark unter Zugzwang, wie ich mir das wünschen würde als Konsument.
 
also so wie ich das sehe hab ich mit der 3090 alles richtig gemacht. in 4k und ich zocke nur 4k teilweise über 30% unterschied von raytracing reden wir gar nicht erst.

ach bei uns wurden verlost wer die karte kaufen kann weil es so weinige waren
 
Ok, je nach Spiel ist die 6900XT schneller als die 3090, wobei die UVP 2/3 der 3090 ist. Allgemein gesehen sind diese GPUs aber ja eh nur für die Freaks, die das Allerbeste haben wollen und denen es nicht aufs Geld ankommt. Von der P/L ist die 6800XT aktuell bei AMD am besten. Ich bin gespannt, wann es endlich soweit ist, dass sich die Preise normalisiert haben. Bei all den Hiobsbotschaften kann das aber noch einige Monate dauern.
Super ärgerlich ist, dass AMD wohl nicht mehr direkt nach Deutschland verkauft und Leute somit gezwungen sind die unverschämten Aufpreise der Händler zu zahlen.
 
Also alles wie erwartet: Wer sich wegen Speichermangel o.Ä. keine 3080 zulegen will, greift besser zur 6800XT, da faktisch gleich schnell, deutlich günstiger und in puncto Features identisch. Die, die gute RT-Leistung mit einer zeitgemäßen Speicherausstattung haben wollen, müssen wohl oder übel zur 3090 greifen.
Echt ein Dilemma: Wer das beste haben will, muss sich auch das beste kaufen...
 
Die Karte ist echt nicht schlecht. Aber ich hoffe dennoch auf eine 3080TI mit ähnlich viel Speicher (um beide Karten für mich ins Verhältnis zu setzen. Anhand der Leistung sehe ich die 6900XT auf das derzeitige Gegenangebot von Nvidia ehr im Preisbereich der 3080 leicht drüber. Denn die einzigen allgemeinen Vorteile die ich erkennen kann sind Kühlung und Speicher. Diese stehen einem jeden Interessierten der Niesche "RT Leistung" gegenüber sofern man Wert darauf legt und überhaupt Spiele dafür hat.

Raytracing, DLSS, 3D Bearbeitung in Rendering ?
Und insgesamt im Schnitt langsamer als eine 3090.
8 Gb weniger Speicher.
Echt besser.
-Es ist AMD´s erste RT Generation. Und AMD haben eine ganz andere herangehensweise an RT Darstellung.
-DLSS ist Nvidia Exclusive und "bisher" nur Nötig um RT Leistungsdefiziete auszugleichen für hohe Auflösungen!
Sie ist etwas langsamer kostet Aber auf Offiziell 1/3 Weniger
-24GB Sind auch b ei der 3090 zuviel für den Normalen Enthusiasten User der nur Spielt, Bis Diese benötigt werden sind beide Karten viel zu lahmarschig geworden.
 
Egal ob die Wiedergabe eines (Ultra-HD-)Videos bei Youtube oder der Anschluss eines zweiten Monitors, auch die Radeon RX 6900 XT begegnet der höheren Last mit einer alten Unsitte: Der Speichertakt wird vom Low-Power- auf den Lastzustand hochgefahren, was in deutlich höherer Abwärme und somit Leistungsaufnahme resultiert. Nvidias Geforce-Grafikkarten absolvieren derartige Aufgaben deutlich effizienter. AMD ist das Problem seit Wochen bekannt, ein Treiber-Update soll's (nach wie vor) richten. Warum man hier nicht aus alten Fehlern lernt und damit das unschöne Déjà-vu verhindert, ist uns ein Rätsel.
@PCGH
Haben sie doch seit der 7000er nicht geschafft oder gab es eine Karte die deutlich besser war als die anderen?

Dazu grundsätzlich ein Frage. Wenn ich eine Karte, egal ob AMD oder NV, undervolte und die Lüfter langsamer laufen lasse, der Speicher aber wie oben geschrieben mit Lastzustand läuft und die Lüfter jedoch wegen fehlender Last noch nicht drehen, wäre das nicht sehr schlecht für den Speicher?
 
Grundsätzlich ist es sehr positiv, dass NVIDIA wieder Konkurrenz bekommt. Denn Konkurrenz belebt das Geschäft. Aber grundsätzlich fehlt mir persönlich bei AMD die RTX Tensor Kern Unterstützung und DLSS. Das sind für mich persönlich zwei Technologien, die in immer mehr Spielen Einsatz finden. Wer das einmal gesehen und gespielt hat möchte dies nicht mehr missen. Ich persönlich habe mir die Asus TUF Gaming 3090 OC geholt und bin damit extrem zufrieden. Für mich als Grafikenthusiast gehört diese Grafikkarte mit dieser Konstellation von höchster Power bei extrem leiser Kühlung und höchsten Qualitäten der Materialien (AluKühlkörpern; kein billiger Kunststoff) und mit 6 (!) mehrschichtigen Keramikkondensatoren (MLCC) zu den besten was aktuell verfügbar ist. Aber sicherlich ist das auch alles immer eine Preisleistungsfrage. Das muss immer jeder für sich selber entscheiden. Auch wie viel Geld er für sein Hobby investieren kann und möchte. Schön ist es, dass AMD wieder auf dem Weg ist, NVIDIA tatsächlich Konkurrenz wieder zu machen.
 
Also das mit dem Bildflackern habe ich nicht. Ich habs extra wegen deinem post gerade nochmal mit zwei, drei und vier Videos gleichzeitig getestet, mit Fenster verschieberei, raus und rein tabben in den browser, schließen und Sitzung wiederherstellen... alles ohne Bildprobleme, gezuckele, geflackere, oder sonst was. Bist du sicher dass das an AMD liegt und nicht vielleicht an deinem browser?
Das ist ein Bug der nicht bei jedem vorkommt aber doch anscheinend relativ häufig ist. Ich selbst habe keine RX6000er Karte, die Info stammt aus den weiten des Neulands wo man hier und da von diesem Problem liest.
Das hat aber mit der visuellen Rauschunterdrückung und komprimierten Daten beim Hochskalieren zu tun und wenn es Bugs gibt kannst die du doch neuerlich sofort melden (hauseigenes Report Bug Tool).

Schlimmer wär es doch es taktet nicht hoch und ruckelt dann. Das dir das nicht zusagt, ok, muss aber kein Bug sein.

Ich erinnere da nur an das HDMI Problem unter Pascal (Blackscreen), still ruht der See.

Und falls du gerne sporadisches Flickern (Bild flackern) unter Spielen sehen willst, ich kann hier gerne ein Video vom meinem RTX2070 Laptop einstellen wenn ich Gsync anstelle, dann wirst du blind. Lösung=keine! Zig Meldungen abgesetzt, das Ding kostete 2500 Euro. Wenden sie sich an ihren OEM, ja der hat keinen Treiber der das fixt.
Ja, solche Bugs hat jeder, das ist klar. Nur ists sehr selten so, dass solche Bugs wirklich ALLE Nutzer betreffen (nicht nur die paar G-Sync-auf-Laptop-Leute als Beispiel) und zig Jahre bekannt sind. Das "vRAM taktet voll hoch bei minimaler 2D-Last" hatte ich bereits bei meiner HD4870, das ist 12 Jahre her! Und damals konnte man das Problem als Nutzer selbst lösen indem man "einfach" das BIOS der Karte editiert und den vRAM-Takt des P-States in 2D runtergestellt hat.
Es ist einfach ziemlich unverständliuch für mich, wie man solche Dinge die vermutlich von AMD-Ingenieuren in kürzester zeit behoben werden könnte (wenn son billiger Nutzer-Workaround schon klappt) so lange unbeachtet links liegen lassen kann.
 
Und so endet 2020.

Aufgrund der hohen Nachfrage wird es aber wohl noch Wochen/Monate dauern,
bis die neue Hardware & die neuen Konsolen zu einem vernünftigen Preis lieferbar sind.

Fragt sich nur noch, was ich 2021 als erstes bekommen werde:
Den Covid-19 Impfstoff oder einen Ryzen 5000. :ka:
 
???

CUDA ist ein Standard in der Industrie, weil im Vergleich zu OpenCL deutlich besser dokumentiert und einfacher zu benutzen.
Ja und für rocm gibt es auf dessen Basis eine komplette offene Compilierungsebene dessen Plattform (HIP inklusive Konvertierungbibliothek) Cuda unterstützt. Ich habs schon geschrieben, du hast keinen blassen Schimmer und willst nur....

Der Großteil industrieller Standards basiert auf Linux und nicht Windows, openMP, openCL und Phyton (gcc, blas, fft, rng, sparce usw.) werden unterstützt. Keine Ahnung was du mir sagen willst und RDNA2 wurde so entwickelt das es auf einer breiter Plattformebene also und plattformübergreifend skaliert.

Dich zwingt doch niemand AMD zu kaufen, die sind auf den Gebieten in denen sie sich etablieren können genauso erfolgreich, Hollywood inklusive.

Wäre besser du kommst mit was Greifbarem, als nur mit dem pragmatischen AMD Gehate. Für Entwickler, Spielenentwickler ist das also auch absolut wichtig. Man sieht doch schon heute, das Nvidia den Markt gar nicht allein bedienen kann, weil sie in anderen Bereichen als Gaming deutlicher expandieren.
 
Betrachten wir es doch mal aus diesem Standpunkt:

RTX3080 vs RTX3090 --> 12% schneller, 2,4x mehr VRAM, 114% teurer

RX6800XT vs RX6900XT --> 6% schneller, genau soviel VRAM, 54% teurer

Ganz ehrlich... ist doch relativ ausgeglichen innerhalb der Firmen. Für jedes Prozent Performance innerhalb des Lineups steigt der Preis um ca 9,25%. Bei Nvidia gibts noch massiv viel mehr VRAM und bei AMD nicht, dafür gibt's aber schon bei der günstigeren Karte genug VRAM. Daher sehe ich die RX6800XT als P/L-Gewinner, die RX6900XT allerdings gar nicht, da sie kaum einen Mehrwert hat.

Und im Firmenvergleich:

Angesichts der Tatsache, dass bei BigNavi aktuelle Schlüsseltechnologien (u.a. RT-Cores und DLSS) nicht verfügbar sind und moderne Spiele, die beides unterstützen, dadurch, verglichen mit Ampere, praktisch unspielbar werden (vgl Cyberpunk-Benchmarks), ist es schon okay, dass zB ne RTX3090 deutlich teurer ist, da sie die bessere Karte ist.
 
Zuletzt bearbeitet:
Zurück