AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Die kleinere Radeon 6800XT ist insgesamt das bessere Angebot, so wie schon zuvor bei Vega 56 und 64 usw. Business as usual bei AMD...
 
Das Spiel wurde gerade wiederbelebt, großer Overhaul-/Content-Patch. Sind vermutlich gerade mehr Spieler als bei Dirt 5. Nicht immer vom eigenen Geschmack auf den der anderen schließen. :-)

MfG
Raff
Es gibt mit an Sicherheit grenzender Wahrscheinlichkeit auch Games, jene welche tausende "Anhänger" hat in z.B. Chinesischen Internet Cafés oder der Gleichen, die hier aber KEINEN (westlichen) Gamer interessieren !
Nur mal so am Rande … :D

p.s. weißt ja, ein jeder Vergleich hinkt.

MfG Föhn.
 
Interessanter Test der bei mir folgende Fragen für die Zukunft aufwirft:
> Testet Ihr in Zukunft mit und ohne RT?
> Wird es im nächsten Jahr dann 1, 2 oder 4 Test-Läufe geben?

Gerade letzteres:
SAM funktioniert nur AMD CPU + AMD GPU, BAR wird mit Intel CPU + NV GPU funktionieren. Wenn wir mal vom Wurst-Käse-Fall ausgehen das BAR nicht für NV auf AMD CPU's laufen wird, gibt es dann 2 unterschiedliche Testsysteme mit dem Test jeweils SAM/BAR ON/OFF oder sogar 4 bei dem Ihr dann Cross-tauscht? Stelle ich mir als Horror für den Redakteur vor :D
 
LOL :ugly:

1607443087389.png
 
Das ist vielleicht weniger sinnlos als es klingt, wer im Hintergrund ein Musikvideo laufen hat und dann in Ungedanken auf nen YouTube Link klickt möchte vielleicht nicht deswegen nen Absturz riskieren.
Das hat aber mit der visuellen Rauschunterdrückung und komprimierten Daten beim Hochskalieren zu tun und wenn es Bugs gibt kannst die du doch neuerlich sofort melden (hauseigenes Report Bug Tool).

Schlimmer wär es doch es taktet nicht hoch und ruckelt dann. Das dir das nicht zusagt, ok, muss aber kein Bug sein.

Ich erinnere da nur an das HDMI Problem unter Pascal (Blackscreen), still ruht der See.

Und falls du gerne sporadisches Flickern (Bild flackern) unter Spielen sehen willst, ich kann hier gerne ein Video vom meinem RTX2070 Laptop einstellen wenn ich Gsync anstelle, dann wirst du blind. Lösung=keine! Zig Meldungen abgesetzt, das Ding kostete 2500 Euro. Wenden sie sich an ihren OEM, ja der hat keinen Treiber der das fixt.

Hardwarefehler vermutlich...
 
Zuletzt bearbeitet von einem Moderator:
Und du glaubst das dieses Rechenbeispiel irgendeine Relevanz hätte wenn es um unitclustering ginge und verringerter missrate beim VRAM? Die Welt dreht sich weiter und Ersteres hat zukünftig einen besonderen Stellenwert die nächsten Jahre, es kommt also stark darauf=das Cachingmodell an und ja du hast Recht, die 6900 hat bisher keine Vorteile, so wie die 3090 kaum von 24GiB VRAM profitiert. Es kommt eben darauf an...wo. Allein Gamerkarten sind beide nicht.

Das Inferencing profitiert davon, es kommt aber nicht überall zur Anwendung, das stimmt. Bisher...

Deine Verhältnisrechnung ist also so, als würde man einen sticknormalen Taschenrechner mit einem russichen Zählrahmen vergleichen.
Blablabla.

Die 3090 profitiert heute von ihrem VRAM, sofern die Anwendung entsprechend viel benötigt. Siehe z.B. MS Flugsimulator bei entsprechender Auflösung. Die Wette auf die Zukunft, dass der VRAM Anspruch in Zukunft steigen wird ist eigentlich keine Wette, es ist gesetzt. Im Falle von Ampere ist nur die Frage, ob man nicht mit einer 3080 jetzt und einer weiteren Karte in zwei Jahren besser wegkommt, als jetzt gleich Speicher für zwei Generationen zu kaufen (Spoiler: Für die meisten User dürfte das der Fall sein).

Wer hingegen darauf wettet, dass Entwickler irgendwelche Low-Level Anpassungen an ihrer Engine vornehmen, damit ein Exot unter Exoten noch ein bisschen schneller als der preislich deutlich attraktivere, abgespeckte kleine Bruder ist, sollte meines Erachtens lieber Lotto spielen gehen.

Übrigens: Die 6900XT ist eine reine Gaming Karte, denn in puncto Produktivität ist sie gegenüber der 3090 meist abgeschlagen, und nVidia hat halt nunmal CUDA. Für die meisten Profis, selbst jene, die keine optimierten Profitreiber brauchen, ist Big-Navi damit uninteressant.
 
Natürlich ist das Wunschdenken.
Gut der größere Chip mit HBM2 hätte 2 Nachteile: [...]Verfügbarkeit und höhere Produktionskosten. Aber die Produktionskosten zwischen 500mm und 650mm² dürften nicht so unterschiedlich ausfallen (geschätzt 15€), der HBM2E Speicher ist wohl teuer - ja. Aber wir reden hier auch von einem Produkt, das das schnellste im Markt wäre - der Preis sich also auch über 1000€ einpendelt, der Prestigeeffekt wäre da. Kann man ja im Pro-Markt auch super einsetzen.
AMD hats ja mehrfach probiert (Fury, Vega etc). Ich finds halt schade, dass es jetzt, wo man endlich die Architektur hätte, sowie den Vorteil bei der Fertigung, es nicht bis ganz zum Ende gebracht wurde. Nur hypothetisch wäre so eine Grafikkarte 20-30% über der 6900 einzuordnen, bei (dank HBM2 Speicherinterface) vertretbarem Verbrauch. Undervoltingpotential ist dann auch enorm (ähnlich wie bei den Vegas).
Eigentlich war mein Post nur als Spaß gemeint, der keiner Antwort bedurfte, auch wenn ich da zwei valide Punkte eingeflochten habe, die das in der derzeitigen Situation zum Albtraum hätten werden lassen, preislich wie verfügbarkeitstechnisch, aber da du geantwortet hast ...
Warum glaubst du, dass AMD "das ganze jetzt nicht bis zum Ende gebracht hat"? Man darf durchaus annehmen, dass AMDs Designenscheidungen aus ihrer Sicht das Optimum darstellen und eine gute Mischung aus Wirtschaftlichkeit, Profit und Konkurrenzfähigkeit darstellen. Das sich das möglicherweise nicht mit deinen Wunschvorstellungen deckt, ist dagegen ein vollkommen anderes Thema, das (in dieser konkreten Form) auch nicht wirklich für AMD relevant ist.
Und da es zurzeit eh nur zwei Hersteller am Markt gibt, ist das Konsumentenbedürfnis grundlegend in einer schwieigen Situation, denn am Ende läuft es hier aktuell eher auf ein "friss oder stirb" hinaus. Von daher darf man auch durchaus auf einen erfolgreichen Einstieg von Intel in den GPU-Markt hoffen (auch wenn bspw. AMD dabei einn paar Federn lassen wird; wie nVidia absehbar auch). Und wer weiß, vielleicht kommt ja auch Imagination Technologies in den PC-Markt (zurück).

*) Btw ... wenn AMD den Infinity Cache richtig dimensioniert hat, d. h. mittels dem und dem GDDR6 kann ausreichend viel Bandbreite zur Verfügung gestellt werden, sodass die CUs ungehindert arbeiten können, dann würde HBM2 bspw. an den bestehenden Designs überhaupt keinen Mehrwert bieten.
Darüber hinaus kommen min. noch zwei weitere Nachteile hinzu: Der benötigte Interposer kostet eingies und die produkttechnische Skalierung in untere Segemente wird durch HBM2 eingeschränkt, was indirekt weitere Kosten verursacht. Es dürfte durchaus seinen Grund haben, dass nVidia auf HBM2 verzichtet und dass auch Intel sich bzgl. Xe-HPG für GDDR6 entschieden hat (obwohl sie z. T. auch HBM2 für das Datacenter verwenden).
 
JayzTwoCents Test zeigt es deutlich und sagt alles zu der Karte.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
BTW
Vega und VII: da hat man jetzt mal den "fine wine" gesehen.
Heben sich nach wie vor kaum ab von der Konkurrenz und bekommt jetzt wo AMD endlich eine gute Architektur hat ordentlich eine links und rechts geknallt: 2x die Performance der VII, fast 3x die der Vega 64 in verschiedenen Szenarien.

Wer jetzt irgendwie noch VEGA verteidigt... Umgekehrt: wenn AMD schon damals Navi gehabt hätte würde es wohl anders aussehen heute. Schade eigentlich.

Aja bevors wieder gegen Raja Koduri geht - der stieß bei Vega erst spät zum Projekt dazu, bei Navi war er von Anfang an dabei.
 
Blablabla.

Die 3090 profitiert heute von ihrem VRAM, sofern die Anwendung entsprechend viel benötigt. Siehe z.B. MS Flugsimulator bei entsprechender Auflösung. Die Wette auf die Zukunft, dass der VRAM Anspruch in Zukunft steigen wird ist eigentlich keine Wette, es ist gesetzt. Im Falle von Ampere ist nur die Frage, ob man nicht mit einer 3080 jetzt und einer weiteren Karte in zwei Jahren besser wegkommt, als jetzt gleich Speicher für zwei Generationen zu kaufen (Spoiler: Für die meisten User dürfte das der Fall sein).

Wer hingegen darauf wettet, dass Entwickler irgendwelche Low-Level Anpassungen an ihrer Engine vornehmen, damit ein Exot unter Exoten noch ein bisschen schneller als der preislich deutlich attraktivere, abgespeckte kleine Bruder ist, sollte meines Erachtens lieber Lotto spielen gehen.

Übrigens: Die 6900XT ist eine reine Gaming Karte, denn in puncto Produktivität ist sie gegenüber der 3090 meist abgeschlagen, und nVidia hat halt nunmal CUDA. Für die meisten Profis, selbst jene, die keine optimierten Profitreiber brauchen, ist Big-Navi damit uninteressant.
Also du hast keinen Schimmer, und für den Exoten programmieren gerade alle fleißig, weil sie es auch für die Konsole tun.

Eher ist Cude nebenher uninteressant weil closed, aber man kanns sich gerne so auslegen wie man will.

Welchen Vorteil hatte denn die Titan gegenüber einer ti, beide Gx102? Erstere war in Spielen oft langsamer weil sie nicht so hoch boostete und das ist nicht neu.

Die Recheneinheiten bei gleichem Powerbuget auszulasten, wenn du mehr davon versorgen musst ist nicht bedeutungslos, wenn sie aber rechnen können und das Buget nicht auslasten um so besser.
 

Anhänge

  • US20200293445A1.pdf
    237,8 KB · Aufrufe: 18
Welchen Vorteil hatte denn die Titan gegenüber einer ti, beide Gx102? Erstere war in Spielen oft langsamer weil sie nicht so hoch boostete und das ist nicht neu.

10% mehr Shader, die recht gut skaliert haben.
Für 10% mehr Takt out of the Box muss es da aber schon ein sehr gutes Modell und Chip sein.
 
P/L finde ich persönlich sehr schlecht, wer zahlt 1000 Euro für die RT Leistung einer 3070/2080ti?
Kann mir keiner erzählen dass man gerne 1000 Euro + ausgibt und dann nicht neue Technologien wie RT verwenden möchte.
Selbst die Non RT Leistung liegt mit SAM laut Index "nur" auf dem Level einer 3080.
 
Ich sag nur DX9 Titel in 2020 ...

MfG Föhn.
Niceee.
Und welche Spiele sind in der Liste? Dirt 5, AC:V und WD:L. In allen 3 Spielen werden die Ampere Karten nicht ausgelastet und 2 davon sind AMD-Titel. Nimm die raus und deine 6900XT ist nicht mehr so schnell wie ne 3090.

Jay hat solche Spiele mit absicht rausgelassen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gibt wohl auch Spiele in denen die 6900XT von einer 3070 gekillt wird.

Traurig, dass die AMDler schon mit Games kommen, in denen Nvidia ausgebremst wird, damit AMD überhaupt auf Augenhöhe ist :ugly:
 
P/L finde ich persönlich sehr schlecht, wer zahlt 1000 Euro für die RT Leistung einer 3070/2080ti?
Kann mir keiner erzählen dass man gerne 1000 Euro + ausgibt und dann nicht neue Technologien wie RT verwenden möchte.
Selbst die Non RT Leistung liegt mit SAM laut Index "nur" auf dem Level einer 3080.
So, dann erzähle ich dir, dass mich RT momentan nicht ansatzweise interessiert und ich ich dennoch bereit bin, mir eine 6900 XT zu kaufen. Schau mal in den Test von Computerbase rein. Die RT Performance ist mir bei allen Karten nocht nicht ausreichend genug, als dass ich das Feature interessant fände.
 
So, dann erzähle ich dir, dass mich RT momentan nicht ansatzweise interessiert und ich ich dennoch bereit bin, mir eine 6900 XT zu kaufen. Schau mal in den Test von Computerbase rein. Die RT Performance ist mir bei allen Karten nocht nicht ausreichend genug, als dass ich das Feature interessant fände.
Was wäre den ausreichend?
Ich kann in Control z.Bsp. problemlos in UWQHD und DLSS mit allen RT Einstellungen spielen und habe minimum 80 Frames.
Mir reicht das...

Mir wäre es zu schade, RT sieht klasse aus, und 1000 Euro und mehr für eine Grafikkarte auszugeben die das kaum kann wäre es mir nicht wert.
 
JayzTwoCents Test zeigt es deutlich und sagt alles zu der Karte.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Da hält dieser "professionelle Reviewer" und "Enthusiast" eine 6900XT in der Hand und kommt nicht auf die vollkommen offensichtliche Idee, das OC-Potential dieser angeblich bestens gebinnten Karte abzuklopfen? Er könnte das einzig Richtige tun und diese Karte so jemandem wie der8auer schicken.
 
Was wäre den ausreichend?
Ich kann in Control z.Bsp. problemlos in UWQHD und DLSS mit allen RT Einstellungen spielen und habe minimum 80 Frames.
Mir reicht das...

Mir wäre es zu schade, RT sieht klasse aus, und 1000 Euro und mehr für eine Grafikkarte auszugeben die das kaum kann wäre es mir nicht wert.
Von UWQHD auf UHD ist noch einmal ein guter Sprung. Da hätte ich dann keine konstanten 60 FPS. DLSS ist schön, aber bisher auch kaum verbreitet.

Eigentlich geht es mir auch mehr darum, die Spiele, die ich bereits besitze, endlich vernünftig in 4K spielen zu können. :D
 
Zurück