AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

In den Regionen mit Preis/Performance zu kommen ist doch Käse.

Die 3090 und die 6900 sind Karten die da sind weil es das schnellste ist was es gerade gibt. Ob die 1000 oder 2000 oder 3000€ kosten spielt quasi gar keine Rolle. Hier zahlt man nicht das bisschen Mehr an Leistung sondern man zahlt "ich hab das Schnellste". Die 6900 ist (von der UVP her) da gradezu günstig.^^
 
-DLSS ist Nvidia Exclusive und "bisher" nur Nötig um RT Leistungsdefiziete auszugleichen für hohe Auflösungen!

DLSS ist einfach nur klasse, ich war früher auch skeptisch, aber das DLSS in Cold War hat mich wirklich überzeugt, so kann man auch mit "nur" einer 2080 Ti mit 130 FPS in 4k im MP spielen, Optik ist fast gleichwertig zu 4k nativ (und immer noch deutlich überlegen gegenüber WQHD) bei doppelten FPS.

In den Regionen mit Preis/Performance zu kommen ist doch Käse.

Die 3090 und die 6900 sind Karten die da sind weil es das schnellste ist was es gerade gibt. Ob die 1000 oder 2000 oder 3000€ kosten spielt quasi gar keine Rolle. Hier zahlt man nicht das bisschen Mehr an Leistung sondern man zahlt "ich hab das Schnellste". Die 6900 ist (von der UVP her) da gradezu günstig.^^

Nur hat man mit einer 6900 nicht das Schnellste, also was sonst außer, dass man AMD "mag" soll der Grund für eine solche Karte sein?
Eine 6800 XT ist die deutlich bessere Karte.
Hätte die 6900 XT wenigstens beispielsweise 32 GB VRAM, aber nein, sie hat 11% mehr Shader, die in der Realität 6% mehr Leistung liefern.
 
Zuletzt bearbeitet:
Die AMD karten schlagen sich wie erwartet sehr gut, DANKE auch, für den AUSFÜHRLICHEN Test. da es aber sowohl NV als auch AMD zu 95% Paper Karten sind, sage ich mal, aus tiefstem herzen:
"Is mir ladde!"
In 2 Tagen wird Cyberpunk 2077 gezockt. Das ist dann zu 100% kein Paper..... :D
 
DLSS ist Nvidia Exclusive und "bisher" nur Nötig um RT Leistungsdefiziete auszugleichen für hohe Auflösungen!
DLSS2.0 sieht halt einfach mal geiler aus als das native Bild, da Nvidia das neuronale Netz mit 16K-Bildmaterial trainiert. :ugly: Sowas fällt auf BigNavi komplett weg. Man kann DLSS2.0 ja haten, ich war auch sehr skeptisch, aber es sagt halt jeder, dass es besser aussieht.
 
Guter Test wie immer, seh ich ähnlich, die 6900 XT reiht sich in die Preissparte ich hab die schnellste des jeweiligen Herstellers ein. Lohnt nur wenn man bereit ist auch den Extended Preis zu zahlen, für ein bisschen mehr.
Die UVP ist OK aber mehr auch nicht, 800-900€ waren vor ein Paar Jahren mal HighEnd Preis!
Wie sich die Zeit ändert, aber die Leute zahlen es ja...
Ich finde die 6800XT zur UVP trifft genau ins Schwarze, wenn sie mal von der Leine weg dürfte, da geht noch mehr!
 
DLSS ist einfach nur klasse, ich früher auch skeptisch, aber das DLSS in Cold War hat mich wirklich überzeugt, so kann man auch mit "nur" einer 2080 Ti mit 130 FPS in 4k im MP spielen, Optik ist fast gleichwertig zu 4k nativ (und immer noch deutlich überlegen gegenüber WQHD) bei doppelten FPS.
Ja das mag stimmen. Der Anwendungsfall endscheidet natürlich klar.

Wofür benötigst du den als Spieler 32GiB VRAM? Sie richtet sich ja an "Spieler" nicht an Prosumer/Proffesionelle Anwender. auch für 1000$ UVP würde dies im Gamingbereich keine 32 oder 24GiB Rechtfertigen auch nicht bei der 3090 die nochmal 500$ mehr kostet aber fast nix mehr kann als die 3080 für die Hälfte

Aber wie gesagt für den UVP Preis ist die 6900XT fast etwas Überflüssig. Weil ja quasi kein realer Vorteil besteht zum 500-800€ Preisbereich beider Firmen
 
Das positive ist, es gibt endlich mal wieder halbwegs Konkurrenz im High End Bereich.
Das Negative ist, dass die Nvidia Karten wie so häufig besser sind und selbst eine 3070 ohne DLSS ausreicht um an die DXR Leistung der besten AMD Karte heranzukommen.

4% hinter der 3080 ist allerdings wesentlich schwächer als ich erwartet habe.
Berücksichtigt man mehrere Tests ist der Gegner eindeutig die 3080, wo man +- auch herauskommt.
3090 ist meistens 8 bis 10% schneller.
 
DLSS2.0 sieht halt einfach mal geiler aus als das native Bild, da Nvidia das neuronale Netz mit 16K-Bildmaterial trainiert. :ugly: Sowas fällt auf BigNavi komplett weg. Man kann DLSS2.0 ja haten, ich war auch sehr skeptisch, aber es sagt halt jeder, dass es besser aussieht.
Fällt es nicht, Quatsch und FUD Infos. Sie kommen mit DirectML in Form von fidelityFX und Superresolution wenn Microsoft das freigibt, weil das von denen stammt (denke mal bevor das nicht auf Konsolen freigegeben wird, wird auch RDNA2 es nicht unterstützen können). Und DLSS sieht nicht in jedem Fall besser aus als ativ, es kann aber bestimmte Bildbereiche detaillierter aussehen lassen (dabei geht es immer um direkte Vergleiche mit anderen Bildglättungsalgorithmen wie TAA , darauf bezog sich auch Nvidia jedesmal), wenn man Abstriche beim Gesamtauflösungsverhältnis und damit der Pixelanzahl in Kauf nimmt. Letztlich hat es Nvidia nur dazu benutzt, um RT irgendwie lauffähig zu machen und da sprechen wir von hauptsächlich 60fps@1080p. Also selbst :ugly:...

Und hier gibt es eine komplette Dokumentation anderer Standards... https://rocmdocs.amd.com/en/latest/

DirectML kann Tensor dabei deutlicher beschleunigen als CUDA DLSS und daran ist Nvidia gleichfalls recht interessiert.
 
Zuletzt bearbeitet von einem Moderator:
DLSS2.0 sieht halt einfach mal geiler aus als das native Bild, da Nvidia das neuronale Netz mit 16K-Bildmaterial trainiert. :ugly: Sowas fällt auf BigNavi komplett weg. Man kann DLSS2.0 ja haten, ich war auch sehr skeptisch, aber es sagt halt jeder, dass es besser aussieht.

Ich "hate" es nicht ich sehe es lediglich Distanziert. Es kommt einfach nicht für jeden in frage.
Mag ja sein das es für manche einen Realen Vorteil bringt. Aber bisher ist das Hauptaugenmerk von DLSS die mäßige RT Leistung zu glätten auch wenn es nicht "nur" dafür angewandt werden kann. Man spart halt GPU Power weil man in einer geringeren Auflösung zockt, und Stattdessen Details dazu Streamt.
Ich schaue nicht was etwas sein will, sondern zuerst was es im Kern ist.
 
Ja das mag stimmen. Der Anwendungsfall endscheidet natürlich klar.

Wofür benötigst du den als Spieler 32GiB VRAM? Sie richtet sich ja an "Spieler" nicht an Prosumer/Proffesionelle Anwender. auch für 1000$ UVP würde dies im Gamingbereich keine 32 oder 24GiB Rechtfertigen auch nicht bei der 3090 die nochmal 500$ mehr kostet aber fast nix mehr kann als die 3080 für die Hälfte

Aber wie gesagt für den UVP Preis ist die 6900XT fast etwas Überflüssig. Weil ja quasi kein realer Vorteil besteht zum 500-800€ Preisbereich beider Firmen

Es geht ja hier überhaupt nicht mehr ums benötigen, das P/L Verhältnis ist für Spieler eine absolute Katastrophe, da ist es dann wenigstens nett etwas "besonderes" zu haben.
Eine 3090 kann man für den professionellen Bereich rechtfertigen, eine 6900 XT nicht mal dafür. Da wird sie von einer 3080 vermöbelt sobald die Berechnungen FP32 lastig ist, da retten ihr die 16 GB VRAM nicht den Hals und falls mehr VRAM notwendig ist, ist die 3090 die richtige Karte dafür, eben genau das was die Titan war, nur dieses Jahr für einen deutlich niedrigeren Preis.
Ich bleibe dabei ich, sehe keinen Sinn in der 6900 XT, zumindest solange einem die Marke egal ist ;) .
 
Fällt es nicht, Quatsch und FUD Infos.
Bin mir gerade recht sicher,dass du den FUD verbreitest.
Hab mehrere Spiele mit DLSS 2.0 durch und die Qualität entspricht der nativen Auflösung, definitiv und ist teilweise sogar drüber.

Und apropos nicht lauffähig. Im Gegensatz zum bisherigen AMD Ansatz ist RT + DLSS einfach doppelt so performant.
Da darf man auch ein wenig mehr für die Nvidia Lösung bezahlen. Obwohl, selbst die 3080 ist ja auf dem Niveau der 6900XT bei Raster workloads. Irgendwie geht die AMD Preisvorstellung nicht so recht auf und an der Stelle darf man sich auch langsam mal fragen wo zum Teufel die Preiskritiker geblieben sind.

1000 Euro soll man latzen, für gerade mal so 3080 Leistung, mit RT + DLSS weit drunter und die 3080Ti steht mit 20GB für 999 schon in den Startlöchern, noch dazu sind die AMD Karten im Gegensatz zu den Nvidia Karten quasi nicht lieferbar. Irgendwie alles nicht so toll wie kolportiert und erhofft.

Eventuell ist auch das der Grund warum die Tests kaum Klicks abwerfen.
6% mehr Leistung, 350 Dollar Aufreis, RT Leistung ohne DLSS einer 3070 für den doppelten Preis.
Alles nicht so doll was.:lol:

Selbst mit einer RTX 2060 ist man inkl DLSS in den RT Games noch auf Augenhöhe.
 
Zuletzt bearbeitet:
Ich sage es ja ungerne. Aber: die Karte ist überflüssig!

Wie schon im Artikel und in einigen Kommentaren hier erwähnt: da kann man gleich die RX 6800 oder RTX 3080 nehmen. Der Aufpreis lohnt sich nicht. Man bekommt ja nicht mal mehr Speicher wie bei der RTX 3090.
 
Ich sage es ja ungerne. Aber: die Karte ist überflüssig!

Wie schon im Artikel und in einigen Kommentaren hier erwähnt: da kann man gleich die RX 6800 oder RTX 3080 nehmen. Der Aufpreis lohnt sich nicht.
Jep, ist ne Karte für Fans, die nix mit Preis-Leistung am Hut haben, aber das war doch klar.
Man bekommt ja nicht mal mehr Speicher wie bei der RTX 3090.
Ja, das ist tatsächlich etwas bitter. Auch, dass die Karte von außen nicht von einer RX6800XT zu unterseiden ist. Bei NV bekommt man wenigstens einen Monsterkühler (bei der FE) und 2,4x mehr VRAM, sowie in allen Bereichen mehr Leistung und NV-Link (ok, unnötig). Bei AMD nur 6% mehr Rohleistung und das war's dann. Bisschen traurig für soviel Geld.
 
die 3080 ist der Sieger und wenn die 3080ti kommt hat AMD eh verloren...
Ich wollte nicht so lange warten und hab ne 3090 die ist schon geil... lauft mit fast 2.1 GH
 
Bin mir gerade recht sicher,dass du den FUD verbreitest.
Hab mehrere Spiele mit DLSS 2.0 durch und die Qualität entspricht der nativen Auflösung, definitiv und ist teilweise sogar drüber.
Ich bin mir gerade recht sicher das du träumst. Die Testergebnisse sahen auch auf PCGH zuweilen völlig anders aus. Man hofft auf DLSSv3.0. Das wird dann DirectML mit einem Nvidia Marketingnamen, so wie bei AMD. Die machen also absolut nichts besser und oder könnten es besser.

Ich habe es heute schon geschrieben, wo AMD teilweise schneller rasterziert ist das absofort nicht mehr wichtig, weil ja alle Spiele nur noch raytraced werden. Teuer, schwer, riesig (kaum in Gehäuse passend) und hohe Leistungsaufnahme (damit neue Netzteile fordernd) ist nunmehr wichtiger. Nicht mehr Effizienz, Auflösung und Austattung bei verhältnismäßigem Preis (da bekleckern sich beide bei derzeitiger Marktsituation nicht gerade mit Ruhm) und Systemkompatiblität in den Abmaßen bei fast gleicher Leistung und silent, war aber völlig klar auf einer Plattform wie dieser. Früher waren das übrigens genau die Argumente der Nvidia Fanbase, die AMD nie erfüllen konnte.

Wenn AMD sich derer annimmt und sogar mal vorne liegt sind sie obsolet, ja genau.
 
Zuletzt bearbeitet von einem Moderator:
[...] Ich bleibe dabei ich, sehe keinen Sinn in der 6900 XT, zumindest solange einem die Marke egal ist ;) .
Etwas ernüchternd ist es schon, da es ansonsten die gleiche Karte ist, ebenfalls die exakt gleichen 16 GiB und der PCGH-Index ggü. der RX 6800 XT gerade mal gemittelt +6 % auswirft, wärend die MSRP mal eben +350 US$/€ höher liegt. Hier lässt AMD sich den Vollausbau durchaus gut bezahlen oder aber AMD quersubventioniert den Salvage-Chip, weil man ansonsten die 649 US$ der RX 6800 XT nicht hätte anbieten können um die RTX 3080 FE zu unterbieten, wer weiß?
Derzeit aber eh egal bei den Mondpreisen ... und eine kleiner Abstecher nach Absurdistan: Händler A. listet bspw. eine SAPPHIRE Radeon RX 6800 XT OC NITRO+ für schlappe 999 € ... aber bevor da wer jetzt in den saueren Apfel beißen möchte: "Liefertermin unbekannt". Demgegenüber Händler M., der um 15:20 Uhr zumindest noch vier unterschiedliche RX 6800 als lieferbar listete, hat mittlerweile seinen Shop sowie selbst die Menüeinträge soweit wieder entfernt, sodass dort aktuell keine einzige RX 6000 geordert werden kann. Vielleicht sollte man Frank Azor mal bitten allen "geprellten" Fans eine 10-Dollar-Note zu überweisen?

Wo sind die Tensor Cores in den AMD Beschleunigern? Oder wird da einfach FP16/8 genutzt?
Als Erklärung: AMD kann ML-Berechnungen tatsächlich über die normale FP16 oder INT8-Funktionalität abwickeln, d. h. einer Implementation von DirectML steht nichts im Wege. Das API dient eh nur dazu eine universelle Schnittstelle für derartige Workloads bereitzustellen. Die Nutzung der jeweiligen Funktionseinheiten wird dann mithilfe des jeweiligen Grafiktreibers auf die optimale Einheit verteilt. (Genaugenommen kann DirectML-Code selbst auf der CPU laufen.) Wird ein DirectML-Shaderprogramm auf einer RDNA(2)-GPU ausgeführt, müssen hier die normalen SPs ran, ebenso wie auf Pascal-GPUs, kommt dagegen eine Turing- oder Ampere-GPU als Unterbau zum Einsatz, wird hier die Hauptlast des Workloads auf die Tensor Cores verlagert.
Vorteil der Tensor Cores ist schlicht, dass die ein gutes Stück leistungsfähiger sind, was sich darin ausdrücken kann, dass ein derartiger PostPro-Durchlauf auf einer AMD-Karte vielleicht 2,5 ms/Frame in Anspruch nimmt, während der gleiche Code auf der NV-Karte vielleicht in 1,5 ms oder weniger durchläuft.

*) Beispielsweise die erste Beta-Implementation von DLSS 2.0 (auf einem id-Titel, wenn ich mich recht erinnere) wurde auf Turing noch über die nomalen CUDA-Cores (also die SPs) realisiert. Erst die finale Implementation wurde auf die Tensor Cores verlagert.

**) AMD gibt die RX 6900XT mit 46 TFlops FP16 an. In einem für ML relevanten Workload erzielt eine RTX 3090 jedoch 285 TFlops. Selbst die RTX 3060 Ti ist mit etwa 130 TFlops diesbezüglich noch deutlich leistungsfähiger, d. h. hier kann man also deutlich mehr erwarten. (Auch bei INT8 hat eine 3090 nahezu den sechsfachen Durchsatz i. V. z. einer 6900 XT bei ML-Workloads.)
 
Zuletzt bearbeitet:
Zurück