AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Haben doch lange genug Zeit gehabt. Da darf man schon erwarten, dass die Spiele ohne Leistungscheats oder schlechterer BQ laufen. Wird man dann sehen, um was es sich handelt.
Jedenfalls kenne ich keine schlechtere RT Implementierung als in Dirt 5, das ist noch schlechter als die Schatten in Tombraider und gut - dafür kostets eben kaum Leistung und dann läuft das auch auf AMD schnell.

Dlls ist doch auch Nvidias Leistungscheat :lol:
 
Haben doch lange genug Zeit gehabt. Da darf man schon erwarten, dass die Spiele ohne Leistungscheats oder schlechterer BQ laufen. Wird man dann sehen, um was es sich handelt.
Haben sie doch auch ausreichend genutzt, weil: effizienter, im Schnitt mehr Speicher und auch schneller, sogar in Titeln wie BFV sind gleich mal vorne, vor der 3090 wenn man Nvidia RT mal weglässt! Zuweilen mit einer Karte die 750 Euro weniger kostet. Ich erkenne dein Problem nicht, wenn du nur auf Raytracing Titel setzen willst schränkst du dich imo ziemlich ein. Da kommen auch dieses Jahr sicher noch genügend die das gar nicht unterstützen oder nur ein dx Gimmick, wie Schatten oder Reflektionen.

Und auch in Shadows of the Tombraider liegen sie ziemlich weit vorn, obwohl dieses Spiel maximal auf Nvidia optimiert wurde, was auch keine Neuigkeit ist.

Erschreckend ist das eher und wie Nvidia mit der Brechstange nun über den Sweetspot auf die Hardware einschlagen muss (wo sie natürlich mit Samsung sicherlich einen kleinen Nachteil zu kompensieren haben, nur war das allein ihre Schuld. Weniger Gier und damit weniger Druck auf Partner...wäre besser gewesen). Das hätte zuletzt auch mehr Gewinne bedeutet, egal ob finanziell oder bei der Leistung.

Vermutlich hätte man dann deutlich höher takten können und verschenkt so einen Großteil der kaufbaren Leistung für Gamer.
 
Zuletzt bearbeitet von einem Moderator:
Vorzeigespiele? COD, Cyberpunk, Control, Metro?

Cod ist kein RT Vorzeigetitel und Cyberpunk muss dem Hype erstmal gerecht werden.
Weder Black Ops noch Modern Warfare überzeugen mit RT, zumal es im MP nur fps frisst ohne einen Vorteil zu bringen. RT mit DLSS sieht in Black Ops nicht wirklich überzeugend aus, ohne DLSS hält meine 3080 nicht die FPS sofern ich RT aktiviere. Ich hab im MP mit den Settings verschiedenes ausprobiert, am besten fahre ich mit RT & DLSS aus.

Wie schon oft geschrieben: RT in schnellen MP Shootern ist einfach nur dämlich. Wenn Black Ops wenigstens die Option bieten würde für Kampagne & MP verschiedene Settings zuzulassen. So war RT leider die meiste Zeit aus weil im Wechsel zwischen MP & SP es einfach vergessen - und nicht bemerkt wurde.

Meine Erfahrungen mit RT sind bislang alles andere als überzeugend.
 
Cod ist kein RT Vorzeigetitel und Cyberpunk muss dem Hype erstmal gerecht werden.
Weder Black Ops noch Modern Warfare überzeugen mit RT, zumal es im MP nur fps frisst ohne einen Vorteil zu bringen. RT mit DLSS sieht in Black Ops nicht wirklich überzeugend aus, ohne DLSS hält meine 3080 nicht die FPS sofern ich RT aktiviere. Ich hab im MP mit den Settings verschiedenes ausprobiert, am besten fahre ich mit RT & DLSS aus.

Wie schon oft geschrieben: RT in schnellen MP Shootern ist einfach nur dämlich. Wenn Black Ops wenigstens die Option bieten würde für Kampagne & MP verschiedene Settings zuzulassen. So war RT leider die meiste Zeit aus weil im Wechsel zwischen MP & SP es einfach vergessen - und nicht bemerkt wurde.

Meine Erfahrungen mit RT sind bislang alles andere als überzeugend.
Auf dem PC lässt sich das noch aushalten, viel schlimmer ist es auf dem Laptop, wo man nur annehmen kann das die Optimierung mit bestimmten Device Nr aufhört, ob ich DLSS da anschalte oder nicht, merkt man bei der Framerate kaum einen Unterschied, nur das Bild wird merklich Matsch (nativ 1080p@144Hz IPS@Gsync)

Es fehlt also an der Optimierung für alle, was klar aufzeigt das dies eine reine Baustelle zu sein scheint, die Nvidia da immer noch betreibt und wer am lautesten auf reddit schreit, der wird als Erstes bedient.

Das geht soweit, das ich in SotTB statt auf DLSS/RTX auf AMD fidelityFX+Sharpening umschalte und dort mit ca. 80-85% Resolution das bessere Bild erhalte, bei annehmbarer Leistung (70-90fps, medium bis high), das ist eine Katastrophe.:ugly:
 
Und was soll jetzt bei Nvdiia anders ein, die 3090 ist ganze 10% schneller kostet aber doppelt so viel, das ist dann gerechtfertigt. AMD verlangt für 6% ca. 300 $/Euro Aufschlag, Nvidia für weitere +4% nochmals 400?

Bei der schlechten Yield geht es Nvidia übrigens genauso, die werden fleißig vollwertige GA102 verwursten auf der 3080 und subvensionieren die Bruttomarge gegen, denke mal das ist Absicht. Titan hätte da die meisten bei Preisen ü2K abgeschreckt.

Für die Händlerpreise kann kein Nvdidia oder AMD etwas, der freie Handel wird durch die Hersteller nicht reguliert und darf es auch nicht. Das würde in beiden Fällen zu Strafzahlungen in der EU führen.
Ersten habe ich zu dem Thema (bisher hier) keinerlei Aussage getroffen, aber interessant dass du einen derartigen Beißreflex an den Tag legst und dich gleich gezwungen siehst hier etwas zu verteidigen, das so von mir gar nicht thematisiert wurde. Um so mehr interessant, als dass du vorhin einem anderen User unterstelltest ein AMD-Hater zu sein, während du dich gerade über den Verlauf deiner letzten Posts in diesem Thread hier eher als extremer AMD-Fanboy outest.

Um auf deinen Post zu antworten:
Bei nVidia sieht es natürlich nicht besser aus bzgl. der relativen Positionierung der beiden HighEnd-Karten. Darüber hinaus bietet nVidia aber mehr als AMD, wie schon von einigen zuvor geschrieben wurde und die 3090 bietet zudem auch zusäützlich ein beträchtliches Speicherplus und auch NVLink.
Darüber hianus lohnt sich die Karte zumindest m. M. n. aber nur für den (semi-)professionellen Einsatz, denn zumindest ich wäre nicht bereit für die paar Fps mehr derart viel Geld zusätzlich zu bezahlen (die aktuelle Teuerung mal noch vollkommen außen vor gelassen).
Dein Yield-Statement ist übrigs völliger Unsinn. Entweder weißt du nicht wovon du redest oder hast hier im best case nur was verdreht. Wenn nVidia tatsächlich mit Yield-Problemen zu kämpfen hat wird das eher bedeuten, dass die mehr teildefekte Chips produzieren als ihnen lieb ist und nicht etwa umgekehrt. Die stellenweise gesehene Verfügbarkeit von 3090er, während man keine 3080er finden konnte, liegt wohl eher daran, dass erstgenannte ein ganz anderes Preissegment aufspannt und die Nachfrage hier deutlich geringer ist, insbesondere wenn man bedenkt, dass die günstigste 3090er bei MF gerade bei 1779 € startet. Darüber hinaus scheint AMD aber die weitaus größeren Probleme zu haben als nVidia. Beispielsweise MF hat gerade 3060 Ti, 3070, 3080 und 3090 lagernd (wahrs. jedoch nicht lange), dagegen von AMD gibt es derzeit keine einzige RX 6000 GPU zu kaufen

Bevor du jetzt versuchst eine Petition für eine Heiligsprechung von L.Su an den Vatikan aufzusetzen ... trink dir noch einen Kaffee und komm' erst mal runter. Die Karten sind gut geworden, aber ebensowenig sind sie die Überflieger geworden (die einige Fans postuliert haben) und AMD hat hier und da immer noch das Nachsehen trotz leicht modernerem Fertigungsprozess und sie machen das was sie immer machen in diesem Fall: Mehr Features (in diesem Fall, weil man nicht allzu viel anzubieten hat schlicht mehr VRAM) und darüber hinaus einen niedrigeren Preis.
AMD kocht auch nur mit Wasser und das bedeutet sie sind weder die Heilsbringer noch in irgend einer Art selbstlos o. ä., sondern lediglich ein gewinn/profitorientiertes Großunternehmen, wie die vielfach kritisierten Konkurrenten auch. Im richtigen Moment kann man da als Konsument seinen Vorteil draus ziehen, aber übertreiben sollte man es nicht und von der Glorifizierungs-Wolke-7 wieder runterkommen.
Wer mit Raytracing auch absehbar die nächste Zeit nichts anfangen kann und (bei den kleineren Modellen) möglicherweiese auch kein 4K ins Auge fasst, fährt mit RDNA2 aufgrund des zwangsweise besseren P/L-Verhältnisses besser, alle anderen müssen dagegen abwägen, welche zusätzlichen Features ihnen der Aufpreis bei NV wert sind und Grüde dafür gibt es durchaus. Die sind ebenso legitim, wie zu einer RDNA2-Karte zu greifen.

*) Darüber hinaus, weil ich das hier schon vielfach las: RDNA2, Konsolen und Optimierung
Davon sollte man sich nicht zu viel versprechen. In erster Linie wird das dazu beitragen, dass man mehr Optimierungen finden wird, die vielleicht implizit von den Konsolen übernommen werden. Darüber hinaus wird das NV aber nicht benachteiligen, bzw. man kann sich weiterhin sicher sein, dass auf dem PC eher für NV optimiert wird, da NV hier nun einmal GPU-technisch den Markt dominiert und auch gesichert noch für längere Zeit tun wird.
Tendenziell würde ich eher vermuten, dass der Trend dazu führen wird, dass man Konsolenports eher unverändert übernimmt (und damit einiges RDNA2-PC-Potential vielleicht ungenutzt lässt) und dafür die Optimierungsarbeit für den PC in NV-Hardware stecken wird, die derzeit gut 3/4 des Marktes ausmacht.
Den Punkt Marktführerschaft kann man jetzt so oder so betrachten. Vereinzelt wird aber auch das ein Punkt für so manchen Konsumenten bei der Kaufentscheidung sein, denn es ist schlicht wahrscheinlicher, dass das zukünftige Triple-A-Lieblingsspiel eher hochgradig auf nVidia als auf AMD optimiert sein wird. Bis AMD da wesentliche Marktänderungen herbeiführen kann (wenn ihnen das längerfristig überhaupot gelingen wird?), werden noch Jahre vergehen.
 
Zuletzt bearbeitet:
Oh man, ja genau.:ugly:

Deshalb beschleunigt es Kepler....und GCN1 GPUs, woher stammt dieser ganze Stuss hier eigentlich?

Cuda irgendwo zu sehen?

Heute ist wieder Märchenstunde bei bestimmten Leutchen.
Ich finds leider nicht mehr aber gibt von MS ein Video auf YT, wo sie erwähnen wie ihre ersten Schritte Richtung DirectML aussah und der Typ sagt selbst, dass ihr eigenes Model zu langsam war und sie von Nvidia Hilfe bekommen haben.
 
Ich finde RT auch absolut nicht überzeugend, sieht dann alles so überzogen glänzend aus, zum jetzigen Zeitpunkt nicht das, was man unbedingt braucht. Erst wenn man all die "Hilfsmittel" abschaltet sieht man die wahre Leistung der GPUs. So wie PCGH auch schreibt, sehen wir nur eine Hybridvariante von RTX, echtes RTX, vielleicht mal in 10+ Jahren. Da müssen die Grakas extrem viel mehr Leisten können. Der Sprung von Turing zu Ampere ist für mich Persönlich langweilig. Meine 2080 Ti unter Wasser ist ca. 20 Prozent von einer 3090 entfernt, also gibts leider weiterhin nix lohnenswertes zu kaufen um Aufzurüsten (RT und Dlls interessiert mich nicht). Hatte mich auf ne neue Ti gefreut, aber das wird dann wohl erst die nächste Generation. Und eine echte 4K Graka, die alle Titel, mit weit über 60 FPS schafft, gibst weiterhin auch nicht.
 
Es gibt ca. 0 Gründe DLSS ohne RT einzuschalten. Ich hab keine FPS Drops sondern der Verlauf ist stabil, es sieht gut aus - was will ich mehr?

Ohne DLSS 60-70 mit 130 = flüssiger und damit extrem relevant für MP Spiele, da kann man nicht mal drüber diskutieren.
DLSS ist völlig unabhängig von RT immer top, insofern gut umgesetzt und das ist es ohne jede Frage in Cold War.
 
Ich finds leider nicht mehr aber gibt von MS ein Video auf YT, wo sie erwähnen wie ihre ersten Schritte Richtung DirectML aussah und der Typ sagt selbst, dass ihr eigenes Model zu langsam war und sie von Nvidia Hilfe bekommen haben.
Das kann nicht stimmen, weil DLSS eine Vorform von DirectML ist und ML das direkte Gegenstück dazu, also Konkurrenz. Nvidia wäre ziemlich dumm das so zu machen. Denke das trifft eher auf DXR zu, wo man zu allererst Nvidia berücksichtigte, in direkter Hardwarebeschleunigung (llv). Der Softwarestack und damit Emulation ist langsamer, das stimmt. Man kann BVH für ein Direct Volume Rendering (Echtzeit) bisher nicht komplett in Software und ausreichend beschleunigen. Der Leistungszugewinn für bestimmte Cores liegt bei dem 13-fachen. Das liegt derzeit an der Hierachie und den Datenstrukturen.

Das Problem ist das RT in bestimmten Varianten auf die Primärstruktur einer Engine aufsetzt (GI zum Beispiel wie unter Metro), um dann auch Rechenleistung zu sparen. Diese werden grundsätzlich hardwarebeschleunigt und setzen damit auf ähnliche Geodatenstrukturen, die man verwenden kann. Es würde einfach zuviel Leistung kosten, ähnlich wie das Pathtracing.

Man kann also die Datenstrukturen von z.Bsp. volumetrischen Meshs oder Punktwolken gleichfalls nutzen und letztlich muss man das sogar im Hybriden, oder zumindest berücksichtigen.
 
Zuletzt bearbeitet von einem Moderator:
Ich finds leider nicht mehr aber gibt von MS ein Video auf YT, wo sie erwähnen wie ihre ersten Schritte Richtung DirectML aussah und der Typ sagt selbst, dass ihr eigenes Model zu langsam war und sie von Nvidia Hilfe bekommen haben.
Als Auzug ergänzend von Microsoft:
"The advantage of using DirectML is [...] DirectML achieves this in part due to the Direct3D 12 metacommands feature. Metacommands expose a black box of functionality up to DirectML, which allows hardware vendors to provide DirectML access to vendor hardware-specific and architecture-specific optimizations. Multiple operators—for example, convolution followed by activation—can be fused together into a single metacommand. Because of these factors, DirectML has the capability to exceed the performance of even a very well-written hand-tuned compute shader written to run on a breadth of hardware."
Auf aktueller nVidia-Hardware würden hier auch implizit die Tensor Cores genutzt werden, die beträchtliche, zusätzliche Leistungsreserven in Amperes-Architektur darstellen, die bei AMD schlicht fehlen. Das sollte natürlich nicht darüber hinwegtäuschen, dass sich das NV auch bezahlen lässt. ;-)

Es gibt ca. 0 Gründe DLSS ohne RT einzuschalten. Ich hab keine FPS Drops sondern der Verlauf ist stabil, es sieht gut aus - was will ich mehr?
D. h. Usern mit kleineren GPUs ist es strikt untersagt in höheren Auflösungen zu spielen, obwohl sie dies mit DLSS in einer adäquaten Qualität könnten, da dieses ausschließlich in Kombination mit Raytracing verwendet werden darf? :-D
 
Ohne DLSS 60-70 mit 130 = flüssiger und damit extrem relevant für MP Spiele, da kann man nicht mal drüber diskutieren.
DLSS ist völlig unabhängig von RT immer top, insofern gut umgesetzt und das ist es ohne jede Frage in Cold War.
Daran sieht man, wie schlecht Nvidia ohne Dlls dastehen würde ;)
Ich glaube der PING ist wichtiger, solange man 60 FPS hat...
 
Das ist mir als Konsument aber vollkommen egal, die 6800XT und 3080 kosten derzeit effektiv gleich viel, der Konsument sieht hier P/L, und nicht dass das AMD's erste RT Implementierung ist.
Das mag wohl daran liegen das viele Blindkaufen ohne Rücksicht auf das gekaufte...Ich nicht!
Doof wollte ich jetzt nicht sagen

Und? Ich sehe als jemand der DLSS selber nutzt nur dass ich durch DLSS eine höhere Bildqualität mit deutlich besserer Performance bekomme.
Der Grund ist doch vollkommen egal.

...
Ne ist er nicht Vielleicht bin ich damit vollkommen allein... aber ich schaue mir sehr genau an was ich kaufe. und damit habe ich bisher nur Positive erfahrung gemacht, die für MICH gut passen.

Es liegt an jedem Selbst ob was er kauft und nutzt und die Hintergründe interessieren oder nicht.
Es sei dir gegönnt das dir diese Optik speziell anderen umständen zum trotz wichtiger sind.
Nachteile von DLSS kannst du ja selbst googeln und wenn sie auf dich nicht zutreffen ist doch alles super oder!?
 
Das kann nicht stimmen, weil DLSS eine Vorform von DirectML ist und ML das direkte Gegenstück dazu, also Konkerrenz. Nvidia wäre ziemlich dumm das so zu machen. Denke das trifft eher auf DXR zu, wo man zuallererst Nvidia berücksichtigte, in direkter Hardwarebeschleunigung. Der Softwarestack und damit Emulation ist langsamer, das stimmt. Man kann BVH für eine Direct Volume Rendering bisher nicht komplett in Software ausreichend beschleunigen. Der Leistungszugewinn für bestimmte Cores liegt bei dem 13-fachen. Das liegt derzeit an der Hierachie und den Datenstructuren.

dfg5kxkkh.png


Tja. Kann wohl doch stimmen x)
 
Ohne DLSS 60-70 mit 130 = flüssiger und damit extrem relevant für MP Spiele, da kann man nicht mal drüber diskutieren.
DLSS ist völlig unabhängig von RT immer top, insofern gut umgesetzt und das ist es ohne jede Frage in Cold War.
Ich wiederhole, auf meiner 3080 sind stabile 3-stellige fps ohne DLSS kein Problem.
Ergo wird es nicht aktiviert, weil es schlechter aussieht. RT+DLSS bringt auch spielbare FPS, aber keinen Mehrwert und sieht imho nicht besser aus.

Daher bleibt bei mir DLSS aus.
 
mehr fps? bessere frametimes? besseres subjektives gefühl? kann gegner besser sehen?

Bitte was? Die Frametimes werden nicht besser, wenn du DLSS abschaltet, du kannst Gegner auch nicht besser sehen und mehr FPS bekommt man auch nicht, wenn man DLSS abschaltet.
Aber hier schreiben ja mal wieder die Spezialisten.

Ich wiederhole, auf meiner 3080 sind stabile 3-stellige fps ohne DLSS kein Problem.
Ergo wird es nicht aktiviert, weil es schlechter aussieht. RT+DLSS bringt auch spielbare FPS, aber keinen Mehrwert und sieht imho nicht besser aus.

Daher bleibt bei mir DLSS aus.

Mit Low Settings 3 stellige FPS? Oder unterhalb von 4k?
Den Unterschied zwischen DLSS Quality und DLSS off + normales AA sieht man schlicht nicht.
Auch der von Ausgeglichen fällt in einem MP Spiel keinem auf, außer du gehörst zu der Fraktion von Leuten die in einer Ecke gammeln, dann kann man es mit viel Übung vielleicht erkennen. Selbst die Grafikqualität von Performance ist noch völlig in Ordnung und die gewonnen FPS sind es locker wert.
 
Wenn dann würde ich mir maximal eine 6800 XT holen, aber eigentlich schiele ich auf RDNA3, wo dann von AMD auch die RT Leistung angehoben wird.

Und DLSS finde ich höchst spannend, das scheint imme rbesser zu funktionieren. Da muss AMD unbedingt nachliefern.
 
Zurück