AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

@RtZk Ich rede vom Launch

Ampere war ne Katastrophe, aber wenigstens hat Nvidia nicht seine Referenzmodelle von Boardpartnern fertigen lassen und deutlich über UVP angeboten. Wenn ne 6800XT im Referenzdesign >850€ kosten soll nur weil sie von Asus oder sonstwem gefertigt wurde, dann halt ich das für ne dezente Frechheit.

Ampere FEs gibts nicht so oft, aber wenigstens zu UVP! Mit dem RDNA2 Launchtag hat AMD imho ganz tief ins Klo gegriffen, denn man hatte genug Vorlagen um zu wissen wie es NICHT geht und sich dann dazu entschieden noch einen drauf zu setzen.
 
Nein denn Eure tolle 6000er Reihe hat das Rennen gegen eine 3090er verloren.
NOCHMAL (diesmal aber mit drauf klicken) ! :D

p.s. Ja, es gibt auch andere Benches, da liegt die 3090 ganze 7 (!) % vorne.

p.p.s. außer Du meinst natürlich im Strom verbraten und Preis ?!?

MfG Föhn.
 

Anhänge

  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 26
  • 2000 €.jpg
    2000 €.jpg
    318,9 KB · Aufrufe: 16
  • 3090 bis 550 Watt.jpg
    3090 bis 550 Watt.jpg
    405,6 KB · Aufrufe: 35
  • 7%.jpg
    7%.jpg
    316,5 KB · Aufrufe: 50
Zuletzt bearbeitet von einem Moderator:
@RtZk Ich rede vom Launch

Ampere war ne Katastrophe, aber wenigstens hat Nvidia nicht seine Referenzmodelle von Boardpartnern fertigen lassen und deutlich über UVP angeboten. Wenn ne 6800XT im Referenzdesign >850€ kosten soll nur weil sie von Asus oder sonstwem gefertigt wurde, dann halt ich das für ne dezente Frechheit.

Ampere FEs gibts nicht so oft, aber wenigstens zu UVP! Mit dem RDNA2 Launchtag hat AMD imho ganz tief ins Klo gegriffen, denn man hatte genug Vorlagen um zu wissen wie es NICHT geht und sich dann dazu entschieden noch einen drauf zu setzen.
War das über UVP nicht ein rein deutsches Retail ding? Dachte im Ausland hat man es auf die UVP bei den Radeons geschafft.
Alles in allem waren beide Launchs fürn A....
Aber dieses Jahr ist alles andere als Normal und die Logistik scheint komplett am Limit zu sein. Schwierig zu sagen ob AMD und Nvidia wirklich die Schuld für den Mist tragen oder die Lieferkette mit reinspielt.
Man kann da nur auf 2021 und bessere Verfügbarkeiten hoffen.
 
Klar, durch die ganzen OEMs und User, die keine Ahnung haben geht einiges an Intel CPUs raus.
Ist ja lustig, schon wieder diese Unterstellungen, wenn man sich für einen anderen Hersteller wie du entscheidet, hat man plötzlich "keine Ahnung".

Dem gegenüber kann ich nur sagen, dass es genug Gründe für eine Intel CPU gibt, zum einen ein besseres Preis-Leistung Verhältnis. Für einen Sechskerner werden da nämlich mehr als 100 Euro weniger verlangt, die Differenz ist noch mehr zu anderen Anbietern wie MF. Manche verlangen für einen 5600X 400 Euro und sogar bis zu 500. Während man eine Intel CPU die nicht viel schlechter für ein Gaming-Szenario ist, schon für 240 Euro bekommt.

"Keine Ahnung" hat da weder Hand noch Fuß, und um es zu verdeutlichen, könnte man auch von allen AMD-Käufern die sich mal für eine der geilen Bulldozer-CPUs entschieden haben sagen, die hätten keine Ahnung, und das mit mehr Sinn dahinter, weil damals die Bulldozer viel schlechter waren, als zur Zeit Intel Core im Vergleich zu Zen3.
 
BF V VRAM Problem? Das glaube ich kaum, BF belegt oft keine 8 GB. Ich kann es bei mir auch noch mal mit RT noch mal checken, auch, wenn ich kaum glaube, dass sich etwas verändert hat.

Edit: 9,2 GB sind das Maximum, sprich eine 3080 mit ihren 10 GB hat sicherlich kein VRAM Problem.
Kannst du mir denn dann erklären warum Geforce Experience die Texturqualität mindern möchte?
Würde doch ansonsten keinen Sinn ergeben, oder? :ka:
Die Framedrops sprechen meiner Meinung nach ebenfalls dafür, bist im entspannten Bereich unterwegs, zockst ne Weile und auf einmal siehst du dich einem 50% Performanceverlust ausgesetzt.
Kannst es gerne nachstellen zwischen Punkt D und E auf der Salomonen-Map.
Ganz einfach nen eigenen Community-Server öffnen, dann hast du ausreichend Zeit dafür.
GeforceExperience_BF_V_optimal_Settings.jpg



Was ist an diesem Bild denn bitte falsch? Das RT Bild ist sicherlich nicht falsch.
Rechts ist schlicht extrem unrealistisch.
BF hat das meiner Meinung nach oft besser umgesetzt diese übertriebenen perfekten Spiegelungen in Spielen wie Spiderman und Watch Dogs sind extrem unrealistisch.
Also ich denke mein Bildmaterial zeigt ganz gut auf, dass da iwas nicht ganz richtig aussieht. Hab im zweiten Bild hier die Abbruchkante im Dreiecksmuster 5 Meter vor den eigenen Füßen (mitte des Bildes) extra nochmal eingezeichnet.
Wie gesagt, ohne DXR ist die nicht da, und es liegt auch nicht an DLSS, das ist hier deaktiviert.
Diese Kante ist absolut unschön und beraubt einen mehr um die Immersion, als dass Raytracing zuträglich wäre.
BFV_Salomonen_NV_RT.jpg

BFV_Salomonen_NV_RT_marked.jpg

Im Bewegtbild, womit viele seit DLSS ja gerne versuchen zu kontern, sieht es noch dreimal blöder aus. Dafür hab ich ja extra das Video erstellt.

Geht mir nicht darum die Technik schlecht zu machen. Find es in WatchDogs Legion bspw. recht schön anzusehen, auch wenn es sicherlich auf übertriebene Art eingesetzt wird, aber was ich hier in BF sehe gefällt mir persönlich echt gar nicht.

Dem Dreicksmuster der Abbruchkante nach vermute ich, dass es sich um ein Bewusst genutztes Verfahren handelt, wodurch die DXR Berechnungsqualität bei Nvidias RTX-Karten in den einzelnen Bildarealen verschieden ausfällt. Hier halt ein Beispiel aufgezeigt wo es besonders drastisch ins Auge fällt.
Mich interessiert nun ob AMD´s RDNA´2 Karten unter Nutzung von Raytracing genau das gleiche Bild zeigen.

Hatte das im BigNavi&RDNA2 Laberthread schonmal angesprochen, darum auch vorhin das Bild mit dem Standort wo man die Szenerie genau findet und der Hint zwecks Community-Server um das entspannt begutachten zu können, da konnte mir bislang aber keiner helfen das nachzustellen.
Aber wayne, dann mach ich es in paar Tagen selber^^
 
Zuletzt bearbeitet:
Kannst du mir denn dann erklären warum Geforce Experience die Texturqualität mindern möchte?
Würde doch ansonsten keinen Sinn ergeben, oder? :ka:
Die Framedrops sprechen meiner Meinung nach ebenfalls dafür, bist im entspannten Bereich unterwegs, zockst ne Weile und auf einmal siehst du dich einem 50% Performanceverlust ausgesetzt.
Kannst es gerne nachstellen zwischen Punkt D und E auf der Salomonen-Map.
Ganz einfach nen eigenen Community-Server öffnen, dann hast du ausreichend Zeit dafür.
Anhang anzeigen 1345368

Ich habe keine Ahnung, aber die Empfehlungen von GeForce Experience sind sowieso meist äußerst fragwürdig.
Framedrops könnten auch für eine extrem RT intensive Szene sprechen, es gibt z.B. in CoD Cold War eine Stelle in der Kampagne in der die FPS völlig zusammenbrechen, mit VRAM hat das aber sicherlich nichts zu tun.
Ich werde es mir mal selbst anschauen.

Also ich denke mein Bildmaterial zeigt ganz gut auf, dass da iwas nicht ganz richtig aussieht. Hab im zweiten Bild hier die Abbruchkante im Dreiecksmuster 5 Meter vor den eigenen Füßen (mitte des Bildes) extra nochmal eingezeichnet.
Wie gesagt, ohne DXR ist die nicht da, und es liegt auch nicht an DLSS, das ist hier deaktiviert.
Diese Kante ist absolut unschön und beraubt einen mehr um die Immersion, als dass Raytracing zuträglich wäre.
Anhang anzeigen 1345369
Anhang anzeigen 1345370
Im Bewegtbild, womit viele seit DLSS ja gerne versuchen zu kontern, sieht es noch dreimal blöder aus. Dafür hab ich ja extra das Video erstellt.

Geht mir nicht darum die Technik schlecht zu machen. Find es in WatchDogs Legion bspw. absolut klasse, aber was ich hier in BF sehe gefällt mir echt gar nicht.

Ah, ja ok, das ist mir vorher nicht aufgefallen, allerdings kann ich mich nicht erinnern, dass es in BF so aussieht :hmm: , das muss ich mir mal selbst anschauen, evtl. liegt es daran, dass hier nicht RT auf Ultra verwendet wird? Oder evtl. die eine Szene die verbuggt ist?
 
Evtl. hast du Recht und der Spot zwischen Punkt D und E ist einfach außergewöhnlich RT intensiv. Mir fällt dort zwar nicht direkt ein Grund ein warum, aber man ist natürlich schon richtig tief um Dschungel drin.
Da wäre dann im Zweifelsfall halt schön gewesen wenn das ein wenig mehr optimiert worden wäre, weil so ist die Performance (zumindest auf dieser Map) echt zu inkonsistent um RT nutzen zu können.
Schau es dir aber echt gern selber mal an, wirst sicherlich finden was ich meine.

GeforceExperience optimiert ansonsten prinzipiell meiner Meinung nach schon ganz vernünftig.
Glaub auch Nvidia hat da schon seine Gründe warum Sie gewisse Entscheidungen wie hier im Hinblick auf die verringerte Texturqualität treffen.
Kann man auch iwie immer teils dran riechen, BF hat diese GPU-VRAM Beschränkungsoption, die GFE ebenfalls aktiviert, und auch in CoD:CW finden wir jetzt eine Option wie weit der VRAM ausgelastet/begrenzt werden soll.
Wird dann mein ich versucht mit mittlerer Einstellung unter 9GB zu bleiben

Kannst du dich dabei noch erinnern welche Stelle das in CoD genau ist die du mit übermäßiger RT-Last in Erinnerung hast? Würde ich mir rein Interesse halber dann auch gern mal anschauen, ob man iwie Rückschlüsse ziehen kann, ob jetzt übermäßige Vegetation und Verschattung dafür verantwortlich sind, oder es sich einfach um ein extrem großes Außenareal handelt?

Bezüglich RT Ultra oder nicht in BF V, du kannst DXR nur aktivieren oder deaktivieren. Da gibt es keine Qualitätsstufen zum Auswählen.
 
Was mir bei den AMD Karten gefällt, dass sie wesentlich effizienter sind als die Nvidia Karten. Wenn ich dann 5fps oder so weniger habe, dafür aber kühler/leiser/effizienter bin ist mir das persönlich lieber als (teilw. über) 350W zu verheizen
Dann schau dir mal den Effizienzvergleich auf CB an. Dann wirst du sehen, dass wenn man beide Karten auf die gleiche Leistungsaufnahme bringt, die 3090 dann an der 6900XT vorbeizieht in der Effizienz. Also wenn man wirklich Wert darauf legen sollte, kann man mit der 3090 auch da besser mit dastehen. ;-)

Screenshot 2020-12-09 173654.jpg
 
Zuletzt bearbeitet:
Dann schau dir mal den Effizienzvergleich auf CB an. Dann wirst du sehen, dass wenn man beide Karten auf die gleiche Leistungsaufnahme bringt, die 3090 dann an der 6900XT vorbeizieht in der Effizienz. Also wenn man wirklich Wert darauf legen sollte, kann man mit der 3090 auch da besser mit dastehen. ;-)

Anhang anzeigen 1345372
Da sieht man gut wie sehr Nvidia die Brechstange ausgepackt hat um vor AMD zu liegen.

Screenshot_113.png


In neueren Games würden die Charts anders aussehen.

Screenshot_111.png


AMD hat noch Probleme in 4k welche gefixt werden müssen.
Die 3090 wurde sozusagen viel stärker "undervolted" bzw PL gesenkt. Nicht verwunderlich das die besser Perf/Watt liefert so
 
In neueren Games würden die Charts anders aussehen.
Du meinst die handselektierten Games in 1440p. :rollen: Das betrifft ja nun bei weitem nicht alle neuen Games. CP2077 wird es morgen wohl zeigen ;-)

Mich persönlich stört die Brechstange eh nicht, da ich das Powertarget noch hochziehe und aufs Maximum übertakte. Immerhin kann jeder selbst entscheiden mittlerweile, was seine Karte etwa verbrauchen darf.
 
Du meinst die handselektierten Games in 1440p. :rollen: Das betrifft ja nun bei weitem nicht alle neuen Games. CP2077 wird es morgen wohl zeigen ;-)

Mich persönlich stört die Brechstange eh nicht, da ich das Powertarget noch hochziehe und aufs Maximum übertakte.
CB schreibt: "In den sieben neuesten Spielen, die in diesem Fall nicht auch noch einmal getestet werden konnten, wäre eine Führung für AMD die Folge gewesen."
Klar sieht AMD nicht so gut aus in CP2077, so viel konnten wir schon sehen.
Wir könnten auch anders argumentieren und sagen, dass die 3090 mit 270W NUR NOCH 9-10% über einer deutlich günstigeren 6800XT mit 270W steht. OC Potential bei der 3090 ist eh murks solange nicht unter Wasser und ein guter Chip, die Teile rennen stark am Limit, wie gesagt Brechstange.
 
@deady1000
Die Hardwarevorgaben für volle RT kompatibilität wie in der DX12 API festgelegt werden von beiden GPU Herstellern erfüllt. Da ja in der Regel bekanntlich viele Wege nach Rom führen oder wie im Falle von RT dies die Hardwareseitig speziefisch unterschiedlichen Umsetzungen der Vorgaben sind.

Vorteil NV:
Hier haben ihre Tensocores definitiv einen stärkeren Ansatz aus Leistungssicht gesehen als AMD zu bieten.
Die RT Leistung bei NV Karten ist jedoch sehr stark von der Kombination RT zusammen mit DLSS abhängig. DLSS bedarf jedoch einer entsprechenden wenn möglich best optimierten implemention in die Games durch die Entwickler. Ein DLSS das bis dato ohne Konkurenz war hatte somit auch die uneingeschränkte Gunst der Spieleschmieden.
Die interessanteste Frage wird da werden was die breite Masse der Entwickler machen wird.
Auf lange sicht die Optimierungszeit bevorzugt auf die immer grösserer werdende Basis die den offenen Standard nutzt verwenden oder zusätzlich noch Zeit und Geld für die NV Extrawurstoptimierung investieren obwohl sie mit dem offenen ja prinzipell genauso könnten es nur meist nicht wollen.

Wir wissen ja mittlerweile das eine gute optimierung selbst von PC exclusiven Spielen die letzten Jahre leider immer seltener geworden ist. Crossplattformentwicklung und Konsolenports stehen heute für die grossen Publisher meistens an erster Stelle.
Konsolen stellen heutzutage bei den meisten Entwickler wohl auch die Hardware Ausgangsbasis. Da die neuste Konsolengeneration dank AMD Hardware identisch zur aktuellen AMD HW wie sie auch in Gaming PCs steckt ist brauchts wohl auch keine Glaskugel um zu erahnen auf Hardware von welchem Hersteller die Entwickler in den nächsten Jahren die meiste Erfahrung sammeln werden.

Nachteile NV:
Tensocores erhöter Platzbedarf und mehr Verbrauch somit gibts weniger Chips pro Waver , mehr Abwärme benötigt stärkere Kühlung beides treibt die Kosten hoch und senkt die Marge.
 
Zuletzt bearbeitet:
Evtl. hast du Recht und der Spot zwischen Punkt D und E ist einfach außergewöhnlich RT intensiv. Mir fällt dort zwar nicht direkt ein Grund ein warum, aber man ist natürlich schon richtig tief um Dschungel drin.
Da wäre dann im Zweifelsfall halt schön gewesen wenn das ein wenig mehr optimiert worden wäre, weil so ist die Performance (zumindest auf dieser Map) echt zu inkonsistent um RT nutzen zu können.
Schau es dir aber echt gern selber mal an, wirst sicherlich finden was ich meine.

Ich habe es mir jetzt mal angeschaut, das ist eine einzige Katastrophe auf Salomonen, Frame Einbrüche konnte ich keine feststellen.
Ich habe mal Pazifiksturm gegengetestet, dort ist der Übergang fließend und nicht zu sehen und sieht top aus, sprich kein Vergleich zu der anderen Map, das hat Dice an der Stelle mal richtig verbockt.


GeforceExperience optimiert ansonsten prinzipiell meiner Meinung nach schon ganz vernünftig.
Glaub auch Nvidia hat da schon seine Gründe warum Sie gewisse Entscheidungen wie hier im Hinblick auf die verringerte Texturqualität treffen.
Kann man auch iwie immer teils dran riechen, BF hat diese GPU-VRAM Beschränkungsoption, die GFE ebenfalls aktiviert, und auch in CoD:CW finden wir jetzt eine Option wie weit der VRAM ausgelastet/begrenzt werden soll.
Wird dann mein ich versucht mit mittlerer Einstellung unter 9GB zu bleiben

Auf Pazifiksturm geht der genutzte VRAM bis auf 10 GB hoch, bei der anderen Karte auf 9,5 GB, interessant, auf der Karte von vorhin waren es nur 9,2, scheint also stark zu variieren.
Allerdings denke ich nicht, dass diese 9,2 oder 10 GB tatsächlich vollständig benötigt werden, hier wäre mal ein Test von einem Nutzer hier im Forum mit einer 3080 interessant.

Kannst du dich dabei noch erinnern welche Stelle das in CoD genau ist die du mit übermäßiger RT-Last in Erinnerung hast? Würde ich mir rein Interesse halber dann auch gern mal anschauen, ob man iwie Rückschlüsse ziehen kann, ob jetzt übermäßige Vegetation und Verschattung dafür verantwortlich sind, oder es sich einfach um ein extrem großes Außenareal handelt?

Keine Ahnung ob das an RT lag oder an anderen fordernden Dingen wie Explosionen z.B. .
Es war die Szene als man an die Zeit im Vietnam zurückdenkt und sich am Ende eines Dorfes befindet, hier kommt einem ein Heli zu Hilfe der die Vietcongs in Stücke schießt, samt dem Tor und der Häuser drumherum. Ging glaube ich auf 20 FPS runter^^.

Bezüglich RT Ultra oder nicht in BF V, du kannst DXR nur aktivieren oder deaktivieren. Da gibt es keine Qualitätsstufen zum Auswählen.

Es gibt RT Qualitätsstufen, scroll mal weiter runter, ist der 2. letzte Regler.


Was man aber auch sagen muss, das Spiel ist immer noch eines der mit Abstand schönsten auf dem Markt, RT ist da nur das i Tüpfelchen, bei Pazifiksturm mit 4k maxed Settings an der Küste zu stehen ist einfach nur wunderschön.
 
@RtZk Ja cool, danke für deine Eindrücke.

Der DXR-Quality-Slider unten ist mir bislang echt noch nicht aufgefallen. Schande auf mein Haupt - so oft im Menü gewesen. Aber nicht tragisch, war eh immer alles maxxed out^^
Guck ich mir später direkt nochmal an, vllt ist es mit DXR eine Qualistufe niedriger zockbar :daumen:
Ansonsten würde ich zustimmen, auf der Salomonen-Map fällt das am meisten auf, auf Pazifiksturm oder Wake Island sieht man es aber stellenweise auch. Vllt nicht ganz so ausgeprägt, obwohl, technisch werden da keine gravierenden Unterschiede auf den verschiedenen Map´s sein, würde mir also nicht direkt einleuchten warum es auf der andern Map besser sein sollte. Vllt hängt es mit den Lichtverhältnissen zusammen wie sehr das ins Auge fällt.

Ansonsten stimme ich dir zu, ich mag die Optik von BF V auch sehr. Hab schon gut paar Stunden darin versenkt - seit der Alpha^^
Damals noch die Vega64 unter Wasser durch 4K gequält :D
Die 3080 wird jetzt oft nicht einmal zu 50% ausgelastet, das ist schon ein anderes Level! (60FPS Lock)

Die Szene in CoD die du meinst kenn ich. Kann ich soweit auch bestätigen und war mir in der Kampagne gleichermaßen aufgefallen.
Ziemlich viel Vegetation dort wenn ich das richtig in Erinnerung habe.. muss ich nochmal rein in den Abschnitt.
 
Zuletzt bearbeitet:
Deine Probleme hätte ich gerne. Wenn du sonst nichts hast ist das wohl recht ordentlich was AMD auf dem Papier geliefert hat.
Ich sag ja dass es sehr ordentliche Karten sind, deswegen liste ich in dem Zitat ja auch die ganzen Fortschritte und Innovationen auf. Nur bei der "vRAM taktet bei geringster 2D-Last voll hoch"-Sache bin ich einfach ein gebrandmarktes Kind weil ich mich seit über 10 Jahren bei AMD darüber ärgere und selbst Stunden damit verbracht habe das manuell zu lösen (damals als man noch BIOS editieren konnte...).

Da ich selbst halt gefühlte 95% der Zeit mit Videokrams verbringe und nur einen kleinen Rest mit Spielen ist das Thema halt für mich relevant. Wie gesagt nicht wegen den 20W mehr oder weniger sondern einfach ich nenns mal aus idealistischer Sicht. Ich würde mich halt (zugegeben ja auch irrationalerweise) jedes Mal drüber ärgern wenn ichs sehe dass die Karte sich so verhält. Ist schwer zu erklären... das is wie wenn ich mit nem bekannten Auto fahre und er dauerhaft einen oder zwei Gänge niedriger (und entsprechend unnötig hoher Drehzahl) fährt als nötig. Das ist auch weder für Mensch noch Maschine ein problem und es ist ja nicht mein Benzin aber trotzdem dreht mein innerer Monk dann am Rad. :haha:
 
Zurück