AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Von der Leistung her bin ich etwas enttäuscht da einer 6800 XT 10% zur 3080 fehlen während es bei der Vega 64 nur 8% fehlten zur GTX 1080:
Laber Laber Leberkäs, der Vega 64 fehlt zur 1080 mal sowas von gar NIX und die 6800 XT würde ich auch mit der 3080 auf "Augenhöhe" sehen (je nachdem durch welche Brille man blickt) ...

MfG Föhn.
 

Anhänge

  • Bench .jpg
    Bench .jpg
    214,1 KB · Aufrufe: 78
  • Bench 6800XT 2.jpg
    Bench 6800XT 2.jpg
    425 KB · Aufrufe: 32
  • Bench 6800XT.jpg
    Bench 6800XT.jpg
    433,6 KB · Aufrufe: 32
Zuletzt bearbeitet von einem Moderator:
Hast du spezielle Gründe/Ansätze warum du meinst der InfinityCache könnte volllaufen?
Da hast du mich jetzt erwischt. Ich kann mich tatsächlich gerade nicht erinnern, woher ich diese Vermutung / Befürchtung habe.

Ich meine, irgendwo in einem einschlägigen Test gelesen zu haben, dass der Infinity-Cache mit zunehmender Auflösung mehr oder weniger zwangsläufig limitiert, weil er ja die Zugriffe auf den vergleichsweise langsam angebundenen VRAM abpuffern muss und dabei in hohen Auflösungen "vollläuft". Du kannst mich schlagen, ich komme nicht drauf, wo ich das gesehen habe. Ich werde alt.
 
Lol. Cyberpunk ist im Prinzip n olles PS4 Game, sponsored bei nvidia. Ist eigentlich schon ne olle Kamelle. Das neue BF wird interessant, die programmieren für die neuen Konsolen und RDNA2. ;)
Es ist trotzdem eines der, wenn nicht das meist erwartete Spiel des Jahres, und scheint ersten Review zufolge auch super gut zu sein.

So wie sich manche hier im Forum aufführen könnte man meinen, dass hier einige zwischen Firestrike und Tech-Demos gar keine Zeit mehr für das "richtige" Spielen haben...
 
Die Plastizität der Grafik wirkt durch realistischere Verschattung/ambient occlusion deutlich runder.
Vielleicht mal Vergleichsscreenshots aus dem PCGH Test anschauen oder selbst erstellen.
Unterschiede die man auf Screenshots finden kann bemerkt man in einem CoD Match nicht.
Ok, ich bemerk Sie nicht, aber ich bin auf K/D bzw. Sieg aus und nicht darauf mir Reflexionen anzuschauen.

Das Spiel unterstützt 3 RT Effekte, Sonnenschatten. Wo bei Sonnenaufgängen die klassischen shadow maps zu Artefakten neigen. Hier ist der BQ Gewinn massiv. Dann noch dynamische Lichtquellen, und Umgebunsgverdeckung. Man merkt einfach dass du von nix ne Ahnung hast, davon aber viel.
Das ist für einen Sonnenaufgangssimulator ganz toll, für Black Ops dann doch eher meh.

Wie alt bist du? 70? Wenn du schlechte Augen hast, dann bringts natürlich nichts.
Du behauptest du siehst den Unterschied zwischen DLSS on und der nativen Auflösung (kein Unterschied wahrnehmbar), aber die viel bessere Verschattung durch RT siehst du bei COD nicht?
Machst du den Rudy?
Sonnenaufgänge... Verschattung... Alles unnützes Zeuch im MP.
CoD ist zu 95% ein MP Shooter, hier mit Augenweide aufwarten zu wollen ist sinnfrei, v.a. wenn es auf Kosten stabiler FPS geht. Grafikeffekte die vom Spielgeschehen ablenken sind kontraproduktiv, vor allem in Shootern in denen schnelle Reflexe von Vorteil sind. Und ja mir ist DLSS zu "matschig"und da die 3080 auch ohne genug fps liefert, kann ich drauf verzichten.

Ich bin alt genug um Quake 3 mit minimalen Texturen gespielt zu haben um den eigenen Vorteil zu maximieren. Alt genug um zu wissen wann ich tolle Grafik erleben will und wann ich eben diese Grafik runtersetze um nicht im 1on1 dank FPS Einbruch zu verlieren.

Aber du kannst gerne Sonnenaufgänge in CoD bewundern, jeder wie ers gerne spielt. Ich gewinn halt lieber...
 
Zuletzt bearbeitet:
@Hornissentreiber Alles gut, vollkommen auszuschließen ist deine Vermutung diesbezüglich ja nicht, ich denke aber es gibt aktuell halt keine Indizien, dass das iwo passiert und es sich halt viel eher um einen trügerischen Rückschluss handelt weil die 3080/90 Ihre Performance da halt besser auf die Straße bringen und "vermeintlich" weniger stark einbrechen. Was aber halt Käse ist von der Herleitung.

Da hab ich zu später Stunde noch einen guten hinsichtlich der 3080 in der Hinterhand für euch.
Wisst Ihr was passiert wenn Ihr am 4K Monitor zockt und per Geforce Experience die Optimierung für Battlefield 5 vornehmt?
Die Texturqualität wird auf Hoch runtergesetzt :lol:

edit: und das ist kein Scherz!
 
Zuletzt bearbeitet:
Jung ich kenn das Video. Er sagt, dass sein eigenes Model zu langsam war und das von Nvidia bekommen hat. Ich finde das Video leider nicht mehr. Ist mir aber auch egal, glaub was du willst.
"Jung" und ich weiß was alias sparsity ist! Und wie dieses beschleunigt wird. Sparse könnte Int 8 oder 4 auf GA102 beschleunigen. Für Entwickler macht das TF32 Hybridmodell keinen Unterschied, weil man FP Input und Output usw. erhalten würde. Nur wird auf den Consumer Cores nichts trainiert, dafür eignen sie sich nicht. Trotzdem muss man an dem ursprünglichen Code nichts ändern.

Warum sollte man dann ML performen? Das kommt doch völlig ohne Tensorcores aus. ML ist auf der VII lauffähig, weil AMD damit trainierte und testete.

Die Kombiprozies der Xbox können das übrigens.
 
Zuletzt bearbeitet von einem Moderator:
Ich habe mir die RTX 3080 gekauft um meinen 4K UHD TV zu befeuern, von daher war die RTX 3070 keine Option und die RTX 3090 zu teuer für das bisschen Mehrleistung in 4K. Nvidia war für mich die logische Kaufoption wegen RT 2.0 und DLSS 2.0, da man hier gegenüber AMD den Vorteil bei RT von einer Grafikkartengeneration hat. Das AMD bei RT noch nicht mithalten kann, war eigentlich klar, denn AMD muss genauso lernen, wie das bei Nvidia der Fall war.

Was den Speicher der RTX 3080 betrifft, kann ich bisher nichts Negatives feststellen und ich spiele nur in UHD Auflösung. Was in den nächsten 2. bis 5. Jahren ist, interessiert mich im Moment nicht, denn ich brauche die Leistung jetzt. In zwei Jahren kommt vermutlich ja wieder eine neue Generation und dann wird eben mit mehr Speicher geupgradet, Shit Happens, so ist das.

Ich habe bis Anfang November 2020 vier Jahre mit einer GTX 1070 überstanden, da kann ich auch 2. Bis 4. Jahre mit einer RTX 3080 leben. Der Vorteil war, der Leistungssprung von einer GTX 1070 zu einer RTX 3080 ist schon enorm. In zwei Jahren schaue ich, was die nächste Generation zu bieten hat, ob AMD oder Nvidia entscheiden allein die Leistungs- und Featuremerkmale und wie groß der Unterschied bezüglich Performance ist, danach wird entschieden ob die RTX 3080 bleibt oder ob ich wie bei der GTX 1070 eine Generation überspringe.

Das AMD jetzt wieder in allen Leistungsklassen mitmischt finde ich voll in Ordnung, weil Konkurrenz nicht nur das Geschäft belebt, sondern auch Innovationen vorantreibt! :hmm:


 
Ob das klappt? Da müssten die zusätzlichen 10 GB VRAM ja vom Leistungsbudget her praktisch "kostenlos" laufen, bzw. die GPU müsste deren Leistung bei sich gewissermaßen Einsparen, damit diese hypothetische Grafikkarte mit 320 W zufrieden ist.
Dadurch dass die dicken Karten bei NV (noch härter als bei AMD) am Limit laufen bewirkt ein bisschen weniger Takt da ziemlich viel. Ich sehe da zwei Möglichkeiten:
1.) NV hat GDDR6X Chips doppelter Kapazität in Petto. Dann gehts fast für nix da die nur minimal mehr Energie benötigen.
2.) 20GB durch doppelte Chipanzahl bzw. 10 Chips auf der Rückseite zusätzlich. Dann müsste NV noch 30W irgendwo auftreiben/einsparen... was aber wie gesagt mit 100 MHz weniger Takt kein großes Problem ist (auf die Art hat man auch das Alleinstellungsmerkmal der 3090 gewahrt die dann 2% schneller ist oder sowas).

Ich bin da etwas erstant, dass AMD die Chance bei der 6900XT nicht genutzt hat - die eine Top-Karte hätte auch genau wie NV den Hammer rausholen können. Wenn man der 350W wie der RTX3090 reingedrückt hätte und entsprechend 300 MHz mehr draufpackt (dass die Karten das schaffen sehen wir ja) hätte man das NV-Flaggschiff in nahezu allen Standardfällen abschießen können.
Ich dachte vor Release von Navi21, dass AMD nicht weiter pusht weil der Chip zu macht/ne Taktwall hat die einfach nicht sinnvoll zu überschreiten ist wie damals die 4 GHz bei den ersten Ryzens oder halt die 5 GHz bei den aktuellen beispielsweise. Aber die GPUs kommen mit um die 2,2 GHz ab Werk und können quasi alle mit 50W mehr die 2,5GHz+?
Klar sollte man beim Massenmodell 6800 da nicht so hart rangehen aber bei der 6900er hätte ich an AMDs stelle alles reingehauen was geht. Das ist sowieso nur ne Prestigekarte.
 
Ich bin da etwas erstant, dass AMD die Chance bei der 6900XT nicht genutzt hat - die eine Top-Karte hätte auch genau wie NV den Hammer rausholen können. Wenn man der 350W wie der RTX3090 reingedrückt hätte und entsprechend 300 MHz mehr draufpackt (dass die Karten das schaffen sehen wir ja) hätte man das NV-Flaggschiff in nahezu allen Standardfällen abschießen können.
Ich dachte vor Release von Navi21, dass AMD nicht weiter pusht weil der Chip zu macht/ne Taktwall hat die einfach nicht sinnvoll zu überschreiten ist wie damals die 4 GHz bei den ersten Ryzens oder halt die 5 GHz bei den aktuellen beispielsweise. Aber die GPUs kommen mit um die 2,2 GHz ab Werk und können quasi alle mit 50W mehr die 2,5GHz+?
Klar sollte man beim Massenmodell 6800 da nicht so hart rangehen aber bei der 6900er hätte ich an AMDs stelle alles reingehauen was geht. Das ist sowieso nur ne Prestigekarte.

CB hat 4% beim OC der 6900 XT rausgeholt, damit hat man die 3090 eben NICHT eingeholt.
Also verständlich, dass man hier mehr Wert auf Effizienz gelegt hat, als auf mehr Takt nur um dann trotzdem nicht auf ein Level zu kommen.
 
Dadurch dass die dicken Karten bei NV (noch härter als bei AMD) am Limit laufen bewirkt ein bisschen weniger Takt da ziemlich viel. Ich sehe da zwei Möglichkeiten:
1.) NV hat GDDR6X Chips doppelter Kapazität in Petto. Dann gehts fast für nix da die nur minimal mehr Energie benötigen.
2.) 20GB durch doppelte Chipanzahl bzw. 10 Chips auf der Rückseite zusätzlich. Dann müsste NV noch 30W irgendwo auftreiben/einsparen... was aber wie gesagt mit 100 MHz weniger Takt kein großes Problem ist (auf die Art hat man auch das Alleinstellungsmerkmal der 3090 gewahrt die dann 2% schneller ist oder sowas).
Ich denke wenn, dann Option 1. Ich kann mir nicht vorstellen, dass Nvidia sich die 3090 kanibalisiert, denn deine geschätzten 2% Vorsprung dürften nicht ganz unrealistisch sein. Vielleicht wären es auch 5%, aber wer würde die dann noch kaufen?

Ich bin da etwas erstant, dass AMD die Chance bei der 6900XT nicht genutzt hat - die eine Top-Karte hätte auch genau wie NV den Hammer rausholen können. Wenn man der 350W wie der RTX3090 reingedrückt hätte und entsprechend 300 MHz mehr draufpackt (dass die Karten das schaffen sehen wir ja) hätte man das NV-Flaggschiff in nahezu allen Standardfällen abschießen können.
Das hat mich auch gewundert. Vielleicht halten sie wie (vielleicht) auch Nvidia den Hammer noch zurück um später eine 6900 XTX auf den Markt zu bringen. Würde mich nicht überraschen.
 
Zuletzt bearbeitet von einem Moderator:
@deady1000 hmm, so ganz richtig sind deine Aussagen nicht.
Bei Betrachtung der neusten Spiele sogar vor der 3090.
Anhang anzeigen 1345231

"Neue Spiele" finde ich witzig.

Dirt, ein AMD Titel, Star Wars mit Frostbite Engine, Serious Sam klarer AMD Favorit, Assassins Creed mit aktueller Nvidia Handbremse, Call of Duty (seit 2016 AMD favorisiert).
Alles bis auf Mafia (Nvidia lastig ) und Watch Dogs Legion (neutral) AMD lastig. Im Vergleich zum PCGH Index 15% abweichend.^^
Ersetze mal "neue Spiele" mit klassischen AMD favorisierten Games. Mal schauen wie Cyberpunk so abschneidet.
 
@RtZk
Also ich sehe da den Text "Durch das Übertakten steigt die Performance der Radeon RX 6900 XT um etwa 5 Prozent an. Die Leistungsaufnahme liegt dann bei etwa 347 Watt" und ich sehe auch Spiele, wo das den Unterschied gemacht hat, Beispiel:

1607463101972.png


Klar, das reicht nicht für nen klaren Sieg und durchgängig in allen Spielen schon gar nicht - aber erstens hat AMD da intern etwas bessere Mittel als ein stumpfes "Powertarget und Taktregler auf maximum schieben" des Nutzers so dass am Ende statt 5 vielleicht 7% da stehen würden (was wieder in manchen Spielen mehr die sehr knappe Führung bedeuten würde) und zweitens hätten sie halt wie ich finde nichts zu verlieren gehabt. Ich meine was hätte man meckern sollen wenn die Top-Karte genauso am Anschlag rennt? Die 350W sind sicher viel zu viel aber das hat die Konkurrenz ja auch gemacht.

So wies jetzt gemacht wurde ist in 2 Wochen in den Köpfen der Leute "Performance von 6900 is 3080 und 6800 is 3070, die 3090 is die schnellste". Wenn mans drauf angelegt hätte würde sich evtl ein "6900 und 3090 sind gleich schnell" in den Köpfen etablieren, was für die Marke AMD ein großer Sieg gewesen wäre. So sind sie halt weiterhin "schlechter" bei den "normalen" Leuten, auch wenn die Karten wirklich gut (und in manchen Dingen ja auch besser) sind.

Wie Raff schon sagte: Ein Vollausbau am Vollanschlag mit AiO drauf, selektierte Chips und (mit viel besserer Kühlung) ggf. Richtung 2,6-2,7 GHz unterwegs und AMD gewinnt den Schw***vergleich. Das war die letzten Jahre technisch unmöglich für sie. Jetzt zwar nur mit aller Gewalt erreichbar aber eben erreichbar - nur will AMD wohl nicht.
 
Zurück