AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Das Übertakten über den Wattmann braucht zur Zeit noch einige Kniffe (Powerlimit und Spannungen werden z.T. nicht übernommen, Spannungstabellen kann man austauschen etc.) die @Gurdi anscheinend durchaus besser drauf hat als mancher Redakteur.
Wie es am Ende wirklich aussieht muss sich noch zeigen. Gurdi aber einfach abtun ist nicht schlau.

Igor hat auch nicht mehr geschafft als die CB Redakteure.
"Das mit dem Takt hat AMD jetzt richtig gut hinbekommen. In Full-HD und auch stellenweise WQHD schafft die Radeon RX 6900 XT deutlich über 2250 MHz und stellenweise geht das kurzzeitig sogar bis fast 2500 MHz. Voll aufgewärmt und in Ultra-HD sind es noch zwischen rund 2150 und 2250 MHz, je nach Spiel und Last. Erhöht man das Power Limit um die maximal möglichen 15%, dann geht beim Takt sogar noch etwas, denn er stabilisiert sich auf bis zu 2400 MHz und sogar etwas darüber, je nach Chip-Güte. Kurzzeitig waren auch noch Spitzenwerte von knapp über 2500 MHz sichtbar, aber nur kurz und allein für die Galerie. Das OC-Potential ist allerdings nicht allzu hoch, da die Karte schon ab Werk recht hoch taktet und man auch beim Power Limit nicht ewig nachlegen kann, weil AMD die Spannungen restriktiv über die Firmware einkürzt, egal, was man von außen so einstellt (siehe Kapitel Leistungsaufnahme)."

Interessanterweise hat Hardwareluxx einen deutlich höheren Takt geschafft, aber selbst dann reicht es gerade einmal für eine @Stock 3090 (die selbst nun mal auch noch um wenigstens ein paar % hoch geht).

Auch mit aller Gewalt wird eine 3090 schlicht nicht geknackt, erst recht nicht wenn beide OCd sind.

Aber interessant wie extrem groß die Spanne der Qualität der Chips zu sein scheint, wobei sowieso die Frage ist ob die Hardwareluxx GPU den Takt überhaupt hält, was ich auch ein wenig bezweifle.
 
Zuletzt bearbeitet:
50% von 1500 sind 750, wie kommst du auf deine Rechnung?
Weil wenn mein geplantes Budget für eine GraKa 1000 € sind, ich mich aber für eine 3090 für 1500 € entscheide, muss ich mein Budget um 500 € (die Hälfte von 1000 = 50%) erhöhen.
Kommt halt immer drauf an, von welchem Betrag Du ausgehst.
Die 3090 ist 50% teurer von der 6900XT ausgehend oder eben die 6900XT ist 33% günstiger von der 3090 ausgehend. Beide "Rechenwege" passen … :-D

MfG Föhn.
 
Ich habe bei knapp 2.7 GHz einen TimeSpy durchbekommen, nur will man so etwas? 345 Watt TGP (also fast 400 Watt TBP) sind doch echt sinnlos für die paar MHz mehr.

Und was die UHD-Schwäche betrifft, hat die ein AMD-Mitarbeiter inoffiziell so erklärt, dass die Voraussage beim Cache in WQHD viel einfacher sei und in UHD (noch) nicht optimal laufe.

1607508879868.png
 
Und trotzdem wird es per DXR bereitgestellt, und AMD unterstütz das doch angeblich? Die Effekte werden doch auch richtig angezeigt in BFV, oder?
Auch wenn es eine gemeinsame API ist, kam BF5 deutlich vor DX12 Ultimate.
DICE sagte selbst, dass die Implementierung in BF 5 inkompatibel zu allem sein wird, was AMD bringt.
Wahrscheinlich meinten sie die Optimierungen für RT - Zusammenfassen von Objekten, variable RT Details, je nach Objekt und Reflektion (Da fällt mir das berühmte Beispiel der leeren Straßenbahn ein, bei der je nach Fläche mal mehr, mal weniger detailliert Strahlen verteilt wurden).
Ich besitze weder BF V, noch eine aktuelle Grafikkarte, daher kann ich nicht beurteilen, ob im folgenden Video die Reflektionen bzw. beleuchtungseffekte auf dem Panzer immer so übertrieben sind, oder ob es an der mangelnden Optimierung für RDNA2 liegt:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Man kann am Panzerturm auch immer wieder Denoising Artefakte sehen.
Eventuell eine Folge davon, wie AMD es macht, vielleicht auch nur fehlende Optimierung.
2 Jahre nach Launch wird da sicher niemand mehr dran arbeiten.
Auch in diesem Video sieht man immer wieder in den Pfützen, dass RT da noch nicht ganz funktioniert:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
allerdings weiß ich auch hier nicht, ob das normales Verhalten ist.
 
Für mich gibt es keinen klaren Gewinner in Sachen Performance: Es kommt da wohl direkt darauf an, welche Spiele man am liebsten spielt. In Sachen Preis/Leistung ist aber die RX 6900XT ganz klar im Vorteil gegenüber einer RTX 3090.

Ich denke diesmal könnte der Gewinner wirklich erst später feststehen, ich hab zwar nie an den "Wundertreiber" von AMD geglaubt, aber
CB hat nochmal separat die neuesten Spiele getestet wie Dirt 5, AC:V, SW: Squadrons und es scheint so das die 6900 die 3090 schlagen kann.
Wenn das wirklich auf die Konsolen Optimierungen zurückzuführen sein sollte, dann könnte es wirklich in Zukunft wesentlich besser für die 6900 aussehen, zumindest für Leute die primär immer das neuste spielen.
 
Eine Frage, kommt SAM bzw das offene Pendant jetzt eigentlich auch für X470er-Boards mit Zen3-CPUs?
SAM ist an sich ja offen. Es ist ein PCIe Feature mit Marketing Namen von AMD.
Wenn du die Nvidia Variante meinst, wird dir das nur Nvidia beantworten können.
Eventuell braucht es PCIe4, um relevant zu sein.
Zwar nutzen selbst Halo Karten PCIe3 x16 nur etwas mehr als halb, aber eventuell kann es da dennoch zu Bottlenecks kommen... Da braucht es mehr Informationen und Messungen speziell zu diesem Thema.
Ein "offener Standard" *) ist das Resizable BAR-Feature in der PCIe-Spezifikation, das dort bereits seit gut 10 Jahren schlummert (AMD hat an dem Thema mit seinen GPUs bereits vor etwa 5 Jahren gearbeitet, es dann offensichtlich aber mangels Interesse schleifen lassen und nicht vollends implementiert, denn seit 2015 findet man Postings der Linux-Kernel-Entwickler, die sich aufgrund dessen mit diesem Thema beschäftigen und auch Microsoft war an dem Thema schon in 2017 dran).
SAM selbst ist gemäß F. Azor eine AMD-spezifische Implementation, die primär das PCIe-Feature umsetzt, auf dem Weg dahin jedoch einige Bugs und Glitches korrigieren und umgehen musste und die Art wie sie das gemacht haben, muss von anderen Herstellern berücksichtigt werden, da es auf der AMD-Plattform (X570, BIOS/Firmware) eine AMD-spezifische Implementaiton ist.**) Offensichtlich ist das jedoch kein nennenswertes Problem, denn sowohl nVidia-Karten als auch Asus-MBs mit Z490 laufen bereits mit Beta-BIOSen und beide Hersteller erklärten vergleichbare Leistungszugewinne in ihren ersten Tests zu sehen, was auch nicht sonderlich wundert, da die zugrundeliegende technische Basis die gleiche ist, das Resizable BAR-Feature der PCIe-Spezifikation.
Darüber hinaus ist das Feature auch nicht an PCIe 4 gekoppelt, was ebenfalls in der Natur der Sache begründet liegt, weil das Problem hier ist, das mit dem 256 MiB-Fenster intern viele Daten in Richtung VRAM mehrfach umkopiert werden müssen, was mit dem ResBAR-Feature vermieden werden und in Abhängigkeit konkreter Game-Engines zu mehr oder weniger großen Performancezugewinnen führen kann.
Asus hat bei den Intel Z490-Board bereits erklärt, dass sie exemplarisch auf einem ROG Maximus XII HERO mit einem 10700K und einer RX 6800XT in Forza 4 bis zu +13,4 % erzielen konnten. (Hier wurde implizit PCIe 3 verwendet, da Comet Lake PCIe 4 nicht unterstützt und zudem Asus einer der wenigen Hersteller ist, der bei ihren 400er-Boards auf eine "PCIe 4 readiness" weitestgehend oder gar vollständig verzichtet hat). Mittlerweile hat bspw. auch MSI erklärt, seine gesammte 400er-Serie zu aktualisieren (inkl. H470, B460 und H410). Darüber hinaus erklärte MSI auch RX 6000- und RTX 3000-Karten vollumfänglich zu unterstützen und man sah bei wccftech auch bereits ein MSI Z490 GODLIKE mit einer RTX 3000er-Karte laufen, was bspw. die Frage aufwirft, ob hier nVidia wirklich was nenennswert anpassen muss (zumindest auf Intel-Plattformen), wenn die Boardhersteller die Karten in ihren BIOS-Tests jetzt schon mit dem aktivierten Feature betreiben. Möglicherweise geht es bei dem von nVidia erklärten "späteren Aktivieren" auch eher um eine Validierung und möglicherweise um eine Anpassung an die AMD-Plattform, denn bspw. bei Zen fehlte bisher anscheinend noch Funktionalität in der ISA für eine effiziente Unterstützung dieser PCIe-Funktionalität.

*) Genaugenommen ist es schlicht ein "einzelnes" Feature im PCIe-Standard, dass bisher kaum genutzt wurde, zumal es primär nur für Karten mit großem lokalen Speicher wirklich relevant ist, also auf Consumer-Produkten ausschließlich bei GPUs. Erste Erwähnung im Standard findet es seit dem Jahr 2008.

**) Hier ist unklar ob es sich um kleinere Bugs in der PCIe-Spezifikation handelt (immerhin ist das Feature bisher in der Praxis so gut wie nicht zur Anwendug gekommen) oder ob es sich ggf. zum Teil auch um AMD-spezifische Bugs auf deren eigener Plattform handelt, die gelöst oder umgangen werden mussten. Wie auch immer, die individuelle Problemlösung auf der Plattformseite erfordert, dass bspw. nVidia und Intel sich mit AMD abstimmen damit AMDs Implementation im Treiber/BIOS/Firmware der jeweiligen GPUs berücksichtigt werden kann.

[Super-Resolution Upscaling] Das kommt wohl drauf an, ob das Feature Hardware der 6000er braucht.
Bei "reinem" GPU Compute sollte es kein Problem sein.
Theoretisch sollte es hier keinerlei Abhängigkeiten geben, denn der RDNA2-Launch liegt schon längere Zeit zurück und bisher hat AMD nichts bzgl. einer diesbezüglich spezifisch angepassten ISA oder speziellen HW-Einheiten bei RDNA2 verlauten lassen (letztegenanntes nur der Vollständigkeit halber; dass es diese gibt ist quasi ausgeschlossen, da AMD das Thema schon längst angeschnitten hätte). Möglich wäre, dass es wie bei Intel's Xe mit DP4A ein entsprechendes Äquivalent in der ISA gibt, das die Verarbeitung etwas beschleunigen kann, dagegen dedizierte Funktionseinheiten wie die Tensor Cores gibt es bei AMDs RDNA2 jedoch nicht.
Dementsprechend sollte das Super-Resolution Feature grundsätzlich lauffähig sein (wie es DLSS übrigens tendenziell auch ist, wenn man es über die Shader implementiert, wie es nVidia bspw. anfänglich mit der DLSS2-Beta machte), d. h. es liegt nur an AMDs "Vertriebsdruck" ob und wie weit zurück sie das Feature für ihre GPUs anbieten wollen.
Leicht absehen lässt sich jedoch, dass das Feature bei kleinen GPUs mit wenigen TFlops eher weniger bringen wird, weil der nachgelagerte ML-Durchlauf zu viel Zeit in Anspruch nehmen wird (bzw. zu viel auf die Frametimes aufschlägt) und damit dem Ziel einer Erhöhung der Fps entgegenarbeitet. (Alternativ könnte man natürlich versuchen die visuelle Qualität zu verringern um doch noch einen Fps-Zugewinn zu erzielen.)

*) Darüber hinaus ist noch die Frage, ob man bei diesem speziellen Workload mit einer noch geringeren Präzision arbeiten und bspw. von FP16 auf INT8 ausweichen könnte, was RDNA2 noch einmal zugute käme. Da die bisherigen Demos zu DirectML und auch nVidia das jedoch nicht machen, scheint INT8 hierfür jedoch ggf. eine zu geringe Präzision aufzuweisen und möglicherweise nicht infrage zu kommen.
 
Zuletzt bearbeitet:
wenn es nicht Saphire war dann eben einer der Anderen preiswerten für mich no Name Coustom Modelle. Und davon halte ich mich fern für mich gibt es nur was das angeht 3 Hersteller. Gigabyte Asus MSI
Gigabyte Asus MSI sind generell nicht schlecht aber da sie NV wie auch AMD im Programm haben auch nicht ganz gut. Hier sind spezalisierte Hersteller wie Sapphire auf AMD sowie EVGA auf NV Seite immer noch etwas besser da sie keinerlei Kompromisse eingehen müssen.
Das hat man in der Vergangenheit oft schon gemerkt das obwohl gerade die Gigabyte, Asus, MSI Kühllösungen für die Gpus beider Herstellern quasi identisch jedoch mit kleineren einhergehenden Kompromissen aufgrund von Kostenminimierung auf den Karten beider Hersteller nicht immer gleich gut funktionierten.
Für die 6900xt bei dem Preis gibt es einfach wenig Argumente. Sie kann sich zu wenig zu den günstigeren Modellen absetzen.
Hier könnte sich im späteren Verlauf durch ihre höhere Anzahl an RT Einheiten noch etwas zugunsten der 6900 verbessern. Ihr gröster Bremsklotz bleibt aber das identische Powerlimit zur 6800XT.
 
Ich experimentiere auch gerade mit verschiedenen Einstellungen und verschiedener hardware(Speicherort/Einstellungen usw.), um entsprechend unterschiedliche Ergebisse zu erzielen, mit dem Ziel möglichst schöne Frametimes bei 100 fps hin zu bekommen.

Hatte ja schon mal ganz gute Einstellungen für RDR2 100 fps gefunden:

Paar Bildchen im Spoiler(Daten. Nix spannendes ;) )
Der erste Versuch sah ganz nett aus, von den Daten und Frametimes, für RDR2 Verhältnisse.
Anhang anzeigen 1345263Anhang anzeigen 1345264Anhang anzeigen 1345265

Beim 2. Versuch habe ich die Grafiksetting noch ganz leicht verändert, in 2 Optionen. Eigentlich nicht groß optisch bemerkbar, habe da bereits mein stärkeres Netzteil drin, die GPU etwas anders getuned, mehr MHz aber immer noch recht zahm alles eingestellt und dann das Game nicht mehr auf der alten Sata SSD, sondern auf der neuen M.2 NVME SSD :

Sieht erst mal unruhiger aus, aber im Grunde sind die Werte besser, wenn man mal checkt.


Anhang anzeigen 1345266Anhang anzeigen 1345267Anhang anzeigen 1345268

Im letzten Screenshot der jeweils 3 sind dann auch die Sensordaten.

Ich fand das "Muster" der Frametimes im 2. Versuch sehr interessant.
Muss noch herausfinden, was das is, bzw. was das verursacht.

Naja, die "100 fps dauerhaft" gehen zumindest in RDR2 klar.
Mal schaun, wie ich CP77 getuned kriege. :D


PS: Danke noch mal für dein(euer) schönes Tool ! :daumen:


edit:

Das Spiel sieht auch nicht komplett shice aus, so, trotz der lockeren Settings, wie ich finde. :)

Immerhin WQHD:
Anhang anzeigen 1345273


Hah ! Ich bin diesem regelmäßigen Spike(auch im Screenshot zu sehen oben) scheinbar auf die Spur gekommen, weil ich das merkwürdig fand, dass das wie ein Uhrwerk immer regelmäßig hoch tickte, als wenn irgendwas im Hintergrund dafür verantwortlich wäre.
Darauf hin hab ich im Taskmanager gecheckt, was da so im Hintergrund abgeht.

Bin dem "Lighting Service" auf die Schliche gekommen, der evtl. für die RGB Beleuchtung zuständig ist. Hab den Prozess beendet und in dieser Gegend von dem Screenshot, mit den ganzen Bäumen und auch Wild KI in der Gegend + Eisenbahn noch mal herumgeritten, mit nem kurzen check für die Frametimes und voila !

Anhang anzeigen 1345274

Man achte da mal auf die absoluten MIN fps, im Gegensatz zu weiter oben, wo es regelmässig so hochtickte, wie ein Uhrwerk.

Wollte diese Erkenntnis nur schnell noch teilen, falls jemand anderes auch so Beleuchtungskram im verdacht hat, die Frametimes nachteilig zu beeinflussen.
Könnte z.B. Asus Aura oder so etwas in der Art sein. Hab ja die Asus TUF OC und wollte da auch die Beleuchtung mal einstellen.
Hab da so ein "Aura Creator" runtergeladen(oder was auch immer Lighting Service is).
Vielleicht war das der Übeltäter. Möglicherweise.

Sah im letzten Test jedenfalls extrem viel besser aus, mit dem nicht regelmäßigen hohen Tick was die Framtimes angeht.

Da hab ich getestet:

Anhang anzeigen 1345275

Bin da in der Gegend herumgeritten und hab das laufen gehabt(CapFrameX).


PS: Was würde ich bloß ohne dein Tool machen, Gauss !? Ohne die ganzen Checks hätte ich das wohl gar nicht mitbekommen und mich nur manchmal gewundert, warum es regelmässig so leicht hakt.
Mit dem Tool konnte ich den Hintergrundprozess abschalten und sofort neu testen + vergleichen. Genial ! Danke !
Hilft sehr !


edit: So ... nun nerve ich euch nich weiter mit meinen Tüfteleien ! Weiter machen ! :D ;)


einen kleinen Shot noch zur gute Nacht mit Sternenhimmel ! :D

Anhang anzeigen 1345280

Glückwünsch für den besten Post im Thread um AMD Karten.

Bilder aus der Nachtzeit von RDR2 auf einer GTX3080 in einem Spiel wo die FPS völlig egal sind, da die Maus und das Zielen selbst auf einem 165Hz Monitor dank der schwammigen Steuerung zur ultimativen Herausforderung wird.

Genialer Trollversuch oder suchst du Freunde ?
 
P/L finde ich persönlich sehr schlecht, wer zahlt 1000 Euro für die RT Leistung einer 3070/2080ti?
Kann mir keiner erzählen dass man gerne 1000 Euro + ausgibt und dann nicht neue Technologien wie RT verwenden möchte.
Also die 6800 XT RT Leistung ist schon auf dem Niveau (siehe Bench im Anhang) !
Und die 2080 Ti hat mit 1259 UPV den doppelten Preis. Aber da ist das P/L Verhältnis o.k. ?!?

MfG Föhn.
 

Anhänge

  • RT 6800 XT.jpg
    RT 6800 XT.jpg
    319,8 KB · Aufrufe: 31
Also die 6800 XT RT Leistung ist schon auf dem Niveau (siehe Bench im Anhang) !
Und die 2080 Ti hat mit 1259 UPV den doppelten Preis. Aber da ist das P/L Verhältnis o.k. ?!?

MfG Föhn.
Die 2080ti ist eine 2 Jahre alte Karte, was ist das für ein Vergleich?
Die 3070 bietet für 500 Euro die gleiche RT Leistung wie die 6800XT bzw fast die gleiche wie die doppelt so teure 6900XT.
 
Die 2080ti ist eine 2 Jahre alte Karte, was ist das für ein Vergleich?
Die 3070 bietet für 500 Euro die gleiche RT Leistung wie die 6800XT bzw fast die gleiche wie die doppelt so teure 6900XT.
Also die 2080Ti hast DU im Vergleich erwähnt.
Sorry, ich dachte es geht um Leistung (FPS) mit RT und NICHT um die Erscheinungs Termine der Karten.

MfG Föhn.
 
Immer wenn es heutzutage um RT geht, kann man DLSS2.0 eigentlich gleich mit einbeziehen und da haste dann direkt die doppelte Framerate plus Bildverbesserung bei Nvidia. Wird aber gern verschwiegen in der aktuellen Debatte. :daumen:
Aber halt (leider) auch nur in Deiner Welt … :D

MfG Föhn.
 
Bezüglich dem Raytracing-Vergleich braucht es kein DLSS. Die RX 6900 XT rangiert hier gemäß der THW-Tests in FullHD (alle ohne DLSS) weitestgehend deutlich unter einer RTX 3080 trotz +350 € mehr MSRP (stellenweise gar nur auf dem Niveau einer RTX 3070). Hier kann man nur hoffen, dass es da implementationstechnisch noch was zu optimiern gibt.
Für jemanden, für den Raytracing wichtig ist und in der Zukunft absehbar wichtiger wird, ergibt sich hier mit 499 € zu 999 € MSRP also durchaus ein legitimer Vergleich.
 
Für jemanden, für den Raytracing wichtig ist und in der Zukunft absehbar wichtiger wird, ergibt sich hier mit 499 € zu 999 € MSRP also durchaus ein legitimer Vergleich.
Aber auch wirklich NUR in diesem Szenario, schließlich nimmt man dann die restlichen Nachteile in Kauf, wie z.b. 50% weniger Speicher und eben die schlechtere Performance außerhalb von RT.

Dabei bleibt halt auch offen wie gut / schlecht AMDs RT werden wird. Aktuell gibt es ja fast nur RT Titel die für RTX optimiert sind, da kann man nicht erwarten, dass AMD Bäume ausreißt.
 
Immer wenn es heutzutage um RT geht, kann man DLSS2.0 eigentlich gleich mit einbeziehen und da haste dann direkt die doppelte Framerate plus Bildverbesserung bei Nvidia. Wird aber gern verschwiegen in der aktuellen Debatte. :daumen:
Das könnte noch ein ganz heißes Thema werden.
Noch gibt es nicht so viele Spiele mit RT + DLSS2.0 und bei den jetzt neu kommenden Titel wird es interessant sein wie gut oder schlecht AMD da performt, bis jetzt scheint es so zu sein das AMD bei "Next-Gen" Titeln wesentlich besser abschneidet wie in älteren Titeln. AMD muss halt zusehen das sie Super Resolution auf den Markt bekommen, dann könnte bei neuen Titeln die RT Performance unter umständen sehr passabel werden.
 
Nachdem mein sinnfreier Kommentar von den Mods zurecht gelöscht wurde trotzdem nochmal ein Beitrag mit dickem Danke für den Test.
Die Spieleauswahl scheint tatsächlich unbeabsichtigt etwas unglücklich. Eine 6900XT knapp hinter einer RTX 3080 spiegelt wahrscheinlich nicht wieder, was die Karte zu leisten imstande ist. Ob sie am Ende in neueren Titeln die 3080 oder gar 3090 wirklich schlägt sei mal dahingestellt (ich persönlich glaube das nicht), außerhalb von ein paar Ausreißern sind die paar FPS Unterschied aber aktuell eh kaum der Rede wert.

Der Preisunterschied zwischen 6800 XT und 6900 XT ist aber meiner Meinung nach nicht gerechtfertigt. Vermutlich sind die Chips im Vollausbau selten und daher recht teuer, aber es sind keine 10% Mehrleistung.

Die 3090 ist fast doppelt so teuer wie die 3080, dass ist auch sehr unverschämt, aber dort hat man immerhin neben der höheren Rohleistung auch den Vorteil des höheren VRAMs und auch mehr Speicherbandbreite.

Im >1000€ Bereich würde ich der 3090 den Vorzug geben. Leistungsstark, viel RAM, bessere RT Performance, DLSS.

Die 6900XT ist auch stark, aber nicht soooo viel billiger, dafür im Mittel etwas schwächer (wohl auch mit SAM) und bei RT deutlich schwächer und (noch) kein DLSS o.ä.

Im Bereich ~800 Euro würde ich vermutlich die 6800 XT der 3080 vorziehen. Gute Performance, schwächer in RT, dafür 16 GB Ram.

Auch die 6800 würde ich der 3070 vorziehen.

Aber unterm Strich zählen für mich die reinen FPS nicht alleine. Für mich sind auch die Features wichtig. Und ich persönlich finde RT sehr wichtig. Und mit einem 4K Bildschirm ist DLSS auch ein sehr feines feature.

So schwierig wie jetzt, war es meiner Meinung noch nie, sich für eine Karte zu entscheiden. Aber bei der Liefersituation und den Preisen hat man ja genug Bedenkzeit.
Oder man wartet auf das erste Refresh und hat gleich noch eine bessere Karte :)

Das könnte noch ein ganz heißes Thema werden.
Noch gibt es nicht so viele Spiele mit RT + DLSS2.0 und bei den jetzt neu kommenden Titel wird es interessant sein wie gut oder schlecht AMD da performt, bis jetzt scheint es so zu sein das AMD bei "Next-Gen" Titeln wesentlich besser abschneidet wie in älteren Titeln. AMD muss halt zusehen das sie Super Resolution auf den Markt bekommen, dann könnte bei neuen Titeln die RT Performance unter umständen sehr passabel werden.

Ich bin sehr gespannt auf Super Resolution, genau wie auf die "SAM" Umsetzung von Nvidia.
Allerdings glaube ich, dass DLSS performanter sein wird, da dort wohl die im Spielebereich sonst unnützen Tensorcores mitbenutzt werden können. Bei AMD müssen die ALUs das alleine machen. Aber ob das einen großen Unterscheid machen wird?
Ansonsten hatte ich in meinem Beitrag ja schon geschrieben, dass ich persönlich nicht glaube das die AMDs in zukünftigen Spielen deutlich besser performen als Nvidia Karten, aber ich lasse mich gerne überraschen.

Der Grund warum ich das nicht glaube ist einfach, dass RT vermutlich eine größere Rolle spielen wird und die reine Rechenlast vermutlich steigt. Eine Disziplin wo AMD schon immer stark war, aber Nvidia hat mit den neuen Shadern, die im Optimalfall doppelt soviele FP32 Kalkulationen durchführen können mittlerweile schon einen klaren Vorteil dort, den man bei hohen Auflösungen schon sehen kann.
Aber irgendwie scheint AMD seine Leistung diesmal richtig gut, vielleicht sogar besser auf die Straße zu bringen als Nvidia. Mal sehen.
 
Zuletzt bearbeitet:
Zurück