AMD Radeon RX 6900 XT im Test: Enthusiasten-Duell mit Nvidias Geforce RTX 3090

Aber offenbar nicht alt genug, denn das waren noch die ATi-Zeiten. ;)
Hast ja Recht. Das ATi/AMD Ding hab ich schon komplett getilgt.
Aber rein vom Alter her mach dir keine Sorgen, ich hab auch schon VooDoo Karten gekauft und noch früher auf 386er CPUs gespielt. Zu einer Zeit, als man noch von Faktoren sprach bei Leistungssteigerungen zur nächsten Generation und nicht von Prozenten. :haha:
Wobei man da fairerweise auch bei den TDPs auch mal problemlos x2 oder x3 machen konnte, das wäre heute eher nicht mehr drin :ugly:
 
Die Karte ist echt nicht schlecht. Aber ich hoffe dennoch auf eine 3080TI mit ähnlich viel Speicher (um beide Karten für mich ins Verhältnis zu setzen. Anhand der Leistung sehe ich die 6900XT auf das derzeitige Gegenangebot von Nvidia ehr im Preisbereich der 3080 leicht drüber. Denn die einzigen allgemeinen Vorteile die ich erkennen kann sind Kühlung und Speicher. Diese stehen einem jeden Interessierten der Niesche "RT Leistung" gegenüber sofern man Wert darauf legt und überhaupt Spiele dafür hat.


-Es ist AMD´s erste RT Generation. Und AMD haben eine ganz andere herangehensweise an RT Darstellung.
-DLSS ist Nvidia Exclusive und "bisher" nur Nötig um RT Leistungsdefiziete auszugleichen für hohe Auflösungen!
Sie ist etwas langsamer kostet Aber auf Offiziell 1/3 Weniger
-24GB Sind auch b ei der 3090 zuviel für den Normalen Enthusiasten User der nur Spielt, Bis Diese benötigt werden sind beide Karten viel zu lahmarschig geworden.
Ich denke auch, dass die 3080Ti mit 20 GB das interessanteste Produkt von allen darstellt.
Warte nur darauf bis sie endlich kommt ... :-D

MfG Föhn.
 
@deady1000 hmm, so ganz richtig sind deine Aussagen nicht.

Bei CB liegt die 6900 in 4K, genauso wie in allen anderen Auflösungen auch, vor der 3080.
CB_Performancerating_UHD.jpg


Bei Betrachtung der neusten Spiele sogar vor der 3090.
CB_Performancerating_UHD_neuste_Spiele.jpg


Im Hinblick auf Raytracing liegen die RDNA2 Karten übergreifend aktuell zwar noch hinten, besonders bei Nvidia biased Games wie Control, aber in neutral gestalteten Titeln wie CoD oder SOTTR sind die Abstände nicht gravierend, was ich persönlich ziemlich gut finde.
Von Seiten der Konsolen wird da zukünftig weiteres Material kommen was manierlich läuft und garantiert fließen mit der Zeit treiberseitig noch weitere Optimierungen ein.

Bin froh, dass ich heute eine 6900ér ergattern konnte, denn so kann meine up to 370W Gigabyte 3080 Vision OC bald die Biege machen.
War mal ein nettes Intermezzo mit ner Nvidia, aber ich vermiss den Radeon-Treiber und die Tuning/Bastel/Optimierungs-Möglichkeiten bei Team Red.
Außerdem stören mich die 10GB VRAM bei der 3080. Der NV Treiber gibt sich zwar echt aller größte Mühe den immer wieder freizuschaufeln, aber das ist mir heute tatsächlich schon zu wenig.
Die min-FPS in 4K sind damit teilweise echt mies und wenn du mal eben auf den Desktop raustabbst müssen erstmal alle Bildinhalte wieder in den Grafikspeicher geladen werden, weil die 3080 währnend des Gamings echt alles hinten rum in Beschlag genommen hatte :D

Interessant find ich nachwievor, dass Nvidia Variable Rate Shading ja bis 4x4 einsetzt. AMD wiederum bei 2x2 schluss macht, weil Sie sagen das würde sich ansonsten zu negativ auf die Bildqualität auswirken. (verschenkt AMD natürlich mögliche Leistungszugewinne mit)
Sobald die 6900ér hier ist muss ich mal gucken ob ich da im direkten Vergleich einen Unterschied ausmachen kann.
Bin aber wohl schon voreingenommen, weil iwie gefällt mir das Farbsetting von Radeon-Karten eh schon besser.
 
In einigen NVIDIA Titeln, bei allen anderen wurde die 680 sogar bis zu 30-40% geschlagen. Spielt ja auch keine Rolle, wir leben im hier und jetzt, was damals war ist heute nicht mehr wichtig.
 
Ich denke auch, dass die 3080Ti mit 20 GB das interessanteste Produkt von allen darstellt.
Definitiv. Ne 3080Ti (=3090er Chip mit 3080er SI und 20GiB für 1000€) würde ich mir tatsächlich evtl. kaufen.
Vielleicht siegt aber auch die Vernunft und es wird ne 6800XT wenn sie verfügbar und günstig(er) ist.

Bis irgendwas davon passiert ist ja noch viiiiel Zeit...
 
Definitiv. Ne 3080Ti (=3090er Chip mit 3080er SI und 20GiB für 1000€) würde ich mir tatsächlich evtl. kaufen.
Vielleicht siegt aber auch die Vernunft und es wird ne 6800XT wenn sie verfügbar und günstig(er) ist.

Bis irgendwas davon passiert ist ja noch viiiiel Zeit...

Ich dachte du wolltest keine 350 Watt Karte ? :devil:
 
Mein Gott... DLSS
Ich weiß zwar noch nicht ob es eine AMD oder Nvidia wird, aber wenn ich die verfechter von DLSS so reden höre..junge junge!

Mehr als ein irrelevantes Nice to have sehe ich persöhnlich qualitativ noch nicht.
Auch wenn es wieder eine Nvidia (mit mehr als 10 GiB) werden sollte bei mir, gehöre ich einfach zu den Leuten die RT und DLSS erst in ein paar Jahren relevanz zuordnen.

Definitiv. Ne 3080Ti (=3090er Chip mit 3080er SI und 20GiB für 1000€) würde ich mir tatsächlich evtl. kaufen.
Vielleicht siegt aber auch die Vernunft und es wird ne 6800XT wenn sie verfügbar und günstig(er) ist.

Bis irgendwas davon passiert ist ja noch viiiiel Zeit...
Sehe ich auch so
 
Enttäuscht bin ich ja schon, aber nicht nur von der 6900XT, sondern von den neuen Serien beider Hersteller. Für mich als Spieler in beinahe-UHD was die Pixelmenge angeht (5120x1440), haben bis auf die indiskutabel teure RTX 3090 alle neuen Grakas den Pferdefuß, dass sie teilweise schon jetzt, mit großer Wahrscheinlichkeit aber mittelfristig, in hohen Auflösungen Probleme bekommen. Der AMD-Serie läuft der Infinity-Cache voll, wodurch die geringe Speicherbandbreite sich bemerkbar macht und die neuen RTX-Karten (außer die 3090) haben zu wenig Speicher für ihre Rohleistung.

Mit Sicherheit kann ich das natürlich nicht wissen, bin aber relativ sicher, dass in ein, spätestens zwei Jahren diese Dinge zum Tragen kommen werden. Für eine RTX 3080 sehe ich beim Speicher in spätestens zwei Jahren Schwarz (in hohen Auflösungen!), wenn auf die neuen Konsolen optimierte Spiele erscheinen und die Radeons haben schon jetzt eine grenzwertige RT-Leistung. Ja, ich weiß, aktuell ist RT noch nicht besonders wichtig, als Grafikenthusiast will ich es aber trotzdem haben. Zumal die Titel, die aus RT mehr Nutzen ziehen werden, auch nicht mehr lange auf sich warten lassen werden. Dafür werden PS5 und Co schon sorgen.

Also hänge ich ziemlich in der Luft und bin fast froh, dass ich sowieso nix kaufen kann.

Und jetzt sind die AMD Anhänger in ihre Schranken verwiesen ! Nvidia BOSS, AMD 2te Wahl !
Dieses Zitat ist nur exemplarisch für die unglaubliche Jauche, die du allein in diesem einen Threat auskotzt. Irgendjemands Anhänger hier, irgendwelche Anhänger da, WIR sind die Größten, DIE sind kleine Wichte. Hauptsache, du kannst auf dicke Hose machen und auf andere herabblicken - einfach nur widerlich.:daumen2:
Und nein, ich bin kein AMD-"Anhänger" (hieß das nicht bisher immer Fanboy?), auch keiner von Nvidia oder sonst einem Unternehmen.
 
Du hast diese Folie, Direktaufnahme? aber verstanden oder? Es ging darum den Flow auf Nvidias Hardware auszuführen und aufzuzeigen wo die Vorteile von ML liegen, Tensor=18fps, ML=67fps!!!!!! Auf der gleichen Hardware! Also wird Tensor durch ML um das vierfache beschleunigt, denn der Flow war nie als realtime ausgelegt (was auch da steht). Dann nochmal lesen was ich dazu geschrieben habe.

Supersresolution ist also deutlich schneller als DLSS auf reiner Tensorbasis inklusive dazugehörigem Framework. Man muss nur lesen und verstehen können. Genau deshalb ist Nvidia auch interessiert. Das Gummiband der Auswirkungen ist natürlich in alle Richtungen gleich dehnbar, mehr Leistung oder weniger fixed function in Form der Tensorcores und damit weniger Fläche bei höherer Stückzahl und steigender Yield, Waferausbeute usw. usf.. Was schon bei Ampere Einzug hielt, denn die Coresanzahl wurde reduziert und dafür ein neues Framework eingeführt, lass mich raten DLSSv3.0 alias directML! und die FP Performance fürs Inferencing deutlich erhöht. Du lieferst also sogar die Links die die Falschaussagen widerlegen.

Bitte mal den kompletten Link.
 
Zuletzt bearbeitet von einem Moderator:
@DarthSlayer

Na "Thermi2.0" (GTX580). Aber das ist nicht das Thema. Beispiele gibts genug, es ging nur darum zu erwähnen, dass es nicht schon immer so war dass Intel und NV schneller als AMD sind. AMD war in beiden Kategorien zwischenzeitlich mal weit vorne (bei CPUs sind sie ja jetzt auch wieder vorbei). Nur dauern solche Verschiebungen halt sehr lange.

Interessant wird wies in der nächsten Gen aussieht: RDNA3 soll ja NOCHMAL so nen Sprung hinlegen was wirklich extrem wäre - aber NV hat beim nächsten mal den Vorteil vom schlechteren Samsungprozess auf nen 7 oder gar 5nm zu gehen was massiv Performance/Effizienz bringen sollte. Ich hoffe dann kommen wir mal wieder von den 300W ein bisschen runter - wobei dann wohl beide Hersteller wieder ans Limit gehen wollen um zu gewinnen... die Leute sind dann ja an derartige TDPs gewohnt.

Mit der 1080 hat man damals so einen schönen Schritt nach hinten gemacht was die TDP angeht. Na gut war ja auch der Performance Chip der uns erstmal als High End Chip vorgesetzt wurde. Jetzt bekommen wir von Nvidia wieder gleich den Großen Pixelschubser weil AMD endlich mal wieder ordentlich Druck macht. So viel Druck das man die Karten nicht auf dem Sweetspot getrimmt hat sondern die Chips in Serie fast ans Limit treiben musste.
 
Du hast diese Folie, Direktaufnahme? aber verstanden oder? Es ging darum den Flow auf Nvidias Hardware auszuführen und aufzuzeigen wo die Vorteile von ML liegen, Tensor=18fps, ML=67fps!!!!!! Auf der gleichen Hardware! Also wird Tensor durch ML um das vierfache beschleunigt, denn der Flow war nie als realtime ausgelegt (was auch da steht). Dann nochmal lesen was ich dazu geschrieben habe.
Jung ich kenn das Video. Er sagt, dass sein eigenes Model zu langsam war und das von Nvidia bekommen hat. Ich finde das Video leider nicht mehr. Ist mir aber auch egal, glaub was du willst.
Microsoft lügt mit Sicherheit XD
Ich hab gesagt, dass das Model von Nvidia kommt und genau so steht es auch im Screen. Liefer du doch mal eine verlässliche Quelle, die deine Aussage stützt.
 
Zuletzt bearbeitet:
Dieses Blurry, milchige TAA Game, was aussieht, als hätte man es frisch aus der Waschmaschine gezogen nachdem es 2 Stunden mit Motion Blur geschleudert wurde? Das Spiel hat nicht mal anständige Texturen, ich sehe jetzt schon lange Gesichter.
He, cool! Du spielst Cyberpunk schon? Schreib doch mal eine Review. :ugly:

Die 3080Ti ist (Gerüchtestand jetzt) "nur" ne 320W-Karte (zwar mit dem Chip der 3090 aber mit leicht reduzierten Taktraten).
Ob das klappt? Da müssten die zusätzlichen 10 GB VRAM ja vom Leistungsbudget her praktisch "kostenlos" laufen, bzw. die GPU müsste deren Leistung bei sich gewissermaßen Einsparen, damit diese hypothetische Grafikkarte mit 320 W zufrieden ist.

Aber WENN das klappt UND keine Mondpreise aufgerufen werden, würde ich mir so ein Schnuckelchen wohl auch kaufen.
 
Zuletzt bearbeitet von einem Moderator:
Wo sind die FullHD Werte?
Die Übersicht/Index stimmt dann ja wohl auch nicht da "in 4 resolutions" aber die 6900XT habt ihr ja nur in 3 Auflösungen vermessen. Warum?

EDIT: Ok, passt besser ;) *pfeif*
AMD6900XT_FullHD_newgames (2).png
 
Zuletzt bearbeitet:
Wow einfach nur wow. da trollt ja ein 5 jähriger besser
Ok, wenn man keine Ahnung hat.

"Mit der Bestätigung des Zeitraums dürfte auch klar sein, dass Battlefield 6 für die Next Gen-Konsolen PlayStation 5 und Xbox Series X erscheinen wird. Die Systeme von Sony und Microsoft erscheinen Ende 2020 und dürften mit ihrer deutlich gestiegenen Hardware-Power und -Geschwindigkeit dafür sorgen, dass Battlefield auf Konsolen so schick sein dürfte wie nie zuvor."
 
Der AMD-Serie läuft der Infinity-Cache voll, wodurch die geringe Speicherbandbreite sich bemerkbar macht und die neuen RTX-Karten (außer die 3090) haben zu wenig Speicher für ihre Rohleistung.
Hast du spezielle Gründe/Ansätze warum du meinst der InfinityCache könnte volllaufen?

Ich befürchte du unterliegst hier einem Fehlglauben den viele aktuell haben.
Die Radeon 6000ér performen in 4K nämlich verhältnismäßig nicht schlechter als bspw. die Nvidia-Karten, die Nvidia-Karten haben aber das Problem Ihre theoretisch vorhandene Leistung in niederen Auflösungen nicht auf die Straße zu bringen, was Sie dann in 4K stärker erscheinen lässt.

Ist doch das gleiche Spiel wie bei AMD früher.
Viele Einheiten und geringer Takt -> krieg ich in niedrigen Auflösungen schlechter auf die Straße als weniger Einheiten bei hohem Takt.

Gegen ein "Überlaufen" des InfinityCache spricht ferner, dass Speicher-OC bei den 6000érn quasi nix bringt.

Die RTX 3080/3090 können Ihr Potential mMn tatsächlich nur in und oberhalb von 4K zeigen.
Und dann ist es leider so, dass die 3080 zu wenig Speicher hat.
Da ist auch die RT-Leistung irgendwann wayne. Ohne Einsatz von DLSS, was speziell in die Games integriert werden muss, hast du niemals die Speicherreserven die du für RT auf der 3080 in nativer Auflösung bräuchtest.
Heute nicht, und morgen schon gar nicht.

Es ist echt schlecht, du baust dir ne 900€ Custom-3080 ein, schmeißt das im Bundle enthaltene Game an, und siehst als erstes wie der Speicher abröchelt.
Hat wohl schon seine Gründe warum die VRAM-Auslastung im NV Leistungsoverlay nicht gezeigt wird. Das will keiner sehen - ist ja immer fast voll^^
 
Zuletzt bearbeitet:
Zurück