Radeon RX 6000 offiziell: RX 6900 XT im Dezember, RX 6800 XT und RX 6800 im November - alle Daten und Preise

Warum ist die RX 6800 eigentlich so schweineteuer? Hält ungefähr mit der RTX 3070 mit, aber soll bei $580 beginnen?
Doppelter VRAM und wohl nen Stück schneller als die 3070. Finde sie aber auch ein paar Euro zu teuer.
Gerade die Ankündigungsmail von AMD bekommen, wo ein Releasedatum vom 11.11. genannt wird. Bin jetzt etwas confused. War in der Präsentation nicht die Rede vom 18.11.?
Interessant. Vielleicht hat man intern kurzfristig ne Woche verschoben um die Lager mehr zu füllen.
 
Um mal ganz ehrlich zu sein ist die 6900XT nichts anderes als eine 6800XT mit 8 mehr CUS und besten gebinnten Chip.

Ich traue mich wetten das Stock zwischen den beiden fast kein Unterschied vorhanden ist. Weniger als 10%. Deswegen haben sie bei den Benchmarks gegen die 3090 alles einschalten müssen. OC 3090 ist schneller säuft halt auch aber um das geht es ja nicht. Die 6900XT in dem Benchmark mit Rage Mode war bestimmt bei 350Watt+

Ausserdem gibt es 4k Ergebnisse in gleichen Spielen von 6800XT und 6900XT das teil ist kaum schneller, wenn man die Games vergleicht von den beiden Folien zueinander 4-13% max mit Rage und memory+.

6900XT gibt es nur weil AMD den Markt der 3090 entdeckt hat. Aber wem Geld egal ist und den besten gebinnten Navi Chip will nimmt halt den. :) Aber das mehr an 350 ist er so nicht wert. Typisches High End Phänomen wo jedes % extrem teuer erkauft wird.

80 cu oder 72? komplett egal keine 5% in spielen.
 
Zuletzt bearbeitet:
Eine 6800XT ist selbst mit Kühlblock noch so "günstig", dass ich mir dazu den gewünschten 5900X leisten kann und werde. Jetzt heisst es nur noch auf Tests und dann den GPU Block von (hoffentlich) Aqua Computer warten.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
von wegen GB :D @ChrisMK72
 
Wenn ich die UVP sehe und was AMD in den Folien postuliert und das ganze nur ansatzweise hinkommt, dann ist ein möglicher Konter von NV schon im Keim abgewürgt:
  • 6800 non XT mit 16 GB ist schon das was die 3070 hätte werden sollen.
  • 6800 XT mit 16 GB unter 3080 Preis bei vergleichbarer/höherer Leistung macht 20 GB Versionen der 3080 unwirtschaftlich. NVidia schießt sich hier mit dem TWIMTBP/Gameworks-Programm sogar selber selber ins Bein, wenn Entwicklern empfohlen wird, es mit der Speichernutzung nicht zu übertreiben, um 3070 und kleine 3080 zu rechtfertigen. In vielen Spielen sind mir schon 10-10,5Gb ungemoddet selbst in UHD als magische Grenze, die nie überschritten wird, aufgefallen. Für WQHD liegt die sicher überraschenderweise bei 7-7,5.
  • Die 3090 hebt sich leistungsmäßig kaum von der 3080 ab und ist in deren OC Reichweite, da bleibt nur der dicke Speicher als Trumpf. Da die 3090 selber mit normalen Methoden kaum OC-Potenzial bietet, könnte schon die 6800XT mit starkem OC hier vorbeiziehen. Wo die 6900 XT mit OC landet ist reine Spekulation aber mehr als die 3090 sollte da definitiv drin sein.
Was die ganzen Softwaredinge angeht, das ist den Entwicklern überlassen. DLSS scheint bis jetzt nicht all zu attraktiv zu sein, wenn man die Verbreitung ansieht.
Wirklich interessant ist die Sache mit dem großen Cache und wie der sich auf die Performance auswirkt. Wenn fast alles im Chip berechnet werden kann ohne auf den Videospeicher zugreifen zu müssen ist das eine enorme Verbesserung. Cachespielereien waren in der Vergangenheit immer Garanten für ungewöhnliche Leistungssprünge, gerade wenn man es schaffte "näher" zu den Recheneinheiten zu rücken.

PS: Wer die Speicherbandbreite bemägelt: Wer da extra viel will kann ja ne Radeon VII kaufen, mehr geht als Consumer nicht.
Derzeit gibt es nicht mal ein NDA. Das kann ich sagen, da es kein NDA gibt. ;)

MfG
Raff
Dann hau mal raus:D.

Man braucht vielleicht keins, weil man nicht auf "Katze im Sack"-Käufer hoffen muss.
Gerade die Ankündigungsmail von AMD bekommen, wo ein Releasedatum vom 11.11. genannt wird. Bin jetzt etwas confused. War in der Präsentation nicht die Rede vom 18.11.?

Anhang anzeigen 1340152
Da steht "erhältlich" nicht "verfügbar". Klingt schonmal gut für potenzielle Käufer.
 
Zuletzt bearbeitet:
Ich finde die neuen CPUs und Grafikkarten im hohen maße spannend, habe mir jedoch vor kurzem einen RyZEN 3950X mit Radeon RX 5700XT gegönnt um praktisch bei der Lagerräumung für die nächste Generation zu helfen.^^

Zocke halt "Quake Champions" und "Rocket League" in 4k

Waß ich meine und damit mache ich KEINEN Spaß, AMD ist dazu verpflichtet, zumindestens die Grafikkarten, die man heute kaufen kann, 4 Jahre (2025) noch weiterhin mit Treibern zu versorgen. Neue Technik hin oder her, bitte nicht treue Kunden mit "etwas" älterer Hardware im Stich lassen.

Dass ist ja wohl das mindeste, was man erwarten kann. Danke.

mfg, neocoretexxx aka rach33ng3l
 
Zuletzt bearbeitet:
R.I.P. Nvidia und Intel :cool:
Lol das von einem Redakteur ;)
Aber ja, beide werden wohl einbußen hinnehmen. Intel spürts nach 4 Jahren langsam, dass Zen da ist, Nvidia mal sehen. Falls die Performance so kommt wie sie AMD ankündigt wird der Kampf über Features ausgetragen (RT Performance, DLSS) und auch nur so lange, bis Nvidia auch den gleichen Prozess verwendet. Der dürfte es dann nochmal spannend machen. Das nächste Duell steigt wohl mit dem 5nm Prozess (oder Nvidia legt doch nochmal was in TSMCs 7nm nach)

Jedenfalls wirds mal wieder keinen Preiskampf geben, es wird also wieder mal das Geldbörserl jammern, falls ich doch weiche Knie krieg ;)
 
Das liegt wohl daran das in den letzten Jahren die meisten Spiele Konsolenports waren die auf ner PS4 mit einer Bulldozer-APU (?) laufen mussten.

Die meiste Leistung geht doch heute eher für hohe Auflösung/Refreshraten drauf, also für Luxus. Man kann aber auch mit 1080p @ 60Hz noch wunderbar zocken hab ich gehört. Auch MSAA ist zum Glück tot seitdem sich TAA endlich durchgesetzt hat. Das war immer der Ressourcenfresser schlechthin.
Das war die Jaguar Architektur hätten sie Bulldozer gehabt wären das 60 Fps geworden.
Klar kann man mit niedriger Auflösung spielen, kannst auch am PC. Einer mit einer 1060 kann auch heute noch Wunderbar zocken
deswegen gibt es ja Settings.
Aber PC User haben oft ein Problem geht nicht max ist es furchbar. Konsolen verwenden nie Maximale Settings ein RDR 2 auf PC Ultra würde
in 1080p wahrscheinlich mit 15 Fps laufen!

Zen2 bei den Konsolen ist auch nicht das Zen2 was hier alle meinen. Es ist eine Abgespeckte Version von Zen2 die auf TDP Reduzierung bossiert. Den mit 15 Watt TDP kannst ja mal versuchen 8 Zen 2 Kerne zu befeuern. Das ist unmöglich und auch nur Pro Kern gerechnet nicht Gesamt.
Die Leistung ist nicht Vergleichbar, zwar ein großer Schritt nach vorne aber nicht in der nähe von Desktops.
Die Presse Vergleiche mit einem 3700X zeigen wie Unqualifiziert einige sind, weil nur Stur Kerne verglichen wurde.

Genauso wurde übrigens bei PS4 ja von Bulldozer ausgegangen und ebenfalls der Desktop Vergleich gezogen.
Was war es dann eine TDP sparsame Version eben Jaguar die nichts mit Bulldozer gemein hat. Zen2 auf den Konsolen
ist nur ein Name, weil es Zen Architektur ist. egal wie weit diese Abgespeckt wurde. Da ist das Problem vorher hat man
das wenigstens anderes genannt jetzt vergleicht man TDP sparsame CPUs mit Watt Monstern wo ein Kern schon die TDP brauchen kann!

Das lernt die Presse aber nicht mehr, weil nicht kritisches Denken gefragt ist sondern möglichst viele News.
 
Waß ich meine und damit mache ich KEINEN Spaß, AMD ist dazu verpflichtet, zumindestens die Grafikkarten, die man heute kaufen kann, 4 Jahre (2025) noch weiterhin mit Treibern zu versorgen.
Wenn RDNA auch nur halb so lang wie GCN "lebt" dann würde ich mir da kaum Gedanken drüber machen. Das einzige wo AMD den Support früh fallen lässt, ist bei unpopulären Betriebssystemen(Vista/Win 8/Win 8.1). NVidia lässt ihre Karten da wesentlich schneller verhungern, was Treiber angeht.
 
1664 GB/s bei der 6900, 6800XT als auch der 6800 sind mal eine Ansage!
Da sehen die 448GB/s der 3070, 760GB/s 3080 und 936GB/s der 3090 rech mickrig dagegen aus.

Das alles mit nur x 0.9 des Verbrauchs der für ein 384Bit SI mit 768GB/s benötigt wird.

IF cache.png

Fun fact: Auf die gestrige Frage, mit welchem Speichertakt die RX-6000-Grafikkarten arbeiten, entgegnete AMD sinngemäß: "Das ist nicht so wichtig". Mittlerweile ist der Speichertakt bekannt.

Bei dieser geballten Ladung an Bandbreite kann man die Aussage gut nachvollziehen.
 
Wenn ich die UVP sehe und was AMD in den Folien postuliert und das ganze nur ansatzweise hinkommt, dann ist ein möglicher Konter von NV schon im Keim abgewürgt:
  • 6800 non XT mit 16 GB ist schon das was die 3070 hätte werden sollen.
  • 6800 XT mit 16 GB unter 3080 Preis bei vergleichbarer/höherer Leistung macht 20 GB Versionen der 3080 unwirtschaftlich. NVidia schießt sich hier mit dem TWIMTBP/Gameworks-Programm sogar selber selber ins Bein, wenn Entwicklern empfohlen wird, es mit der Speichernutzung nicht zu übertreiben, um 3070 und kleine 3080 zu rechtfertigen. In vielen Spielen sind mir schon 10-10,5Gb ungemoddet selbst in UHD als magische Grenze, die nie überschritten wird, aufgefallen. Für WQHD liegt die sicher überraschenderweise bei 7-7,5.
  • Die 3090 hebt sich leistungsmäßig kaum von der 3080 ab und ist in deren OC Reichweite, da bleibt nur der dicke Speicher als Trumpf. Da die 3090 selber mit normalen Methoden kaum OC-Potenzial bietet, könnte schon die 6800XT mit starkem OC hier vorbeiziehen. Wo die 6900 XT mit OC landet ist reine Spekulation aber mehr als die 3090 sollte da definitiv drin sein.
Was die ganzen Softwaredinge angeht, das ist den Entwicklern überlassen. DLSS scheint bis jetzt nicht all zu attraktiv zu sein, wenn man die Verbreitung ansieht.
Wirklich interessant ist die Sache mit dem großen Cache und wie der sich auf die Performance auswirkt. Wenn fast alles im Chip berechnet werden kann ohne auf den Videospeicher zugreifen zu müssen ist das eine enorme Verbesserung. Cachespielereien waren in der Vergangenheit immer Garanten für ungewöhnliche Leistungssprünge, gerade wenn man es schaffte "näher" zu den Recheneinheiten zu rücken.

PS: Wer die Speicherbandbreite bemägelt: Wer da extra viel will kann ja ne Radeon VII kaufen, mehr geht als Consumer nicht.

Dann hau mal raus:D.

Man braucht vielleicht keins, weil man nicht auf "Katze im Sack"-Käufer hoffen muss.

Da steht "erhältlich" nicht "verfügbar". Klingt schonmal gut für potenzielle Käufer.
Gott, welch eine Träumerei. Jetzt ist schon der kleine AMD schneller als der Ampere Vollausbau. Ihr mach euch absolut lächerlich. Ich werde euch an diese absurden Aussagen erinnern, wenn unabhängige Tests kommen. Danach fängt das grosse Rationalisieren an. Wetten!? xD
 
Zen2 bei den Konsolen ist auch nicht das Zen2 was hier alle meinen. Es ist eine Abgespeckte Version von Zen2 die auf TDP Reduzierung bossiert. Den mit 15 Watt TDP kannst ja mal versuchen 8 Zen 2 Kerne zu befeuern. Das ist unmöglich und auch nur Pro Kern gerechnet nicht Gesamt.
Quelle bitte das die TDP lediglich 15 Watt betragen soll.

Klar ist Zen 2 bezüglich des L3 Cache abgespeckt worden (von 32MB auf 8MB analog Renoir)
Allerdings macht eine solche Änderung im Normalfall vielleicht um die 10% aus.
Die Zen 2 CPU's in der PS5 und XBOX kommen so wie ich das einschätze den Desktop Varianten schon ziemlich nahe
bis auf das sie etwas niedriger getaktet sind und eben weniger L3 haben.
Würde den Verbrauch daher eher auf 35-40W schätzen.
 
Also eine 999 Dollar Karte aka 6800XT ist also genauso schnell wie die 700 Euro Karte von Nv.
Laut AMD wohlgemerkt und wenn man RT mit ins Spiel bringt dann ist sie nur noch auf 500 Euro Level
der 3070.

Aber he die 16Gb das ist ja furchtbar wichtig, kannst zwar nicht die vollen Settings benutzen
aber sie hat ja mehr Speicher.
RT Bench 33% ist eine 3080 schneller als die 6800XT die mehr kostet!
Kein DLSS hat und in Zukunft hoffentlich kein RT kommt ansonsten wird die 1000 Euro GPU
zur 500 Euro GPU.

Super Deal also, nur wenn man ein ganz bestimmtes Verhalten hat das ja PCGH nicht will das man es
ausspricht.
Im wichtigsten Feature ist man also klar Unterlegen aber verlangt sogar mehr. Das ist also eine Definition
für gleich? Man hat kein DLSS was heißt eine 3060 wird mit RT das gleiche erreichen wie eine 1000 Euro AMD Karte.

Für mich wäre gleich, gleicher Preis gleiche Leistung egal wo. Nicht ich benutze ja kein RT weil sonst die Leistung in den Keller
geht.
Ob die Leistung in Games überhaupt ohne RT gleich ist, ist ja nicht mal sicher. Den AMD hatte da immer schon "etwas"
höhere Werte wie die Test. Da es so knapp ist laut AMD, würde ich darauf Wetten das man da so ein paar kleine Fehler hatte.
Zeigt die Vergangenheit immer sehr gut, aber daraus lernen scheint ja etwas vollkommen unmögliches zu sein.

Ach und wo wir schon dabei sind wo sind die 2,2 Ghz Boost hin? Hatte ich da recht das es der Maximale Wert ist
wie es AMD selbst sagt!!!! Anscheinend braucht man heute zu allen, Leute die es einem Vorsagen.
Selbst kommt keiner mehr drauf, das da was nicht stimmen kann.
Weil hat ja keiner von den Influencern gepostet also stimmt es nicht. Das ist die Welt von heute, ach und wenn einer gleich
von 2,5 Ghz Boost postet dann wird es gleich als News verarbeitet.


Mit den Preisen sehen ich da nicht wo AMD da gut dasteht. Der Sweat spot ist eine 3070 AMD hat nicht mal was gegen das Teil.
650 Dollar sind keine 500 Dollar außerhalb des Forums dürfte das klar für Nvidia für die Verkäufe werden.

Außerdem finde ich es echt bemerkswert das es hier keinen Shitstorm gibt wegen SAM!
Hätte das Nv oder Intel gemacht, was wäre dann hier zu lesen gelesen? Bei AMD ist das alles
total in Ordnung oder was?
Solche Praktiken sind das letzte und damit haben sie gleich auch mal alles unter Ryzen 5000 abgewertet.
Ich sagte noch bestimmt wird irgend was beschnitten werden und siehe da es ist so.
 
Zurück