Radeon RX 6000 offiziell: RX 6900 XT im Dezember, RX 6800 XT und RX 6800 im November - alle Daten und Preise

Danke für den Link.

Wenn das stimmen sollte in dem Artikel von wccftech dann wäre AMD´s RDNA 2 mit Raytracing auf Niveau der 3070/ 2080TI und das wäre ein sehr gutes Ergebnis.

Ich persönlich habe da mehr von HDR denn zuletzt auf der PS4 Red Dead Redemption 2 mit HDR gezockt und ein 4K-Film mit HDR macht auch schon etwas aus. Andersrum gesagt sieht ein Spiel und ein Film ohne HDR nicht gut genug aus.
HDR ist in RDR2 wirklich eine Augenweide,vor allem Nachts in den Städten oder zum Sonnenaufgang.
 
Na da bin ich ja mal auf die echten Benches gespannt und wie sich die Karten ohne den SAM Zusatz schlagen werden sprich Plattofrm Neutral.

Wenn man sich vor Augen hält das es AMD gelungen ist wie im CPU Sektor hier wieder voll aufzuschließen mit weniger finanziellen mitteln als ihre Konkurrenz finde ich das was man bis jetzt zu sehen bekommen hat sehr beachtlich, selbst wenn sie 10 - 15% langsamer sein sollten als das jeweilige Konkurrenzprodukt in späteren Benchmarks.

RT Performance würde ich mal bei 2080TI niveau eingliedern, ist ja auch gerademal ihr erster Schritt in die Richtung.
Bin mal gespannt wie sich die Karten nun auf Vulcan und dessen Förderung als alternative zu DX auswirken werden :)

für mich dürfte es dann wohl die 6800XT werden und das vielleicht sogar als Blindkauf, aber diese Wartezeit schon wieder..... :ugly:
 
Aktuell konkurrierende Bildverbesserungen:

Nvidia: DLSS (Deep Learning Super Sampling)
Microsoft: DirectML (Direct Machine Learning)
Facebook: NSS (Neural Super Sampling)
Sony: kein Name, besitzt aber ein Patent und "arbeitet daran".

AMD hat DirectX nicht erfunden. AMD unterstützt DirectX, das reicht.
AMD hat mit RDNA2 die Hardware diese Algorithmen auszuführen, auch das wird reichen.

Nvidia will mit DLSS ja keinen Industriestandard normieren, die wollen, dass jeder sein Spiel proprietär auf deren Karte anpasst um Nvidia damit einen Marktvorteil zu verschaffen.

Microsoft will mit DirectML einen Industriestandard schaffen, der von jeder Hardware unterstützt werden kann. Damit hat Microsoft einen Vorsprung bei den Features seiner Software und Schnittstellen. Das hat traditionell sehr gut funktioniert. Für AMD und Nvidia bedeutet das, aber leider, dass den Usern egal sein kann wer die Karte herstellt, solange sie den Industriestandard unterstützt: DirectX12 Ultimate.

Facebook will dass wir uns deren Brille aufsetzen, damit die darin versteckten Ameisen sich in unser Hirn bohren und uns zu Zombies machen. Oder war das die TV Series BrainDead? Egal, wo ist bei Facebook da der Unterschied.
 
Diese Amd Hype welle kann ich nicht verstehen ich greife zu nvidia bessere Treiber und Hardware
Hatte mir eine 5700XT gekauft eine einzige Katastrophe davor eine rx290 der letzte Müll vor allem die treiber nur Probleme seid ich eine gtx1080 ist ruhe.
Und wenn der Nvidia Hype sowie Amd hype vorbei ist und die Karten wieder normal verfügbar sind und wieder bei normalen Preisen sind werde ich mir eine rtx3080 kaufen .
Denn die 10GB Ram reichen dicke für die nächsten 3-4 Jahre ka warum alle 16 haben wollen wenn es eh nicht genutzt wird
 
Ich bin auf die Benches gespannt und vor allem RDNA2 in Kombination mit Ryzen 5000.
Das wird ne unübersichtliche Kiste und da gibt es einiges zu sortieren.
- Wie ist die RT Performance bei AMD
- Wie ist die Performance auf Non Ryzen 5000 Systemen / Bzw. wo liegt der Mehrwert in einem RDNA2 / Ryzen 5000 System

Wie schon öfter von mir geschrieben: Wie gut, dass Nvidia mir das Warten so leicht macht.

Schaust du am Ende dieses Artikels in der Bilder-Galerie Bild Nr. 20 + 21 da wird dir gezeigt was es wohl bringen soll wenn man einen Ryzen 5000 und eine 6800XT benutzt. Am Besten ist da Forza Horizon 4 mit einem Plus von 13% aber sonst sind es nur einstellige Werte.

Ich sehe das mehr als Marketing damit Spieler ja den neuen 12 Kerner kaufen aber der kostet 549€ und mein 2 Wochen alter R7 3700 nur 269€. Ich zahle bestimmt keine 300€ Aufpreis nur um 13% Mehr in Forza Horizon 4 zu bekommen. Wie gesagt das ist nur Marketing.
 
Smart Access Memory (SAM)

Ich spekuliere mal: Statt PCIe 4.0 wird Infinity Fabric auf die Leitungen geschaltet, dessen Protokolle "DMA" auf beiden Seiten (GPU <-> RAM & CPU <-> VRAM) ermöglicht.
 
Moin moin,

also erstmal Respekt AMD, echt gut abgeliefert. Mich persönlich stört jedoch der Preis der 6800. Das muss dann wohl der Markt regulieren. Ich hoffe da kommt noch was zwischen 300 und 400 € (Navi 22) mit Raytracing Features, dann bin ich dabei.

Gibt es eigentlich schon Informationen ob SAM auch mit 3000er Ryzens funktioniert?
 
Nvidia will mit DLSS ja keinen Industriestandard normieren, die wollen, dass jeder sein Spiel proprietär auf deren Karte anpasst um Nvidia damit einen Marktvorteil zu verschaffen.
Hat ja schon mit PhysX und G-Sync so gut geklappt und klappt auch gerade mit RT so gut. :ugly:

Ich mein, ich danke Nvidia dafür, dass sie so Sachen immer als Erste pushen, bis sie von universelleren, günstigeren Lösungen überholt werden, aber man muss schon Fanboy sein, um Early Adopter für diese proprietären Gimmicks zu spielen.
 
Schöne Karten! Aber um sich eine richtige Meinung bilden zu können, müssen wir die Tests abwarten und schauen, zu welchem Preis die Karten dann tatsächlich im Regal liegen werden. Aber bis dahin fliest noch viel Spekulatius den Fluss hinunter. :D

Mit den USD Preisen blicke ich eh nicht mehr so ganz durch. Es heißt doch immer, die angegebenen Dollarpreise wären ohne Steuer. Bei den Ampere Karten wurden diese Preise aber 1:1 für den € übernommen.

Ich habe meine 3080 für 699 € gekauft.

Ich bin gespannt, ob das bei den AMD Karten auch so sein wird. Für 649 € wäre die 6800xt dann eine ernsthafte Alternative zur 3080.
 
Uff, was ein winden, was ein kreischen. Da hat es AMD -vorerst auf dem Papier- Geschafft mit Nvidia gleichzuziehen und schon geht das gewimmere um die Features los.

fangen wir mal weit vorne an. T&L, war ein Meilenstein und setzte sich durch als es endlich "alle" Karten konnten. Gsync, ebenso eine gute Erfindung. Allerdings braucht(e) man dafür ein extra (teures) Modul im Monitor. Dann kam Freesync als offener standard. Gsync geht niemals mit Freesync......heute geht es doch, nachdem Freesync Gsync den rang abgelaufen hat.

Worauf will ich hinaus? Jedes feature setzt sich dann durch, wenn es von allen offen unterstützt wird. Das wird bei RT mit DirektX12 der Fall sein. Und DLSS? Das wird verschwinden, oder Nvidia macht es zum offenen Standard. AMD´s alternative? Wird das selbe Schicksal erleiden, wenn...ja wenn Sie es auch "exklusiv" behandeln. Das wird aber AMD nicht tun.

@jadiger es wäre schon schön wenn du die Karten, über die du herziehst, erstmal auseinander halten könntest, bevor du Unsinn postest. Die 6800XT kostet nicht 999€, das ist die 6900XT. Wobei den Kommentar dann obsolet ist.

Wenn wir jetzt vergleichen wollen welche Karte "schneller" ist, dann sollte das fairerweise ohne RT erfolgen. Wenn wir das ganze mit voller Feature Palette machen wollen, schlage ich ein Spiel vor, in dem mindestens 15GB Texturen vorgehalten werden müssen.....der eine oder andere merkt jetzt worauf ich hinaus will....
 
Ich finde es gut das AMD wieder etwas vorgestellt hat was Nvidia die Schweißperlen ins Gesicht treibt. So kommt mehr Leben in die ganze Sache was für uns Verbraucher einfach nur gut sein kann.

Freue mich schon auf unabhängige Tests der neuen AMD Generation.
 
Nvidia will mit DLSS ja keinen Industriestandard normieren, die wollen, dass jeder sein Spiel proprietär auf deren Karte anpasst um Nvidia damit einen Marktvorteil zu verschaffen.
Das ist aber eigentlich immer der falsche Weg gewesen und hat sich nie dauerhaft am Markt gehalten, erst wenn man die Technik dem Gegner lizensiert hat, kam so etwas durch. Vor allem ist es das schlimmste, dass man als Kunde letztlich der Gearschte ist, man sieht ja in einigen Themen und Posts hier im Forum, dass sich Kunden für einen G-Sync Monitor entschieden haben, jetzt ein echtes moralisches Problem bekommen, AMD liefert (voraussichtlich) die besseren Karten ab und man ist evtl. an nicht verfügbare Nvidia Karten gebunden, weil man vor einigen Jahren einen Fehler gemacht hat. PhysX ist ein weiterer Fall, wo Nvidia eine in meinen Augen sehr vielversprechende Technik kaputt gemacht hat.

DLSS ist schon seit Anbeginn eine sehr interessante Technik, wird sich in meinen Augen aber nicht am Markt durchsetzen können, auch wenn einige dies nicht wahr haben wollen. Der Gaming Markt ist ja aufgeteilt auf drei Bereiche, Mobil (hier recht uninteressant im Moment), Konsolen und PC, denke von den interessanten Bereichen ist der Konsolenmarkt volumentechnisch am Größten (fürfte mit deutlichem Abstand führen), wofür entwickeln jetzt die Publisher ihre Spiele? Ich denke mal, zu großen Teilen dürfte dies für die Konsolen sein um dann einen Port auf den PC zu bringen, selbst Shooter (wo ich bis heute nicht verstehe, wie man die auf Konsole spielen kann) werden mittlerweile als PC Port veröffentlicht. Warum sollte also ein Publisher hingehen und nun DLSS Support integrieren, bzw. warum tut er es. Ganz einfach, Nvidia zahlt Geld dafür. Ist aber ein Modell was nicht lange gutgehen wird und wie z.B. bei PhysX gesehen, schneller als einem lieb ist scheitern wird.

Ist hier aber gar nicht als Shitstorm oder ähnliches gegen Nvidia angelegt. Ich will nur klarmachen, dass man in der aktuellen Generation das (vermeintlich) bessere Featureset hat, was aber vermutlich in einem oder zwei Jahren bereits niemanden mehr interessieren wird. Die RT Leistung ist für aktuelle Karten sehr gut, aber ich denke wir sind uns alle einig, letztlich immer noch viel zu gering um einen nennenswerten Einfluss zu haben. DLSS ist nicht flächendeckend verfügbar, wenn meine Tabellen noch stimmt, gibt es aktuell 8 Spiele mit DLSS 2.0 Support, was einfach uninteressant ist! Das für mich aber entscheidene Thema ist letztlich der Speicher, mit 10GB wird man einfach in naher Zukunft schon in Bereiche kommen wo limitiert wird, ich meine hier gab es doch schon einen kurzen Test, wo zwei oder drei Beispiele waren die jetzt schon limitieren (Wolfenstein YoungBlood), sind aktuell noch extreme Szenarien und für den ganz aktuellen Vergleich in meinen Augen irrelevant, aber es zeigt in meinen Augen wo die Reise hingeht. 60% mehr VRAM sind einfach eine Macht und ich denke NV hätte hier lieber auf 16GB GDDR6 statt 10GB GDDR6X setzen sollen, es wäre sinnvoller gewesen.

Alles in allem klingt es bei den meisten so, dass man mit AMD zu 100% zufrieden ist, was auch stimmig ist, wenn man sieht wo man vor 12 Monaten mit seinen Karten stand. Man konnte gerade so, mit neuester Fertigung, mit fast 1 Jahr alten Karten nicht mithalten (2080Ti) und hat die Leistungskrone schon seit längerem nicht mehr im Ansatz halten können. Man lag eigentlich zwei Generationen im Hintertreffen. Dafür ist BigNavi (und da bin ich auch ohne unabhängige Tests sicher) ein wahrlicher BigPlayer geworden und hat AMD mit einem Schlag zurück in die Erfolgsspur geholt. Gerade in Verbindung mit einfach nur guten CPUs (die so ja vor Zen auch niemand erwartet hätte) zeigt es, dass der Underdog hier in zwei Bereichen derzeit einfach alles richtig macht und auch Glück hat, das die Konkurenz sich auf ihren Lorbeeren ausgeruht hat.
Aber man darf in meinen Augen eines nicht vergessen, hat AMD effektiv eine gute Karte gebracht? Nein, haben sie nicht. Denn auch BigNavi liegt in einem Effizienzvergleich zu Turing nicht gut da und man hat letztlich Glück, dass Nvidia quasi keinen Nutzen aus einer besseren Fertigung erzielen kann. Für mich sind beide Karten nicht wirklich gut! Kommt ein bischen überraschend und ich weiß, dass ich damit anecken werde. Aber der Benchmark ist für mich Turing, die aus der (klar, mehrfach generalüberholten) 14nm Fertigung offensichtlich eine herausragende Effizienz holen konnten. Die 3080 hat einen Effizienzvorteil von lediglich 5%, der Rest kommt aus dem Mehrverbrauch, BigNavi wird voraussichtlich etwas mehr als 10% vor der 2080Ti liegen, gut ist das nicht, wenn man bedenkt, dass man einen FullNode hatte und alleine dieser wohl bis zu 50% Effizienz holen kann. Bei AMD ist dies zu erklären, man hat jahrelang eine veraltete Architektur am Leben erhalten und die "Neuerungen" waren allesamt nicht brauchbar (Vega). Bei Nvidia ist dies in meinen Augen nur zu erklären, dass man nicht damit gerechnet hat, dass AMD dieses Jahr die Leistung einer 2080Ti so deutlich toppen kann und man nichts gemacht hat, vieleicht ist es aber auch Grundlagenforschung gewesen und man wird in der nächsten Generation einen deutlichen Anstieg sehen.

Klar ist, man wird jetzt erstmal unabhängige Tests abwarten müssen, aber ich kann für mich schon vorstellen, dass statt 3900X (der irgendwie nicht günstiger wird), ein 5800X ins System wandert, kombiniert mit B550 und einer 6800 (XT?). Die 6800XT finde ich irgendwie preislich attraktiver als die non XT, immerhin 12 CUs mehr, was schon deutlich ist und wenn ich die 72CUs dann mit 1800Mhz takte, sollte ich mit der Leistung auch deutlich unter 300W liegen. Aber wie gesagt, Tests abwarten
 
Wann kommt der PCGH-Benchmark?

Technische Daten sind das ein, reale Benchmarks das andere. Wird ein Duell wie zu Zeiten der ersten Titan - R9 290X. Letztere würde ich gern in den Ruhestand schicken. :)
 
Alles in allem klingt es bei den meisten so, dass man mit AMD zu 100% zufrieden ist, was auch stimmig ist, wenn man sieht wo man vor 12 Monaten mit seinen Karten stand. Man konnte gerade so, mit neuester Fertigung, mit fast 1 Jahr alten Karten nicht mithalten (2080Ti) und hat die Leistungskrone schon seit längerem nicht mehr im Ansatz halten können. Man lag eigentlich zwei Generationen im Hintertreffen. Dafür ist BigNavi (und da bin ich auch ohne unabhängige Tests sicher) ein wahrlicher BigPlayer geworden und hat AMD mit einem Schlag zurück in die Erfolgsspur geholt. Gerade in Verbindung mit einfach nur guten CPUs (die so ja vor Zen auch niemand erwartet hätte) zeigt es, dass der Underdog hier in zwei Bereichen derzeit einfach alles richtig macht und auch Glück hat, das die Konkurenz sich auf ihren Lorbeeren ausgeruht hat.
Aber man darf in meinen Augen eines nicht vergessen, hat AMD effektiv eine gute Karte gebracht? Nein, haben sie nicht. Denn auch BigNavi liegt in einem Effizienzvergleich zu Turing nicht gut da und man hat letztlich Glück, dass Nvidia quasi keinen Nutzen aus einer besseren Fertigung erzielen kann. Für mich sind beide Karten nicht wirklich gut! Kommt ein bischen überraschend und ich weiß, dass ich damit anecken werde. Aber der Benchmark ist für mich Turing, die aus der (klar, mehrfach generalüberholten) 14nm Fertigung offensichtlich eine herausragende Effizienz holen konnten. Die 3080 hat einen Effizienzvorteil von lediglich 5%, der Rest kommt aus dem Mehrverbrauch, BigNavi wird voraussichtlich etwas mehr als 10% vor der 2080Ti liegen, gut ist das nicht, wenn man bedenkt, dass man einen FullNode hatte und alleine dieser wohl bis zu 50% Effizienz holen kann. Bei AMD ist dies zu erklären, man hat jahrelang eine veraltete Architektur am Leben erhalten und die "Neuerungen" waren allesamt nicht brauchbar (Vega). Bei Nvidia ist dies in meinen Augen nur zu erklären, dass man nicht damit gerechnet hat, dass AMD dieses Jahr die Leistung einer 2080Ti so deutlich toppen kann und man nichts gemacht hat, vieleicht ist es aber auch Grundlagenforschung gewesen und man wird in der nächsten Generation einen deutlichen Anstieg sehen.
Ein wirres Fazit, wo du Turiong und Ampere je nach Gusto als Erklärungsgrundlage heranziehst. Definiert sich "gut" bei dir nicht durch den Vergleich der aktuellen und zeitnah zueinander veröffentlichten Produkten? Ist Zen3 dann bei dir auch schlecht, weil Zen und Zen 2 nicht die IPC eines 10900K hatten?
 
Zuletzt bearbeitet:
Ich freue mich mega für AMD, dass sie wieder was konkurrenzfähiges auf den Markt bekommen haben. Konkurrenz ist immer gut für den Kunden. Überlege ernsthaft, ob ich nicht meinen G-Sync Monitor verkaufen soll um mir ggf. eine 6900XT samt Monitor zu gönnen. Die Aorus 3080 Master oder Xtreme (die ich fest vorhatte mir zuzulegen) ist ja selbst schon im Bereich der 999-1099 und das mit nur 10 GB Grafikspeicher.
 
Mit den USD Preisen blicke ich eh nicht mehr so ganz durch. Es heißt doch immer, die angegebenen Dollarpreise wären ohne Steuer. Bei den Ampere Karten wurden diese Preise aber 1:1 für den € übernommen.
Bei den Preisen ist es -zufällig- so, dass der Dollarkurs ungefähr der Mehrwertsteuer entspricht (heute $1.17=1€). Nimmt man also einen unversteuerten Dollarpreis von, was weiß ich, 700 Dollar, und rechnet ihn in Euro um, kommt man auf ungefähr 600€. Haut man da die Mehrwertsteuer drauf, liegt man wieder bei ungefähr 700€. Deswegen machen es sich viele Hersteller dieser Tage leicht und legen den Preis 1:1 von Dollar auf Euro um, nur dass bei uns schon die Steuer enthalten ist.
 
Ein wirres Fazit, wo du Turiong und Ampere je nach Gusto als Erklärungsgrundlage heranziehst. Definiert sich "gut" bei dir nicht durch den Vergleich der aktuellen und zeitnah zueinander veröffentlichten Produkten? Ist Zen3 dann bei dir auch schlecht, weil Zen und Zen 2 nicht die IPC eines 10900K hatten?

Ähm schau mal bitte nach, wen du da zitierst :D Das kam nicht von mir.
 
@BigBoymann Treffend beschrieben .... habe selbst das problem das mir die 6900'er echt gut gefallen würde und auch direkt ernsthaft über nen wechsel zu AMD nachgedacht. Und dann kamen die ABER'S in meine Gedanken .....
Ich sehe absolut keinen Grund meinen für mich perfekten Monitor austauschen zu müßen weil er ein G-Sync'er ist und AMD-Karten nur bedingt mag..... auf G-Sync würde ich ungerne verzichten und ein neuer Monitor mit FreeSync kommt in Verbindung mit GraKa-Neukauf einfach nicht in Frage ..... dann könnt ich mir auch gleich ne 3090 bestellen .....
Zudem hab ich mich an die möglichkeit gewöhnt mit GFXperience jederzeit per Knopfdruck und ohne andere Zusatzsoftware das Game das gerade läuft per Video mit zu schneiden bzw. zu Streamen.... das ist einfach absoluter Komfort und kostet dazu praktisch kaum Leistung, wenn AMD sowas auch bietet, OK ..... umgewöhnen ist trotzdem immer blöd ...:-)

Dazu ist mir dann noch aufgefallen das ichnur noch für die "Grafikhurenspiele" an meinen Rechner hoch gehe und sonst auf meinem NUC in 1080p vor mich hin daddel .... selbst WoW sieht nicht unspielbar schlecht aus wenn man sich drauf einlässt es auf Grafiklevel 4 (Selbst empfiehlt es 2 *g*) und 60-100Fps zu spielen :-) . Zudem verbraucht der NUC nur einen Bruchteil des Stromes vom PC ....... was mir immer öffters in die Gedanken schießt .....
 
Zurück