Radeon RX 6000 offiziell: RX 6900 XT im Dezember, RX 6800 XT und RX 6800 im November - alle Daten und Preise

Bin schon auf erste Tests und Benches von PCGH gespannt .

Aber wird wohl , wie oben im Text schon angedeutet , wieder mal eine " laute " Heizplatte die im Gesamtindex dem Hype nicht gerecht wird .

Vor allem beim RayTracing sollte eine Amd Karte mit diesem Preisschild nicht abstinken müssen . :schief: :schief:
Heizplatte? 300 vs 320 / 300 vs 350 Watt Was ist Ampere dann? Alter meint der das ernst genau so einer hat mir hier noch gefehlt :devil:.

Amd ist effizienter und sogar schneller 3080 vs 6800XT soll ich den Defibrillator holen oder geht es noch? Ich bin geübt in Wiederbelebung gerade, wenn einem die farbige Brille heruntergefallen ist. Ohh boy schmeckt der Kaffee gut. Sip
Die Sensation ist für mich übrigens, dass AMD die Performance verdoppelt hat mit doppelt so vielen Shadern. Klar, der Takt ist auch deutlich gestiegen, aber diese Shaderskalierung... und diese Effizienz. Holy shit!
Verdoppelt aber nur, weil man keine Navi 1 im High End gebracht hat was möglich gewesen wäre aber das Teil hätte gesoffen 350 Watt minimum für 2080TI Performance das haben sie sich diesmal gespart. Obwohl hätten sie das für 799 gebracht wäre die 2080TI obsolet geworden bei dem Preisunterschied sind die paar Watt auch Bohne.
 
@dmasiretteb Sehr richtig! Viele vergessen, dass Navi10 nie das Ziel hatte High-End zu liefern, AMD hat das mehrfach betont, dass man sich zunächst auf den Bereich "Mittelklasse"/ "obere Mittelklasse" konzentriert mit den 57er Karten... die Nomenklatur der bisherigen RDNA2 Karten bestätigt dies, da die direkten Nachfolger der 57er Karten (die 67er Karten) noch nicht vorgestellt wurden... das aktuelle Lineup ist über den alten 57er angesiedelt. Daher sehe ich die Effizienzgewinne auch nichts als sooooooo super an, sondern nur sooo super! Es bleibt ein kleiner Beigeschmack, aber um das Gesamtbild zu trüben, reicht dieser imho nicht aus!
 
Ich denke AMD ist wieder an der gleichen Position wie früher schon, sie können bei GPU's einigermassen mithalten, bleiben aber die 2. Wahl. In jedem Raytracing Benchmark kann die 6000er Generation gerade mal so mit der nVidia 2000er Generation mithalten. DLSS ist und bleibt Konkurrenzlos, BFV auf 4K AMD vs nVidia mit DLSS, da kann die 6900xt nicht mal mit der 3070 mithalten!
Sorry, aber DLSS ist für mich kein Kriterium!
Auch wenn es funktioniert und "recht gut" aussieht, ist es letztlich "Fake".
4K Auflösungen (und mehr) von teilweise weit unter 1440p von externen "KI"-Supercomputern hochrechnen zu lassen, ist einfach nur getrickst.
Das kann mit dem nötigen Kleingeld und etwas Entwicklungszeit (fast) jeder machen, und (leider) wird AMD da sicher in irgendeiner Weise auch nachziehen.
Daher sollte ein Leistungsvergleich der Karten unter gleichen Bedingungen stattfinden, also ohne DLSS, denn ich will ja die Leistung einer Grafikkarte testen, und kein Rechenzentrum das irgendwo herumsteht... ;)
 
was machen eigentlich die ganzen Gsync-Monitor-Besitzer? In die Röhre gucken oder geht das mittlerweile auch mit Amd Karten? Da hat sich Nvidia ein Straussenei gelegt, ich wäre zumindest leicht angesäuert hätte ich Einen mit Gsync
 
na weiter nvidia kaufen ist ja besser.

614039gti3w51.jpg
 
Derzeit gibt es nicht mal ein NDA. Das kann ich sagen, da es kein NDA gibt. ;)

MfG
Raff
Mal Klartext! Ihr könnt Artikel zu RDNA2 Tests posten wann immer ihr wollt?
Wenn ja, wo ist der Livestream in die Redaktion! :ugly:


Smart Access Memory sehe ich persönlich auch zwiegespalten, weil zwingend eine Ryzen 5000-CPU dafür benötigt wird. Das bindet einen dann schon gewissermaßen an AMD, was die CPUs betrifft, da man sonst quasi "Gratis"-Leistung verliert. In dem Hinblick bin ich froh, dass die 5000er Ryzen bis dato verdammt gut aussehen, was die Gaming-Leistung angeht.
Das war garantiert vor Jahren der Hintergedanke bei der übernahme von ATI. Für mich hat das auch einen gewissen Reiz da ich ein optimiertes System aus einer Hand bekommen kann, analog zu den neuen Konsolen. SAM wird da ein erster Schritt zu sein. Es muss einfach nur die Leistung stimmen. Ein tolles Argument in Händen von AMD und Intel plant ja ähnliches mit ihrer dedizierten Grafikkarte.


Wenns so kacke ist, wieso zieht AMD dann nach und bietet beide Features an?
Im Falle von AI upsampling wird sogar auf das von Nvidia und MS entwickelte Model für DLSS gesetzt.
Man kann Nvidia zu Gute halten vor 2 Jahren das ganze ins Rollen gebracht zu haben und auch das AMD da jetzt nachziehen muss. Den Orden dürfen sie sich gerne anstecken.
Aber Nvidia hat meiner Meinung mit der 3080 am Kunden vorbeientwickelt und das allein mit 10 GB VRAM. Diese Politik ist seit Jahren zu sehen. Für einen 1080 Ti Nutzer muss sich das etwas zwiespältig anfühlen nach 4 Jahren mehr Leistung zu bekommen aber 1 GB VRAM aufzugeben. Bei mir wäre das der Fall!
Warum haben die nicht einfach 16GB draufgetakert und 150€ draufgelegt? Wegen mir "nur" GDDR6, das wäre ein Rundumsorglospaket für alle Enthusiasten gewesen und AMD hätte (mal wieder) hart zu kämpfen gehabt! Aber nein, es wurde mal wieder der Gier Vorrang gegeben (TI Version 6 Monate später nachschieben und doppelt kassieren!) und versucht Kunden über den Tisch zu ziehen!
Was ich hier so lese wollen einige langjährige Nvidia Käufer das Lager wechseln wenn AMD wie präsentiert abliefert. Das muss Nvidia zu denken geben. Und immer nur Techniken anzubieten die "Nvidia only" sind kann auf Dauer kaum funktionieren, dafür gibt es genug Beispielem aus der Vergangenheit die sich erst durchsetzten als es zum offenen Standard wurde.
Für User denen RT und vor allem DLSS2.0 wichtig sind hat Nvidia gute Karten AMD wird da aber aufholen und Nvidia sollte aufpassen das sie nicht wie Intel enden. Vom plötzlichen Erstarken des Konkurenten überrrascht und keine Antwort parat.

Ist DLSS nicht eine Nvidia eigene Entwicklung? Ich wusste nicht das Microsoft mit drin sitzt. Die haben doch Direct ML oder so änlich.
Bei DirectX 12 ultimate haben sich alle an den Tisch gestzt und geschaut was kann man machen und Standards festgelegt die für alle gelten. Warum nicht immer so?!


Ich frag mich sowieso die ganze Zeit wer Raff schonwieder ins Forum gelassen hat. RDNA2 bencht sich sicher nicht von alleine. Oder man redet sich raus mit "wir geben den Redakteuren Auslauf weil die Testmuster noch nicht da sind".
Mein Pizza Angebot vom Anfang der Woche ist auch noch nicht genutzt worden. Also am Pizzakoma kann es nicht liegen ;)
 
was machen eigentlich die ganzen Gsync-Monitor-Besitzer? In die Röhre gucken oder geht das mittlerweile auch mit Amd Karten? Da hat sich Nvidia ein Straussenei gelegt, ich wäre zumindest leicht angesäuert hätte ich Einen mit Gsync

Och geht. Der Monitor ist ja nicht nur wegen Gsync geil - war zum Kaufzeitpunkt halt auch einer der besten 2k/144Hz Monitore überhaupt.

Und nach wie vor gilt: Kaufen kann man aktuell eh nichts davon (Mondpreise mal außen vor), es bleibt also sowieso nur Geduld übrig. Das einzige was stört sind die Gerüchte über die Abschaffung der 3080 20GB :/ Das wäre im Grunde was gewesen.
 
was machen eigentlich die ganzen Gsync-Monitor-Besitzer? In die Röhre gucken oder geht das mittlerweile auch mit Amd Karten? Da hat sich Nvidia ein Straussenei gelegt, ich wäre zumindest leicht angesäuert hätte ich Einen mit Gsync
Die meisten neuen Monitore haben (beides). Ist ein bisschen kompliziert das Thema.
 
Ich sag mal so, die Zen 3 Zahlen passen ziemlich gut. Es wäre verwunderlich, wenn es bei Big Navi anders wäre. AMD scheint die Strategie eines realistischen Marketings zu fahren. Wahrscheinlich, weil sie mittlerweile wissen, dass man mit den Erwartungen der Leute nicht spielen sollte.

Ohne SAM und Rage Mode wird das allerdings nichts gegen die 3090 in 4k. Es ist ohnehin sehr knapp.

Doch, ich denke, das kommt ganz gut hin. Ist echt schade, dass du AMDs Engagement im Highend Bereich nicht mehr würdigst.

Nach all den Jahren, in denen AMD immer und immer wieder verkackt hat mit ihren Grafikkarten, ist Big Navi für mich eine Sensation.

Man kann das natürlich auch wie ein Miesepeter sehen: AMD hat nur aufgeschlossen und kann kein AI Upscaling. Raytracing ist auch meh...

Ich meine DLSS ist ein Killerfeature, aber ohne Mordwaffe. Die paar Spiele, die das unterstützen, es ist putzig. Das ist so als würde Michael Myers mit einer Sandkastenschaufel schnetzeln gehen.

2020 wars bei mir 1 Spiel mit DLSS 2.0.

Ich glaube du verstehst mich falsch.
Ich finde die neuen Karten sehr gu, auch der Perfomace sprung ist enorm.
Leider hat die Vergangehheit aber oft gezeigt das AMD seine Produkte besser anpreist als sie dann am ende sind.
Ich werde mir auf jedenfall eine 6800 oder 6800 XT ins System pflanzen, keine frage aber die 3090 ist einfach zu weit weg. zumal AMD da nicht ohne grund "+Rage Modus" erwähnt. Sie ziehen alle register. aber das ist ok. AMD ist wieder da, und zeigt das sie nicht mehr schlafen! hoffentlich bleibt das so! Ich bin mehr begeistert von Effizent. der ganze wahn mit 300 watt+ ist für mich (mich persönlich) eigentlich ein Zeichen das die Karten grütze sind... die Leistung einer 6800 oder 3070 mit Max 150 oder vieleicht noich 200 watt wäre echt der Hammer.

Lehren aus der Vergangenheit:

-kühlung muss jetzt funktionieren
-Treiber pflege ist das A und O
-verfügbarkeit

das sind so meine Sorgenkinder.

grüße und frohes Datteln
 
Mich interessiert sehr, wie gut Leistung nach Bedarf und Leistungsaufnahme skalieren. Das neue Lineup reizt mich, ist allerdings für meinen Bedarf eigentlich überdimensioniert. Ich würde trotzdem eien Karte kaufen, schon um AMDs Aufholleistung zu würdigen, jedoch nur, wenn ich sicher sein kann, dass die Karten bei geringerer Beanspruchung auch entsprechend sparsam und leise arbeiten. Ansonsten warte ich lieber auf die Mittelklasse, bei der womöglich auch einige Kinderkrankheiten (seitens der Boardpartner) auskuriert sind.

Weiterhin sind für mich die Soft Skill interessant. Der Vorgänger hatte leider eine sehr wackeligen Hardware-Encoder, der bei H.265 ausgezeichnet funktionierte, jedoch beim (immer noch relevanten) H.264 nicht nur schnarchlangsam war, sondern auch sehr fragwürdige Ergebnisse produzierte. Wie sieht es jetzt damit aus, wurde tatsächlich nachgebessert?
 
Meine Anforderung sind 100 Frames@3440x1440 mit Spielraum zu 144Frames@3440x1440
Mal die Tests abwarten ob da die 6800XT der ideale Partner ist.

Ich hoffe Powercolor bringt wieder ein gutes Red Devil Design. Bei der Vega gefällt mir das recht gut und ist mMn mit der einer Nitro vergleichbar.
 
Meine Aussage trifft trotzdem zu. Egal was du dir angeblich leisten kannst oder nicht. Die atuellen 200-350 Euro Karten sind jetzt schon für aktuelle und in Kürze kommende Spiele oberhalb von 1080p zu langsam. Wenn die Ultra High Einstellungen nicht wichrifuaind dann kannste richtig Geld sparen und ne günstigere gebrauchte GTX970 oder sonstwas holen. PC Gaming ist kein günstiges Hobby. Wer das erzählt hat wohl noch nie ein High-End System zusammengestellt.
Ich habe doch geschrieben welches System ich benutze. Willst du sagen ich lüge?

Bei den meisten Spielen begrenzen ich sich sogar eher noch die fps um weniger Strom zu verbrauchen und eine leisere Karte zu haben.

Die einzigen Spiele wo ich nicht maxed Out war in letzter Zeit war Rdr2 und Horizon Zero down. Da hatte ich hohe und wenige Einstellungen auf Mittel.
 
So ich habe mir mal die Mühe gemacht die Benchmarks die mittlerweile auf AMDs Webseite veröffentlicht wurden tabellarisch zusammenzufassen. (1440p / 4k)
Link zur AMD Webseite Benchmarks 6800(XT) und 6900

AMD 1440p.png


Ich denke das in BF5, Forza 4 und Gears 5 gar die CPU limitieren könnte, daher dürfte der Abstand der 6900XT zur 3090 sogar noch leicht grösser ausfallen.
Auch die 26% Abstand in 1440p der 3080 zur 2080ti scheinen mir realistisch zu sein wenn man die Ergebnisse von Computerbase zu Rate zieht:
3080 FE 1440.png


AMD 4k.png


Auch hier ist die Differenz der 3080 zur 2080ti vergleichbar (129 vs. 131%)
3080 FE 4k.png
 
Zuletzt bearbeitet:
Keine Frage in 4K scheint mir NVIDIA Konkurrenzfähig zu sein:devil:und legt sogar tendenziell zu.
Aber wenn man die Zahlen genauer betrachtet liegt das nicht daran das AMD in höheren Auflösungen schwächer wird (zumindest die 6900XT) sondern Ampere wird einfach stärker auch relativ zur 2080ti.
Aber für 1080p / 1440p kann man ja fast schon von einer leichten Überlegenheit von RDNA2 sprechen. Die 6800 ist in 1440p nur 6% hinter der 3080!)
Falls sich bewahrheiten sollte das man die RDNA2 Karten deutlich besser übertakten kann, könnte selbst eine 6800 in 1440p zur 3080 aufschließen bzw. diese gar überholen.
 
Ich würde mir erstmal keine so große Mühe machen. Die Tests mit Raytracing kommen noch und an allem andere ist AMD auch noch am basteln. Von daher wird es noch so einige Überraschungen geben.
 
was machen eigentlich die ganzen Gsync-Monitor-Besitzer? In die Röhre gucken oder geht das mittlerweile auch mit Amd Karten? Da hat sich Nvidia ein Straussenei gelegt, ich wäre zumindest leicht angesäuert hätte ich Einen mit Gsync
ich hab 2019 einen Acer Gsync gekauft, da gabs aber noch kein Gsync Compatible oder Freesync II. Trotzdem kommt eine 6800XT, was Nvidia zurzeit abzieht ist einfach nur noch traurig. Die 2080 8Gb fliegt nach knapp einen Jahr wieder raus. So schnell habe ich noch nie eine Graka gewechselt.
 
Zurück