• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000 offiziell: RX 6900 XT im Dezember, RX 6800 XT und RX 6800 im November - alle Daten und Preise

Rocko

Komplett-PC-Aufrüster(in)
Immer diese nvidia Fanboys, die DLSS (Kaum Unterstützt aktuell) Loben, und RTX von AMD schlecht reden, ohne Tests zu sehen.

Dann greif doch halt zum Speicherkrüppel^^
Hast du eben RTX, jedoch ohne schicken UHD Texturen, die mit 16 GB VRAM sicherlich gehen zukünftig :)
 

sandworm

Freizeitschrauber(in)
Warum ist die RX 6800 eigentlich so schweineteuer? Hält ungefähr mit der RTX 3070 mit, aber soll bei $580 beginnen? Wollen AMD die Leute damit nur dazu bringen, noch 70 Kröten extra (+12%) für die deutlich bessere RX 6800 XT (+20..25%) auf den Tisch zu legen? Oder ist das wieder so eine Verarsche für Nvidia, bei der AMD drei Tage vor Veröffentlichung nochmal den Preis senken?
Die RX 6800 ist mindestens ein Performance Level höher einzustufen.
- Hat 16GB anstatt nur 8GB, GDDR6 Speicher
- Hat fast die vierfache Speicherbandbreite
- Hast du den Vergleich in 10 Spielen zwischen einer 2080ti (die ja in etwa auf 3070 level liegt) und der 6800 mal etwas genauer angesehen: (Habe es so gut wie es halt ging von den Folien abgeleitet, im Zweifel zu Gunsten von NVIDIA)
6800 vs 3080.png

Die 6800 erreicht fast 3080 Performance, hat 16GB Speicher, Verbraucht nur max. 250W anstatt 320W und das für läppische 579$.
Nicht vergessen bei NVIDIA zahlst du 1500 -2000$ für 24GB!
 

rasenschach

PC-Selbstbauer(in)
Warum ist die RX 6800 eigentlich so schweineteuer? Hält ungefähr mit der RTX 3070 mit, aber soll bei $580 beginnen? Wollen AMD die Leute damit nur dazu bringen, noch 70 Kröten extra (+12%) für die deutlich bessere RX 6800 XT (+20..25%) auf den Tisch zu legen? Oder ist das wieder so eine Verarsche für Nvidia, bei der AMD drei Tage vor Veröffentlichung nochmal den Preis senken?
Ja wenn "ungefähr" 15% Mehrleistung sind bei kaum 70$ mehr inkl. doppeltem Speicher und besserer Übertaktbarkeit (TSMC halt ... denk dran die AIBs fahren 2300MHz+ ergo nochmal 8-10% drauf), ab Januar dann "Supersampling" in Zusammenarbeit mit den "kleinen" Unternehmen Sony und Microsoft (DLSS Ersatz) und Raytracing wahrscheinlich auf ähnlichem Niveau. Ich finde sie auch etwas zu teuer, aber die was ist dann die 3070 - richtig obsolet. Die 6800XT ist auf jeden Fall preislich perfekt platziert ... seit froh das wir überhaupt ne Auswahl haben. Für jemanden mit einer 2080TI (moi) ist es toll einfach mal wieder eine Auswahl zu haben ... bessre geht es doch nicht.
 

Takuyaki

Komplett-PC-Aufrüster(in)
Also eine 999 Dollar Karte aka 6800XT ist also genauso schnell wie die 700 Euro Karte von Nv.
Laut AMD wohlgemerkt und wenn man RT mit ins Spiel bringt dann ist sie nur noch auf 500 Euro Level
der 3070.

Aber he die 16Gb das ist ja furchtbar wichtig, kannst zwar nicht die vollen Settings benutzen
aber sie hat ja mehr Speicher.
RT Bench 33% ist eine 3080 schneller als die 6800XT die mehr kostet!
Kein DLSS hat und in Zukunft hoffentlich kein RT kommt ansonsten wird die 1000 Euro GPU
zur 500 Euro GPU.

Super Deal also, nur wenn man ein ganz bestimmtes Verhalten hat das ja PCGH nicht will das man es
ausspricht.
Im wichtigsten Feature ist man also klar Unterlegen aber verlangt sogar mehr. Das ist also eine Definition
für gleich? Man hat kein DLSS was heißt eine 3060 wird mit RT das gleiche erreichen wie eine 1000 Euro AMD Karte.

Für mich wäre gleich, gleicher Preis gleiche Leistung egal wo. Nicht ich benutze ja kein RT weil sonst die Leistung in den Keller
geht.
Ob die Leistung in Games überhaupt ohne RT gleich ist, ist ja nicht mal sicher. Den AMD hatte da immer schon "etwas"
höhere Werte wie die Test. Da es so knapp ist laut AMD, würde ich darauf Wetten das man da so ein paar kleine Fehler hatte.
Zeigt die Vergangenheit immer sehr gut, aber daraus lernen scheint ja etwas vollkommen unmögliches zu sein.

Ach und wo wir schon dabei sind wo sind die 2,2 Ghz Boost hin? Hatte ich da recht das es der Maximale Wert ist
wie es AMD selbst sagt!!!! Anscheinend braucht man heute zu allen, Leute die es einem Vorsagen.
Selbst kommt keiner mehr drauf, das da was nicht stimmen kann.
Weil hat ja keiner von den Influencern gepostet also stimmt es nicht. Das ist die Welt von heute, ach und wenn einer gleich
von 2,5 Ghz Boost postet dann wird es gleich als News verarbeitet.


Mit den Preisen sehen ich da nicht wo AMD da gut dasteht. Der Sweat spot ist eine 3070 AMD hat nicht mal was gegen das Teil.
650 Dollar sind keine 500 Dollar außerhalb des Forums dürfte das klar für Nvidia für die Verkäufe werden.

Außerdem finde ich es echt bemerkswert das es hier keinen Shitstorm gibt wegen SAM!
Hätte das Nv oder Intel gemacht, was wäre dann hier zu lesen gelesen? Bei AMD ist das alles
total in Ordnung oder was?
Solche Praktiken sind das letzte und damit haben sie gleich auch mal alles unter Ryzen 5000 abgewertet.
Ich sagte noch bestimmt wird irgend was beschnitten werden und siehe da es ist so.
Naja genau genommen ist eine RX 6800XT bei einer UVP von 649$ in etwa gleich schnell wie eine RTX 3080, die anfangs mit einer UVP von 699$ beworben wurde, und bietet 6GB mehr VRAM. Das finde ich ehrlich gesagt schon beachtlich, zumal die 3080 nach wie vor überall ausverkauft ist und realistisch auch nahezu nie für 699€ erhältlich war (und wer weiß, ob sie das jemals sein wird).

Ist ja nun auch nicht so, dass AMD komplett schläft, was DLSS betrifft. Zum einen sieht die Auswahl an Spielen, die DLSS unterstützen, nach wie vor ziemlich mau aus. Ich persönlich hab da einfach nur Glück, dass ich davon so 3-4 Stück selbst spiele, sofern ich Cyberpunk 2077 schon mit dazu zähle. FidelityFX/AMD Super Resolution sieht doch so ziemlich genau nach einem Pendant zu DLSS aus. Da bin ich gespannt, was uns dahingehend noch erwartet.

Was den Takt angeht, wäre ich vorsichtig. Wir wissen bis dato ja nur die offiziellen Daten von AMD zur Referenzkarte. Was da die Board-Partner noch draus machen, steht auf einem anderen Blatt und der besagte 2.5 GHz-Leak kam ja angeblich von einer ASUS Strixx-Karte. Ich kann mir gut vorstellen, dass da etwas dran ist.

Smart Access Memory sehe ich persönlich auch zwiegespalten, weil zwingend eine Ryzen 5000-CPU dafür benötigt wird. Das bindet einen dann schon gewissermaßen an AMD, was die CPUs betrifft, da man sonst quasi "Gratis"-Leistung verliert. In dem Hinblick bin ich froh, dass die 5000er Ryzen bis dato verdammt gut aussehen, was die Gaming-Leistung angeht.
 

Pu244

Lötkolbengott/-göttin
Zen2 bei den Konsolen ist auch nicht das Zen2 was hier alle meinen. Es ist eine Abgespeckte Version von Zen2 die auf TDP Reduzierung bossiert. Den mit 15 Watt TDP kannst ja mal versuchen 8 Zen 2 Kerne zu befeuern. Das ist unmöglich und auch nur Pro Kern gerechnet nicht Gesamt.

Die Konsolen CPUs haben eine gemeinsame TDP, samt GPU. Besonders bei der PS5 kann die CPU sehr viel mehr Leistung beanspruchen.

Immer diese nvidia Fanboys, die DLSS (Kaum Unterstützt aktuell) Loben, und RTX von AMD schlecht reden, ohne Tests zu sehen.

Man muß kein Fanboy sein, um das genial zu finden. Für mich das beste, das die letzten 10 Jahre erscheinen ist.

Man muß sich einfach das Video (bitte in 4K60) ansehen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Besonders der Teil, indem 720p auf 4K hochskaliert wird, ist beeindruckend. Sicher, es ist kein echtes 4K, aber um Welten besser als echtes Full HD, eventuell irgendwo bei WQHD. Damit kann es durchaus sein, dass eine RTX 3050, falls sie denn kommt, eine 6900XT schlagen kann (ein extrem hochauslösender Monitor vorausgesetzt).

Nun muß das ganze nurnoch unterstützt werden.

Ich fürchte gemäß Murphys Gesetz wird sich, wenn ich eine RTX 3080 20GB kaufe, DLSS nicht durchsetzen, stattdessen, das was AMD vorschlägt. Natürlich wird es Nvidia nach dem Formatkrieg nicht für die alten Generationen herausbringen, wodurch ich richtig dumm dreinschaue. Kaufe ich mir hingegen ein RX 6800XT, dann setzt sich natürlich DLSS durch.
 

Spackfighter

Komplett-PC-Käufer(in)
Ich fürchte gemäß Murphys Gesetz wird sich, wenn ich eine RTX 3080 20GB kaufe, DLSS nicht durchsetzen, stattdessen, das was AMD vorschlägt. Natürlich wird es Nvidia nach dem Formatkrieg nicht für die alten Generationen herausbringen, wodurch ich richtig dumm dreinschaue. Kaufe ich mir hingegen ein RX 6800XT, dann setzt sich natürlich DLSS durch.
Noch nicht die Gerüchte gelesen, dass es wahrscheinlich weder eine 16GB 3070, noch eine 3080 mit 20GB geben wird?

Und von einer 3050 zu sprechen die die 6800XT allein durch DLSS und Raytracing schlagen soll, naja.
Sehr weit hergeholt und faktisch auch lange nicht belegbar
 

Rollora

Kokü-Junkie (m/w)
Die Konsolen CPUs haben eine gemeinsame TDP, samt GPU. Besonders bei der PS5 kann die CPU sehr viel mehr Leistung beanspruchen.



Man muß kein Fanboy sein, um das genial zu finden. Für mich das beste, das die letzten 10 Jahre erscheinen ist.

Man muß sich einfach das Video (bitte in 4K60) ansehen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Besonders der Teil, indem 720p auf 4K hochskaliert wird, ist beeindruckend. Sicher, es ist kein echtes 4K, aber um Welten besser als echtes Full HD, eventuell irgendwo bei WQHD. Damit kann es durchaus sein, dass eine RTX 3050, falls sie denn kommt, eine 6900XT schlagen kann (ein extrem hochauslösender Monitor vorausgesetzt).

Nun muß das ganze nurnoch unterstützt werden.

Ich fürchte gemäß Murphys Gesetz wird sich, wenn ich eine RTX 3080 20GB kaufe, DLSS nicht durchsetzen, stattdessen, das was AMD vorschlägt. Natürlich wird es Nvidia nach dem Formatkrieg nicht für die alten Generationen herausbringen, wodurch ich richtig dumm dreinschaue. Kaufe ich mir hingegen ein RX 6800XT, dann setzt sich natürlich DLSS durch.
Gibts denn jetzt was offizielles zum DLSS Gegenstück von AMD oder ists nur ein Gerücht? Den Artikel hab ich grad nur überflogen, aber nix gesehen, eventuell muss ich nochmal drübergehen ;)
 

Zetta

PC-Selbstbauer(in)
Immer diese nvidia Fanboys, die DLSS (Kaum Unterstützt aktuell) Loben, und RTX von AMD schlecht reden, ohne Tests zu sehen.

Dann greif doch halt zum Speicherkrüppel^^
Hast du eben RTX, jedoch ohne schicken UHD Texturen, die mit 16 GB VRAM sicherlich gehen zukünftig :)
Das gilt nicht für die RTX 3090 Käufer. ;)
Und ob 10 Gb wirklich ein limitierender Faktor werden, wird die Zeit zeigen. PS5 und XSX haben nicht wirklich mehr zur Verfügung. Nur zur Erinnerung.
 

BigYundol

Software-Overclocker(in)
RayTracing und KIAA sind immer noch nur Technologien mit Status Nice-to-have. Wie einst TruForm (Tesselation) von ATi stecken da beide noch mitten in der Pionierphase. Miserable Verbreitung und/oder zweifelhafte Performance/Qualität.

Nett zum experimentieren, aber auch in dieser neuen Gen kaum für mehr.
In dem Sinne ist es wichtig, dass nun auch die Radeons den Support für diese Technologien bringen und selbst 2080Ti-Niveau bei RT für die 6800XT ist ja schon ganz ordentlich. Die 6900XT wird da dann was drauf legen und die Custom-OC-Backofenheizungen mit Radeonantrieb vielleicht gar nochmals etwas mehr out-of-the box.
Und damit wird es wegen der zunehmenden Verbreitung für die Entwickler die nächsten 2-4 Jahe immer häufiger lohnen, sich mit den neuen Techniken auseinanderzusetzen.
 

RedDragon20

BIOS-Overclocker(in)
OT: Was das hier übrigens mit den "FanBoy Kriegen" soll kann ich nicht verstehen. Übertriebenes Beispiel:
  • DLSS >> Müll, weil: nur Nativ ist King! (auch wenn es schlechter aussieht und langsamer ist) und außerdem wird es eh nur in 2 Spielen genutzt.
  • AMD Super Resolution >> Echt geil! AMD Rockt! Zukunftssicher und kommt bald in allen Spielen!
DLSS ist doch nur ein "Cheatprogramm". :ugly: Das gab irgendein User vor einigen Wochen tatsächlich von sich.

Aber ich finde, dass DLSS ein richtig geiles Feature ist. v1.0 war gewiss eine kleine Katastrophe, aber man muss nVidia zugestehen, hier richtig Hand angelegt zu haben und DLSS massivst verbessert zu haben. Ich erwarte von AMD nicht die gleiche Qualität, was Super Resolution angeht, aber wenn es zur Performance bei trägt und die Bildqualität "nur" geringfügig verschlechtert, ist es ein guter Anfang.

Abgesehen davon, dass DLSS sich ohnehin erst ab 4K wirklich lohnt. Die Leistung für WQHD + RT reicht definitiv für eine angenehme Framerate aus.
 
Zuletzt bearbeitet:

der_flamur

Software-Overclocker(in)
Nüchtern betrachtet:
AMD hat hier drei Karten präsentiert, die anscheinend gut skalierbar sind. Genauso wie Ryzen 5000. Dass man mit SAM ein Ryzen-exklusives Feature im Petto hat, ist unternehmerisch nachvollziehbar. Zeigt, dass das Unternehmen absolut voll überzeugt von ihrer eigenen Plattform ist und GEMEINSAM entwickelt wird. Das ist in großen Konzernen nicht immer üblich.

Persönlich betrachtet:
Je nachdem wie die Benchmarkbalken enden werden: Das ist der mächtigste Tritt in die Eier für Nvidia der letzten Jahre. Preislich attraktiv, viel Leistung, in Zukunft ein gutes Feature-Set und dann auch noch effizienter und teilweise günstiger... Wozu soll ich mir ne GeForce diesmal kaufen? Ich habe derzeit keine Argumente. Und nein: DLSS ist für mich keine Option. Auf dem PC will ich maximale Grafikpracht haben. Will ich kompromissorientiert arbeiten, habe ich dafür eine deutlich günstigere Spielekonsole zuhause oder kaufe mir Grafikkarten aus der Mittelklasse.
 

Julian K

Freizeitschrauber(in)
Zen2 bei den Konsolen ist auch nicht das Zen2 was hier alle meinen. Es ist eine Abgespeckte Version von Zen2 die auf TDP Reduzierung bossiert. Den mit 15 Watt TDP kannst ja mal versuchen 8 Zen 2 Kerne zu befeuern. Das ist unmöglich und auch nur Pro Kern gerechnet nicht Gesamt.
Die Leistung ist nicht Vergleichbar, zwar ein großer Schritt nach vorne aber nicht in der nähe von Desktops.
Die Presse Vergleiche mit einem 3700X zeigen wie Unqualifiziert einige sind, weil nur Stur Kerne verglichen wurde.

Das lernt die Presse aber nicht mehr, weil nicht kritisches Denken gefragt ist sondern möglichst viele News.
So, dann erzähl doch mal, wo Du das mit den 15 Watt her hast? Oder das es in den Konsolen keine Zen 2-Kerne wären usw.. (Nicht nur die Presse, sondern auch Sony und MS selbst sprechen deutlich von Zen 2-Kernen, wohingegen sie bei der Vorgängergeneration von Jaguar gesprochen/geschrieben haben)
Alleine der Gesamtstromverbrauch der PS5 und der Series X (auch im Vergleich zur TBP der deutlich größeren RDNA2-Karten) zeigt schon, dass sich der CPU-Part dort ganz sicher mehr als 15 Watt genehmigen darf. ;)
 

marco_quattro

Komplett-PC-Käufer(in)
Na zum Glück heute meinen 1440p Monitor gegen einen Ultrawide mit 3440x1440p@144hz umgetauscht :)

RX6800xt ich komme :)

Ich hoffe inständig, dass diese Zeitnah lieferbar sind, die 2080 AMP! Extreme geht nach etwas über einem Jahr dann wohl in den Ruhestand, wird verkauft oder wandert ins Mini ITX :)
 

sinchilla

BIOS-Overclocker(in)
Also eine 999 Dollar Karte aka 6800XT ist also genauso schnell wie die 700 Euro Karte von Nv.
Laut AMD wohlgemerkt und wenn man RT mit ins Spiel bringt dann ist sie nur noch auf 500 Euro Level
der 3070.

Aber he die 16Gb das ist ja furchtbar wichtig, kannst zwar nicht die vollen Settings benutzen
aber sie hat ja mehr Speicher.
RT Bench 33% ist eine 3080 schneller als die 6800XT die mehr kostet!
Kein DLSS hat und in Zukunft hoffentlich kein RT kommt ansonsten wird die 1000 Euro GPU
zur 500 Euro GPU.

Super Deal also, nur wenn man ein ganz bestimmtes Verhalten hat das ja PCGH nicht will das man es
ausspricht.
Im wichtigsten Feature ist man also klar Unterlegen aber verlangt sogar mehr. Das ist also eine Definition
für gleich? Man hat kein DLSS was heißt eine 3060 wird mit RT das gleiche erreichen wie eine 1000 Euro AMD Karte.

Für mich wäre gleich, gleicher Preis gleiche Leistung egal wo. Nicht ich benutze ja kein RT weil sonst die Leistung in den Keller
geht.
Ob die Leistung in Games überhaupt ohne RT gleich ist, ist ja nicht mal sicher. Den AMD hatte da immer schon "etwas"
höhere Werte wie die Test. Da es so knapp ist laut AMD, würde ich darauf Wetten das man da so ein paar kleine Fehler hatte.
Zeigt die Vergangenheit immer sehr gut, aber daraus lernen scheint ja etwas vollkommen unmögliches zu sein.

Ach und wo wir schon dabei sind wo sind die 2,2 Ghz Boost hin? Hatte ich da recht das es der Maximale Wert ist
wie es AMD selbst sagt!!!! Anscheinend braucht man heute zu allen, Leute die es einem Vorsagen.
Selbst kommt keiner mehr drauf, das da was nicht stimmen kann.
Weil hat ja keiner von den Influencern gepostet also stimmt es nicht. Das ist die Welt von heute, ach und wenn einer gleich
von 2,5 Ghz Boost postet dann wird es gleich als News verarbeitet.


Mit den Preisen sehen ich da nicht wo AMD da gut dasteht. Der Sweat spot ist eine 3070 AMD hat nicht mal was gegen das Teil.
650 Dollar sind keine 500 Dollar außerhalb des Forums dürfte das klar für Nvidia für die Verkäufe werden.

Außerdem finde ich es echt bemerkswert das es hier keinen Shitstorm gibt wegen SAM!
Hätte das Nv oder Intel gemacht, was wäre dann hier zu lesen gelesen? Bei AMD ist das alles
total in Ordnung oder was?
Solche Praktiken sind das letzte und damit haben sie gleich auch mal alles unter Ryzen 5000 abgewertet.
Ich sagte noch bestimmt wird irgend was beschnitten werden und siehe da es ist so.
Respekt! Schon lange nicht mehr soviel alternative Fakten in so wenigen Zeilen gelesen.

Aber definitiv erstaunlich, wie sich so mancher Jünger nun an "Features" wie DLSS & RT klammert. Wenn sämtliche Argumente zu Ungunsten der eigenen Elf rauslaufen.

Wem nun keine Argumente in den Sinn kommen, hier Mal ein paar Anregungen:

-Preis
-Leistung
-Speicherausstattung
-Verbrauch

Für die Fraktion "Ich nutze ausschließlich Software mit RT & DLSS" -ändert sich schlichtweg gar nichts!

Sie wissen ja bereits was Nvidia liefert bzw gern liefern würde....
 
Zuletzt bearbeitet:

Stroiner

PC-Selbstbauer(in)
Ich bin irgendwo begeistert, dass amd es diesmal anscheinend schafft mit Nvidia mitzuhalten.
Aber so richtig preislich attraktiv wird es erst ab der 6800XT.
Sehr schade, ich war sonst immer der X700 Käufer bei Nvidia.
 

Chicien

Software-Overclocker(in)
AMD hat doch eine tolle Show geliefert und bringt endlich wieder Top-Produkte im High-End-GPU-Markt. Ich hätte auch nicht daran gedacht das sie die RTX 3090 auch noch schlagen aber wenn ich die 3 Benchmarks nehme die ich auch bei der 3080 Vorstellung gesehen habe passt das alles auch hier bei den PCGH-Benchmarks. Das wären:
Battlefield 5 4K
Borderlands 3 4K
Call of Duty Modern Warfare 4K

Die anderen Benchmarks passen nicht was AMD bei ihrer GPU für Zahlen nimmt aber auch die der Geforce sind höher. Nutzen wohl dann andere Benchmarks aber die oben genannten 3 passen 100%.

AMD mag bestimmt bei Raytracing nicht so gut sein wie Nvidia aber Raytracing wird überbewertet und ich will volle fps und nicht durch ein paar Lichteffekte "gestört" werden. Man kann die nächsten 2 Monate ja sehr gut Raytracing auf den verschiedenen Systemen testen da die neuen Konsolen kommen, Cyberpunk 2077, Godfall, Dirt 5 usw.

Für mich hat AMD Nvidia geschlagen aber die 3080 ist damit keine schlechte Karte denn wem RT und DLSS wichtig ist hat da ein Top-Produkt.
 

Mottekus

Software-Overclocker(in)
Noch nicht die Gerüchte gelesen, dass es wahrscheinlich weder eine 16GB 3070, noch eine 3080 mit 20GB geben wird?

Und von einer 3050 zu sprechen die die 6800XT allein durch DLSS und Raytracing schlagen soll, naja.
Sehr weit hergeholt und faktisch auch lange nicht belegbar
Dude, was bist du noch wach um die Uhrzeit? Der Kadaver braucht Ruhe

(Anmerkung an den Rest: Wir kennen uns persönlich und das war OT)
 

TheWalle82

PC-Selbstbauer(in)
Ich war ziemlich begeistert bei der Vorstellung aber ich mach mir spätestens nachdem ich gestern das Video vom Raff gesehen hab echt Sorgen wegen der UHD Performance, wenn selbst die 3070 mit Ulta DLSS nur knapp 60 FPS schafft, was schafft dann eine AMD Karte ohne dieses Feature?
60FPS ohne Raytracing und mit dann 25FPS ??

Klar ist auch ein extrem aufwändiges Spiel aber mit der neuen Konsolengeneration erwarte ich jetzt eigentlich viele AAA Spiele mit diesem Hardwarehunger.

Ich kanns echt nicht erwarten da endlich Tests zu der Karte zu sehen.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

seahawk

Volt-Modder(in)
Man muss das mal realistisch sehen. RIP Nvidia liegt nur an NVidia. Eine 3070(ti) 16GB würde sich ebenso gut gegen die 6800 stellen wie eine 3080(ti) 20GB gegen die 6800XT und die 3090 müsste "nur" billiger werden. Aber schön, dass AMD nun eine echte Alternative ist und man die Arroganz von NV als Kunde nicht länger ertragen muss.
 

NatokWa

BIOS-Overclocker(in)
Muss echt sagen das es mir jetzt tierisch in den Fingern kitzelt die Bestellung der 3080'er doch zu stornieren und auf den 8.12. zu warten ..... die 6900XT gefällt mir und währe die erste AMD-GraKa in meinem Sys *g* (Nach ner Video7 und ner Matrox Mystik wars immer NV weil sie mir besser gefallen haben.....)
Wenn jetzt dann mal "richtige" Benchmarks kommen und die 3080 weiterhin nix von sich hören läßt ......
 

razrone12

Komplett-PC-Aufrüster(in)
Schön dass die Katze nun aus dem Sack ist.. Ich muss aber zugeben, dass noch einige Fragen offen bleiben, da amd wenig bis garnix zur RT Performance gezeigt hat.

Dies heißt dann entweder

A : man kann bei eingeschaltetem RT nicht mithalten

B : man möchte vor dem verkaufsstart ala Salami taktik den hype anheizen

Um die Erwartungen nicht allzu hoch zu setzen, gehe ich daher auch von ersterem aus. Ist also ein Punkt für nvidia, für mich aber nicht kaufentscheident.

Zur 6900XT kann man eigentlich nicht viel gegen sagen. 500$ günstiger bei 8gb weniger Vram. Wobei ja 16gb generell schon viel sind. Diese klasse ist sowieso eher das "Halo Produkt" um sagen zu können "wir bieten auf allen Leistungsklassen paroli". Preis Leistungs Differenz zwischen 3080 und 3090 ist schon jenseits von Gut und Böse aber das waren die Titan Modelle immer schon. Im Grunde ist die 6900XT aber auch keinen Aufpreis von 350$ wert für die 10-15% Mehrleistung. Aber: sie ist unterm Strich dennoch 500$ günstiger als die 3090.

6800 im Vergleich zur 6800XT:
Beide Karten scheinen schon echt top zu sein. Ich finde allerdings die Preis Differenz schwierig. 70$ Aufpreis ist die 6800XT bei dem Leistungsunterschied (von 20-30%? Hab gerade nicht mehr im Kopf wieviel es von der 2080ti zur 3080 sind..) allemal wert. Um hier noch mehr druck auf nvidia aufzubauen, hätten es allerdings um die 80-100$ weniger für die 6800 sein müssen! Gerade die Preisklasse der xx60er und xx70er Karten ist hart umkämpft und hier machen die hersteller die große Masse. Eher sogar noch weiter unten.

Ich bin auf Tests gespannt und neugierig, was sich in nächster Zeit aus beiden Lagern noch tun wird. Vielleicht reduziert nvidia die 3070 kurzfristig noch auf 399$ :D
 

Krautmausch

PC-Selbstbauer(in)
Die RX 6800 ist mindestens ein Performance Level höher einzustufen.
- Hat 16GB anstatt nur 8GB, GDDR6 Speicher
- Hat fast die vierfache Speicherbandbreite
- Hast du den Vergleich in 10 Spielen zwischen einer 2080ti (die ja in etwa auf 3070 level liegt) und der 6800 mal etwas genauer angesehen: (Habe es so gut wie es halt ging von den Folien abgeleitet, im Zweifel zu Gunsten von NVIDIA)
Anhang anzeigen 1340185
Die 6800 erreicht fast 3080 Performance, hat 16GB Speicher, Verbraucht nur max. 250W anstatt 320W und das für läppische 579$.
Nicht vergessen bei NVIDIA zahlst du 1500 -2000$ für 24GB!
Dass die 6800 die doppelte Menge VRAM hat, ist ein Argument, aber ich weiß nicht, ob du die Leistung ansonsten nicht etwas optimistisch siehst. Da bei den Leistungsergebnissen der 6800 Smart Access Memory aktiviert war, sollte man vorsichtig mit den Zahlen umgehen und annehmen, dass die 6800 ohne dieses Feature (und damit CPU-markenneutral) in vielen Fällen nur ganz knapp vor der 2080 Ti und damit der 3070 liegen würde. Wenn der Vorsprung ohne SAM auf unter 15% rutscht (realistisch ist wahrscheinlich 10%), hat die 6800 bei $580 vs. $500 schon ein schlechteres Preisleistungsverhältnis als die 3070. Und dass die 6800 dank ihres größeren VRAMs besser altern wird, ist auch erstmal nichts weiter als eine Annahme, der man blind vertrauen müsste.
 

Olstyle

Moderator
Teammitglied
Warum ist die RX 6800 eigentlich so schweineteuer? Hält ungefähr mit der RTX 3070 mit, aber soll bei $580 beginnen?
BigChip mit 16GB Vram vs. kleiner Chip mit 8GB Vram. In dem einen Vergleich hat NV ganz klar die günstigeren Produktionskosten auf seiner Seite.
was mich wundert ist dass auch die 6800 vanilla den 16GB/s Speicher bekommt. Klingt für mich ein bisschen nach einer technischen Limitierung im Zusammenspiel mit dem Infinity Cache. Eigentlich sollte es der 14GB/s RAM da locker tun.
bei der 6900 bin ich auch noch etwas zwiegespalten. So wie sie von Haus aus konfiguriert ist macht sie wenig Sinn. Aber die besseren Bins mit mehr CUs auch auf der Seite der Leistungsaufnahme zu entfesseln könnten zum Overclockers Dream werden.
 

Bonja_Banana

PC-Selbstbauer(in)
Ist doch OK, solange man ehrlich mit sich ist. 1500€ alle zwei Jahre ist im Vergleich zu manch anderem Hobby sogar noch recht zahm - wobei ich irgendwie nicht glaube, dass es bei den 1500€ bleiben wird, es gibt ja auch noch andere PC-Komponenten und Peripherie :devil:
Ich muss mir nichts schönreden weil ich nicht bin wie andere und meinen Kauf nicht bereue. Ich freue mich schon wenn am WE der PC fertig ist und ich WD3 genießen kann. Solange man noch solche Sprünge machen kann. springe ich auch. Wenn das Geld knapp wird, dann überlege ich genauer. Immer so wie es machbar ist finde ich.

Bei vielen ist das Problem das Sie glauben ihren Kauf rechtfertigen zu müssen oder sich eine Bestätigung zu holen. Und sind dann total enttäuscht wenn keiner sagt "hast du gut gemacht". Ich hab ohne eine Sekunde darüber nachzudenken beim letzten guten Angebot 3090 TUF zugeschlagen. Waküblock gleich noch dazubestellt. Ob das nun andere toll finden oder nicht, ist mir egal.
 

Hannesjooo

Software-Overclocker(in)
Das alle denken, das die 6800 der Gegner der 3070 ist :D
das ist der Gegner der 3070TI, wenn überhaupt.
Die 6700 mit 12GB wird der 3070 noch Paroli bieten dürfen.
Und das für 400-479$.
649$=551,65€ + 16% Mwst=639,91
Recommented content - Giphy An dieser Stelle findest du externe Inhalte von Giphy. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

Chicien

Software-Overclocker(in)
AMDs Version ist wohl 20-30% langsamer

Danke für den Link.

Wenn das stimmen sollte in dem Artikel von wccftech dann wäre AMD´s RDNA 2 mit Raytracing auf Niveau der 3070/ 2080TI und das wäre ein sehr gutes Ergebnis.

Ich persönlich habe da mehr von HDR denn zuletzt auf der PS4 Red Dead Redemption 2 mit HDR gezockt und ein 4K-Film mit HDR macht auch schon etwas aus. Andersrum gesagt sieht ein Spiel und ein Film ohne HDR nicht gut genug aus.
 

Krabonq

Software-Overclocker(in)
Also eine 999 Dollar Karte aka 6800XT ist also genauso schnell wie die 700 Euro Karte von Nv.
Laut AMD wohlgemerkt und wenn man RT mit ins Spiel bringt dann ist sie nur noch auf 500 Euro Level
der 3070.
Gratulation an den peinlichsten Beitrag im Thread.
Du schlägst damit sogar noch den blinden, naiven 3090 Fanatiker und das heißt was!
 

Chicien

Software-Overclocker(in)
649 Dollar, sind bei uns dann so circa 850€? Grüße PS: freu mich wie ein Schnitzel auf die 6800er 😃

Macht es doch nicht so kompliziert. Die 6800XT wird 649€ kosten, die 6800 wird 579€ kosten und die 6900XT wird 999€ kosten. Die wenigen 3080 FE die manche ergattern konnten haben auch 699€ gekostet.

Apropo, Heute wird es bestimmt sogar manche 3070 für 499€ geben ;-)
 

Animaniac

PC-Selbstbauer(in)
Top Vorstellung von AMD, das hat doch Potenzial.
Sollten sich die Straßenpreise für die 6800XT tatsächlich bei um 650 - 700€ einpendeln bin ich dabei, sofern pcgh mit einem richtigen Test bestätigt was hier beworben wird.
Dann kann CP2077 kommen und der Karte ihre Grenzen aufzeigen :haha:
 

hoffgang

BIOS-Overclocker(in)
Ich bin auf die Benches gespannt und vor allem RDNA2 in Kombination mit Ryzen 5000.
Das wird ne unübersichtliche Kiste und da gibt es einiges zu sortieren.
- Wie ist die RT Performance bei AMD
- Wie ist die Performance auf Non Ryzen 5000 Systemen / Bzw. wo liegt der Mehrwert in einem RDNA2 / Ryzen 5000 System

Wie schon öfter von mir geschrieben: Wie gut, dass Nvidia mir das Warten so leicht macht.
 

Don-71

PCGHX-HWbot-Member (m/w)
was mich wundert ist dass auch die 6800 vanilla den 16GB/s Speicher bekommt. Klingt für mich ein bisschen nach einer technischen Limitierung im Zusammenspiel mit dem Infinity Cache. Eigentlich sollte es der 14GB/s RAM da locker tun.

Wie willst du 14 GB an ein 256er Speicher Interface anbinden?
es gehen entweder 12 oder 16 GB aber 14GB wären für mich rechnerisch und technisch Neuland.
 

Rod-y-ler

Kabelverknoter(in)
649 Dollar, sind bei uns dann so circa 850€? Grüße PS: freu mich wie ein Schnitzel auf die 6800er 😃
Die 649$ sind wie in Amerika üblich Netto. 16/19% kommen hier also noch mindestens drauf (+Zoll?). Da Dollar und € nicht 1:1 umgerechnet sind wird die Karte wohl, wie eigentlich recht üblich mit 649€ in den Handel gehen (am Anfang aber wohl eher etwas mehr).
 
Oben Unten