• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

Wolfgang75

Kabelverknoter(in)
...dann ist das ein reisen schlag ins gesicht aller 3000er käufer
Als 3080 Käufer habe ich kein Problem damit,die Karte macht die letzten 2 Wochen was sie soll und bringt die versprochene Leistung.

Bei der 6800XT muss es sich noch zeigen ob die Leistung in den Games auch ankommt und wo der Preis steht.
AMD ist nicht die Wohlfahrt und einen 3080 Killer mit 16 GB werden die sich fürstlich bezahlen lassen,bei 1000-1200€ wird hier einigen das lachen vergehen.
 

RNG_AGESA

Software-Overclocker(in)
NV killer wäre das teil für 499,-

befürchte die bringen es für 650,- aber eben ohne das runde_NV_gesamtpaket
 

RNG_AGESA

Software-Overclocker(in)
mit 10GB VRAM habe ich seltsamerweise überhaupt kein problem aber mit der leistung. die reicht mir einfach nicht. 20% mehr nehme ich gern +6GB on top natürlich auch...
 

Gurdi

Kokü-Junkie (m/w)
Naja die Ampere werden jetzt nicht zu schlechteren Karten als vorher.
Wer die zu nem vernünftigen Kurs erworben hat zu Relase brauch sich sicher auch nicht grähmen.
Das die 3090 völlig überteuert ist sollte jedem Käufer klar gewesen sein denke ich.

Dennoch auch wenn die neuen Radeons schneller sind und mehr Vram haben und dabei evtl. sogar etwas sparsamer laufen, wegen 100€ Differenz muss man sich nicht ärgern.

Die die über an die oder über 1000 Euro für eine 3080 bezahlt haben, die beißen sich aber sicher auf die Zähne dann.

@RNG_AGESA was spielst du denn so?
 

butch111

Kabelverknoter(in)
Keine Ahnugn wofür Ihr ne neue Grafikkarte so braucht...fps hab ich eigentlich mit meiner 1080ti noch genug.....ich bin nur geil auf RT und DLSS....ob ich 100 oder 150 fps hab ist für mich kein Geld wert.

Somit ist für mich die AMD völlig langweilig - kein DLSS, schlechteres RT....ob die 100 Euro billiger is als ne 3080 is mir egal....wenn ich mir den gesparten Hunni aufm Monitor klebe hab ich auch keine neuen Effekte.
 

C_17

PC-Selbstbauer(in)
Mich interessiert als zukünftiger Käufer ja eher das vermutete Refresh. Wieso sollten die leute jetzt noch eine RTX 3080 10 Gb kaufen, wenn durch die Leistung AMDs erwartbar ist, das baldigst ein Refresh mit mehr Speicher bei TSMV in 7nm gefertigt wird.
Mit dem ganzen hin und her hat sich Nvidia doch selbst geschadet. Wären die gleich bei ihrem langjährigen partner geblieben und hätten beim RAM statt 10 wenigstens 12 GB spendiert, gäbe es jetzt solche Diskussionen kaum.
 

Gurdi

Kokü-Junkie (m/w)
Keine Ahnugn wofür Ihr ne neue Grafikkarte so braucht...fps hab ich eigentlich mit meiner 1080ti noch genug.....ich bin nur geil auf RT und DLSS....ob ich 100 oder 150 fps hab ist für mich kein Geld wert.

Somit ist für mich die AMD völlig langweilig - kein DLSS, schlechteres RT....ob die 100 Euro billiger is als ne 3080 is mir egal....wenn ich mir den gesparten Hunni aufm Monitor klebe hab ich auch keine neuen Effekte.
Wenn du keinen Wert auf hohe Fps legst, wofür benötigst du dann bitte DLSS?

@RNG_AGESA und was spielst du dann? Die Leistung der Karten kenn ich :)

@C_17 reine Gier, man brauch Kohle nach dem Zukauf.
 

Nuallan

PCGH-Community-Veteran(in)
Minecraft, keine Ahnung, ein Standbildspiel ist RT/DLSS Vorzeigetitel? Soviel Luft zum Lachen gibts auf der ganzen Erde nicht :D :D OMG
Ich hab mir mal erlaubt die wesentlichen Punkte deines Posts fett zu markieren. ;)

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Das Video ist schon älter und Digital Foundry ist in letzter Zeit etwas (zu) grün angehaucht, aber trotzdem sind sich bei Minecraft RTX eigentlich alle einig das es schlicht bombe ist. Leider hört man in der Presse momentan nicht viel davon. Ist ja noch Beta, und dann auch noch Minecraft.. Viele Leute so wie du lachen sich drüber kaputt und/oder spielen lieber zum hundersten Mal das "Meisterwerk" Control, wo ich schon nach 5 Minuten einschlafen würde.

Die Beta wurde mittlerweile extrem verbessert, vor allem die Leistung. Was schon lustig ist wenn man bedenkt die meisten Leute glauben RT-Leistung sei nur von den Cores abhängig und sich brav ne neue Ampere kaufen (bzw. bestellen) statt den Entwicklern mal mehr Druck zu machen was Optimierungen angeht. Ist wie gesagt mittlerweile sehr gut spielbar @ 1440p & DLSS 2.0, mit ner ollen 2070, mit der man ja laut einigen Experten hier eigentlich nicht mal darüber nachdenken sollte RT zu aktivieren.
 

DasUnding

Komplett-PC-Aufrüster(in)
Ich denke man kann auf DLSS verzichten, wenn man nur maximal WQHD nutzt. Aber bei allem drüber finde ich DLSS mittlerweile wirklich wesentlich. Wenn ich einen WQHD Monitor hätte, würde ich wohl die AMD-Karte nehmen, obwohl AMD mit den letzten 3 Generationen grenzwertiges abgeliefert hat. Mal sehen wie der Nvidia-Refresh wird.

Die neue Generation von Nvidia ist wirklich ein Griff ins Klo: auf Samsung setzen, dann auch noch am Speicher sparen und AMD scheint auch noch zu liefern, GG! Bis die Aktionäre das raffen, gibts die nächsten Quartalszahlen ^^ der Großteil wird immer noch im "Gaming" verdient und alles nur für ein paar Prozent mehr Umsatz - aber saure Kunden, ob das so nachhaltig ist?
 
Zuletzt bearbeitet:

Nuallan

PCGH-Community-Veteran(in)
Naja du wirst aber sich verstehen dass Minecraft hier nicht jeden vom Hocker haut mit seiner Klötzchen Grafik, auch wenn das Spiel sicher seinen Charme hat.
Klar versteh ich das, aber wer darüber lacht hat es schlicht noch nicht in Aktion erlebt. Das ist ja eben das beeindruckende, was man mit Raytracing aus Klötzchengrafik rausholen kann. Und es ist halt komplett RT, kein Hybrid. Es ist nicht nur der RT-Vorzeigetitel, sondern genau genommen der einzige RT-Titel. Und das Ergebnis hat mir jedenfalls sehr oft die Kinnlade runterklappen lassen.
 

Terracresta

Software-Overclocker(in)
Hm, klingt glaubwürdig. Hab nicht erwartet, dass AMD quasi aus dem Nichts plötzlich auch bessere RT Performance bieten würde. Mal sehn wie die Preise sind und ob AMD auch andere Features bietet, um nicht nur bei der Rasterization Performance vorn zu liegen, denn sonst würde ich bei ähnlichen Preise (und tatsächlicher Verfügbarkeit...) zu Nvidia greifen.
Grafikspeicher steht dann noch auf einer anderen Karte.
 

User-22949

PC-Selbstbauer(in)
Wie soll das gehen mit dem lahmen GDDR6 non X Speicher der Radeons.
Glaube ich erst wenn ich es sehe.
Außerdem spiele ich keine Benchmarks. Spiele Performance ist wichtig.
Wir werden in ca. 3-4 Wochen sehen wenn die Karten auf dem Markt sind.
 

Acgira

Freizeitschrauber(in)
Die die über an die oder über 1000 Euro für eine 3080 bezahlt haben, die beißen sich aber sicher auf die Zähne dann.
3080-Karten die mehr als 800€ kosten werden demnächst kaum noch einen Käufer finden... Aber ob die gierigen Händler dass auch so sehen - kann man bezweifeln und wenn die ungeduldigen Gamer bereit sind Phantasie-Händler-Aufschläge zu bezahlen... dann haben jene die 1000Euro bezhalt das auch verdient, dass sie diese Summe auch bezahlt haben.

Wieso sollten die leute jetzt noch eine RTX 3080 10 Gb kaufen, wenn durch die Leistung AMDs erwartbar ist, das baldigst ein Refresh mit mehr Speicher bei TSMV in 7nm gefertigt wird.
Mit einer kleinen 3080-Stornierungswelle würde ich ab 28.10. schon rechnen - Nvidia hat die 20GB-3080 also abgesagt, weil sie bereits am Refresh arbeiten - nur vor April wird man davon vermutlich nichts hören.
 

redfield

Freizeitschrauber(in)
Würde es AMD gönnen, aber erstmal finale Spiele Benchmarks in freier Wildbahn und Direktvergleiche zur 3080 abwarten.
 

Incredible Alk

Moderator
Teammitglied
Wie soll das gehen mit dem lahmen GDDR6 non X Speicher der Radeons.
Wieso denkst du, dass die Methode von NVidia, GDDR6-Speicher mit allen möglichen Tricks auf maximale Bandbreite zu pressen, die einzige mögliche Lösung des Durchsatzproblems schneller GPUs ist?

Es gibt viele Ansätze.
- GDDR6 ausquetschen (Nvidias Lösung)
- HBM verwenden
- Breitere Speicherinterfaces nutzen
- Die benötigte Bandbreite durch intelligente Cachesysteme verringern (mutmaßlich AMDs Lösung)
- Die benötigte Bandbreite durch effizientere Kompressionsverfahren verringern
- ...

Alle diese Methoden (und noch weitere mögliche) haben jeweils ihre Vor- und Nachteile. Aber nur die eine die NV jetzt bei den Consumer-Amperekarten genutzt hat (bei den Profikarten gibts die schnellere HBM-Version...) als Lösung zu sehen und alles andere geht nicht ist nicht besonders sinnvoll.
 

owned139

Software-Overclocker(in)
Eine 6800 ist genau so unnötig. Kein Mensch MUSS so ne Karte haben.
 
Zuletzt bearbeitet:

Richu006

Freizeitschrauber(in)
Im Moment hat AMD das Momentum auf ihrer Seite.

Aber jetzt erstmal den Ball flach halten!

AMD soll erstmal liefern.... und zwar in Sachen Leistung, wie auch mit Versand von Hardware.

Stand heute weis man noch nicht wie es am Ende raus kommt!
 

Edelhamster

Software-Overclocker(in)
Und alle Nvidianer so, "ja ey, ich muss auf jeden Fall dieses Nintendo Switch like 10 year old Grafikbombast Game mit 20% mehr FPS in RTX On zocken. Das mehr als 1000 Eier Aufpreis wert!" :lol: :lol: :lol:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Mach die Augen auf Dude! Es wird lächerlich!
But push RTX - Push it - you need it - and we got paid :crazy:
 

plusminus

BIOS-Overclocker(in)
Im Moment hat AMD das Momentum auf ihrer Seite.

Aber jetzt erstmal den Ball flach halten!

AMD soll erstmal liefern.... und zwar in Sachen Leistung, wie auch mit Versand von Hardware.

Stand heute weis man noch nicht wie es am Ende raus kommt!



Könnte schon sein das Amd in bestimmten Szenarien Fps-mässig bei Nvidia anklopft.

Aber es wird wohl niemand ( ausser Igor ?! ) ernsthaft glauben das Amd in dann realen Qualifizierten und Aussagekräftigen Test,s und Benches von Pcgh die Nvidia RTX 3000 er im Gesamt Index schlagen kann , und das mit gleichem Stromverbrauch , und besserem Preis .

Ja wenn man nach dem Kaffee Klatsch von Igors Lab geht , kann man sich auch Gerüchte von Oma anhören .
Die haben die gleiche Aussage Kraft . :D

Igor hört sich nur einfach gerne Laabern , und weil ihm zuhause vieleicht schon keiner mehr zuhört tut er es eben auf You Tube und Co.
Braucht wohl viel Bestätigung was mich bei solchen Menschen nicht wundert :schief:

Igor Hyped die Amd Karten , und weckt Erwartungen bei den Kunden , die Realität später ist dann das andere :cool:
 

Hannesjooo

Software-Overclocker(in)
Soso, deswegen waren die "Igors und seine Freunde" -Leaks so schlecht, jo 2 Watt daneben, schlimm.
Igor hat dieses Jahr so oft recht gehabt, da verzeih ich ihm auch mal eine Ente, wobei ich dies allerdings
nicht im Fall der 6800XT denke. Vll ähnlich 2-5 Watt vertippt oder so, wenn überhaubt.
Lasst uns frohen Mutes auf die Tests warten, Kritisch können wir das danach auch sein.
@plusminus
Kann sein das du recht behältst, so vieles kann sein :D.
Sei doch mal froh das alles darauf hinsteuert das wir endlich wieder eine Wahl haben.
Die einen wollen extrem starkes Raytracing und sind mit Nvidia glücklich, die anderen wollen extrem
starke FPS und kaufen AMD. So wie es ausschaut ist das doch klasse und AMD und Nvidia müssen
wirklich mal um Ihre Kundschaft werben.
Das gab es seit gefühlt 10 Jahren nicht mehr in der Highendklasse.
Alle gewinnen, außer die Hater.
Für alle Hater oder alle die jetzt traurig sind, ich spendier ne Runde:
81uZ-vo1r6L._SX522_.jpg

und:
Tempo1.jpg
 

Illithide

Freizeitschrauber(in)
Klar versteh ich das, aber wer darüber lacht hat es schlicht noch nicht in Aktion erlebt. Das ist ja eben das beeindruckende, was man mit Raytracing aus Klötzchengrafik rausholen kann. Und es ist halt komplett RT, kein Hybrid. Es ist nicht nur der RT-Vorzeigetitel, sondern genau genommen der einzige RT-Titel. Und das Ergebnis hat mir jedenfalls sehr oft die Kinnlade runterklappen lassen.
Quake RTX nicht vergessen! Der Titel hilft imho auch gut, den derzeitigen Stand von Echtzeit-RT einzuordnen: Du kannst heute mit ca. 1k-Karten Games aus 1997 mit PathTracing realisieren. Willst Du Assets, Texturen, LoD, etc. von heute, sind erstmal nur ein paar ergänzende RT-Effekte in 'nem Hybrid-RT möglich. D.h. konkret: ein paar Spiegelungen (intelligentes Screen Space Reflection kommt da immer noch sehr nahe ran), RT-Schatten (erkennt kaum einer, sieht kaum besser aus, bringt atmosphärisch kaum etwas) und gegenüber PathTracing derbe abgespeckte Illumination (imho derzeit auch kaum besser, oft sogar schlechter als gut umgesetztes PreBacking).

Imho ist RT deshalb theoretisch ganz sicher ein interessantes Phänomen, hier und da kann man sich auch mal ein Auge holen, das KillerFeature ist es aber noch lange nicht. In zwei, drei GraKa-Gens vielleicht.

@all:
Das Kürbisspiel ist ja wirklich der Hammer! nVs Marketing ist da ja nur noch peinlich.

Gibt's eigentlich schon belastbare Anhaltspunkte, wann nV vielleicht mal mit 'ner Ampere done right-Version um die Ecke kommt? Ein halbes , dreiviertel Jahr auf 2GB-GDDR6X-Bausteine zu warten kommt für mich jetzt eigentlich nicht mehr in Frage. Auf ein neues Tapeout etc. von 'nem 58SM-GA102 für 7nm-TSMC erst recht nicht. Irgendwie hat man da zwar jetzt theoretisch wieder Konkurrenz und Auswahl, praktisch dann aber auch wieder nicht und man wird quasi schon wieder zu XT/XTX gezwungen. Na ja, wenn die Preise von Lisa und die letzten Hints von Igor stimmen, gibt's sicher Schlimmeres.
 
Zuletzt bearbeitet:

Acgira

Freizeitschrauber(in)
andererseits hab ich 1700€ in einer 3090 verbrannt
1400 - 1449€ würde ich für einen 3090 Costumkarte als angemessen bezeichnen. Während die FE mit dem Flair des einmaligen Kult-Designs 1500 schon kosten darf - da sehe ich schon noch eine Berechtigung dafür ... die Karte kann man sich quasi ja auch als besonderen und alternativen Einsatatzzweck als Schmuckstück in eine Vitrine stellen, um sie jeden Tag so die eine oder andere Minute ehrfürchtig zu beglupschen. (für einen Hardware-Nerd wohl keine ungewöhnliche Handlung)

Außerdem kann man mit einer 3090 sicherlich auch die meisten Spiele flüssig darstellen. (Nicht die ganzen 1700€ sind unnötig ausgegeben...)

Das die 3090 völlig überteuert ist
trifft zu bei allen Karten die über 1599 hinaus gehen... - Wer 1700 bezahlt hat - hat somit nur 101€ unnötig verbrannt und nicht die ganze Summe.

Falls es aber eine Costum-Karte war - dann waren es 249€ Verbrennungsgebühr:gruebel:- mehr aber nicht.

dass Minecraft hier nicht jeden vom Hocker haut
Was an Mincraft so spielenswert ist zweifle ich auch an. Spiel oder kein Spiel ist die Frage.

was man mit Raytracing aus Klötzchengrafik rausholen kann

Aber Minecraft RTX ist eine Demo um zu zeigen, welche Möglichkeiten mit RT in vollem Umfang sich gestalterisch auftun - wohl gemerkt für echte Spiele.

Andere RTX-Demos die genauso umfänglich sind, gibt es leider noch keine - Dafür müssten in den alten Spielen die Umgebungen ja auch zum teil neun gebaut werden und nicht nur mit ein paar Verbesserungen aufgehübscht.


och, dass du unnötig Geld zum Fenster raus geschmissen hast.
(Warum kann ich nicht... darf ich nicht - den Kommentar in der Reihenfolge nach oben schieben...?:wall: Welch gestalterische Unfreiheit - ist schon eine kleine Frechheit, dass ich über die Kommentarreihenfolge in meiner Antwort nicht selbst bestimmen darf.)

Zum Glück nur noch 4 Tage bis Tante-AMD uns mit "echten" Fakten füttert.

Hätte ich schon eine fette neue Nvidia-Grafikkarte und könnte alles flüssig in 21:9 auf dem neuen Monitor spielen, hätte ich nicht das Gefühl dass ich Geld beim Fenster hinausgeworfen hätte, :slap: auch dann nicht wenn Tante-AMD mir mit neuen Fakten die Freude über die Leistung einer 3080 oder 3090 etwas trübte.
 
Zuletzt bearbeitet:

Richu006

Freizeitschrauber(in)
Also für mich werden letzt Endlich vorallem meine Monitore entscheiden ob AMD oder Nvidia. Da ich 3 G-Sync Monitore habe, welche für sich schon so viel gekostet haben wie ein kleinwagen, werdr ich bei Nvidia bleiben.

Wegen dem Speicher gibt es halt ne 3090... mein ganzes System ist sowieso Preis Leistungstechnisch völlig "unvernünftig"

Aber muss es denn immer vernünftig sein, wenns Spass macht?
 
Oben Unten