Radeon RX 6800 XT: Geleakte Benchmarks sehen sie vor Geforce RTX 3080 - aber nicht bei Raytracing

Würde es AMD gönnen, aber erstmal finale Spiele Benchmarks in freier Wildbahn und Direktvergleiche zur 3080 abwarten.
 
Wie soll das gehen mit dem lahmen GDDR6 non X Speicher der Radeons.
Wieso denkst du, dass die Methode von NVidia, GDDR6-Speicher mit allen möglichen Tricks auf maximale Bandbreite zu pressen, die einzige mögliche Lösung des Durchsatzproblems schneller GPUs ist?

Es gibt viele Ansätze.
- GDDR6 ausquetschen (Nvidias Lösung)
- HBM verwenden
- Breitere Speicherinterfaces nutzen
- Die benötigte Bandbreite durch intelligente Cachesysteme verringern (mutmaßlich AMDs Lösung)
- Die benötigte Bandbreite durch effizientere Kompressionsverfahren verringern
- ...

Alle diese Methoden (und noch weitere mögliche) haben jeweils ihre Vor- und Nachteile. Aber nur die eine die NV jetzt bei den Consumer-Amperekarten genutzt hat (bei den Profikarten gibts die schnellere HBM-Version...) als Lösung zu sehen und alles andere geht nicht ist nicht besonders sinnvoll.
 
Im Moment hat AMD das Momentum auf ihrer Seite.

Aber jetzt erstmal den Ball flach halten!

AMD soll erstmal liefern.... und zwar in Sachen Leistung, wie auch mit Versand von Hardware.

Stand heute weis man noch nicht wie es am Ende raus kommt!
 
Und alle Nvidianer so, "ja ey, ich muss auf jeden Fall dieses Nintendo Switch like 10 year old Grafikbombast Game mit 20% mehr FPS in RTX On zocken. Das mehr als 1000 Eier Aufpreis wert!" :lol: :lol: :lol:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mach die Augen auf Dude! Es wird lächerlich!
But push RTX - Push it - you need it - and we got paid :crazy:
 
Im Moment hat AMD das Momentum auf ihrer Seite.

Aber jetzt erstmal den Ball flach halten!

AMD soll erstmal liefern.... und zwar in Sachen Leistung, wie auch mit Versand von Hardware.

Stand heute weis man noch nicht wie es am Ende raus kommt!



Könnte schon sein das Amd in bestimmten Szenarien Fps-mässig bei Nvidia anklopft.

Aber es wird wohl niemand ( ausser Igor ?! ) ernsthaft glauben das Amd in dann realen Qualifizierten und Aussagekräftigen Test,s und Benches von Pcgh die Nvidia RTX 3000 er im Gesamt Index schlagen kann , und das mit gleichem Stromverbrauch , und besserem Preis .

Ja wenn man nach dem Kaffee Klatsch von Igors Lab geht , kann man sich auch Gerüchte von Oma anhören .
Die haben die gleiche Aussage Kraft . :D

Igor hört sich nur einfach gerne Laabern , und weil ihm zuhause vieleicht schon keiner mehr zuhört tut er es eben auf You Tube und Co.
Braucht wohl viel Bestätigung was mich bei solchen Menschen nicht wundert :schief:

Igor Hyped die Amd Karten , und weckt Erwartungen bei den Kunden , die Realität später ist dann das andere :cool:
 
Soso, deswegen waren die "Igors und seine Freunde" -Leaks so schlecht, jo 2 Watt daneben, schlimm.
Igor hat dieses Jahr so oft recht gehabt, da verzeih ich ihm auch mal eine Ente, wobei ich dies allerdings
nicht im Fall der 6800XT denke. Vll ähnlich 2-5 Watt vertippt oder so, wenn überhaubt.
Lasst uns frohen Mutes auf die Tests warten, Kritisch können wir das danach auch sein.
@plusminus
Kann sein das du recht behältst, so vieles kann sein :D.
Sei doch mal froh das alles darauf hinsteuert das wir endlich wieder eine Wahl haben.
Die einen wollen extrem starkes Raytracing und sind mit Nvidia glücklich, die anderen wollen extrem
starke FPS und kaufen AMD. So wie es ausschaut ist das doch klasse und AMD und Nvidia müssen
wirklich mal um Ihre Kundschaft werben.
Das gab es seit gefühlt 10 Jahren nicht mehr in der Highendklasse.
Alle gewinnen, außer die Hater.
Für alle Hater oder alle die jetzt traurig sind, ich spendier ne Runde:
81uZ-vo1r6L._SX522_.jpg

und:
Tempo1.jpg
 
Klar versteh ich das, aber wer darüber lacht hat es schlicht noch nicht in Aktion erlebt. Das ist ja eben das beeindruckende, was man mit Raytracing aus Klötzchengrafik rausholen kann. Und es ist halt komplett RT, kein Hybrid. Es ist nicht nur der RT-Vorzeigetitel, sondern genau genommen der einzige RT-Titel. Und das Ergebnis hat mir jedenfalls sehr oft die Kinnlade runterklappen lassen.
Quake RTX nicht vergessen! Der Titel hilft imho auch gut, den derzeitigen Stand von Echtzeit-RT einzuordnen: Du kannst heute mit ca. 1k-Karten Games aus 1997 mit PathTracing realisieren. Willst Du Assets, Texturen, LoD, etc. von heute, sind erstmal nur ein paar ergänzende RT-Effekte in 'nem Hybrid-RT möglich. D.h. konkret: ein paar Spiegelungen (intelligentes Screen Space Reflection kommt da immer noch sehr nahe ran), RT-Schatten (erkennt kaum einer, sieht kaum besser aus, bringt atmosphärisch kaum etwas) und gegenüber PathTracing derbe abgespeckte Illumination (imho derzeit auch kaum besser, oft sogar schlechter als gut umgesetztes PreBacking).

Imho ist RT deshalb theoretisch ganz sicher ein interessantes Phänomen, hier und da kann man sich auch mal ein Auge holen, das KillerFeature ist es aber noch lange nicht. In zwei, drei GraKa-Gens vielleicht.

@all:
Das Kürbisspiel ist ja wirklich der Hammer! nVs Marketing ist da ja nur noch peinlich.

Gibt's eigentlich schon belastbare Anhaltspunkte, wann nV vielleicht mal mit 'ner Ampere done right-Version um die Ecke kommt? Ein halbes , dreiviertel Jahr auf 2GB-GDDR6X-Bausteine zu warten kommt für mich jetzt eigentlich nicht mehr in Frage. Auf ein neues Tapeout etc. von 'nem 58SM-GA102 für 7nm-TSMC erst recht nicht. Irgendwie hat man da zwar jetzt theoretisch wieder Konkurrenz und Auswahl, praktisch dann aber auch wieder nicht und man wird quasi schon wieder zu XT/XTX gezwungen. Na ja, wenn die Preise von Lisa und die letzten Hints von Igor stimmen, gibt's sicher Schlimmeres.
 
Zuletzt bearbeitet:
andererseits hab ich 1700€ in einer 3090 verbrannt
1400 - 1449€ würde ich für einen 3090 Costumkarte als angemessen bezeichnen. Während die FE mit dem Flair des einmaligen Kult-Designs 1500 schon kosten darf - da sehe ich schon noch eine Berechtigung dafür ... die Karte kann man sich quasi ja auch als besonderen und alternativen Einsatatzzweck als Schmuckstück in eine Vitrine stellen, um sie jeden Tag so die eine oder andere Minute ehrfürchtig zu beglupschen. (für einen Hardware-Nerd wohl keine ungewöhnliche Handlung)

Außerdem kann man mit einer 3090 sicherlich auch die meisten Spiele flüssig darstellen. (Nicht die ganzen 1700€ sind unnötig ausgegeben...)

Das die 3090 völlig überteuert ist
trifft zu bei allen Karten die über 1599 hinaus gehen... - Wer 1700 bezahlt hat - hat somit nur 101€ unnötig verbrannt und nicht die ganze Summe.

Falls es aber eine Costum-Karte war - dann waren es 249€ Verbrennungsgebühr:gruebel:- mehr aber nicht.

dass Minecraft hier nicht jeden vom Hocker haut
Was an Mincraft so spielenswert ist zweifle ich auch an. Spiel oder kein Spiel ist die Frage.

was man mit Raytracing aus Klötzchengrafik rausholen kann

Aber Minecraft RTX ist eine Demo um zu zeigen, welche Möglichkeiten mit RT in vollem Umfang sich gestalterisch auftun - wohl gemerkt für echte Spiele.

Andere RTX-Demos die genauso umfänglich sind, gibt es leider noch keine - Dafür müssten in den alten Spielen die Umgebungen ja auch zum teil neun gebaut werden und nicht nur mit ein paar Verbesserungen aufgehübscht.


och, dass du unnötig Geld zum Fenster raus geschmissen hast.
(Warum kann ich nicht... darf ich nicht - den Kommentar in der Reihenfolge nach oben schieben...?:wall: Welch gestalterische Unfreiheit - ist schon eine kleine Frechheit, dass ich über die Kommentarreihenfolge in meiner Antwort nicht selbst bestimmen darf.)

Zum Glück nur noch 4 Tage bis Tante-AMD uns mit "echten" Fakten füttert.

Hätte ich schon eine fette neue Nvidia-Grafikkarte und könnte alles flüssig in 21:9 auf dem neuen Monitor spielen, hätte ich nicht das Gefühl dass ich Geld beim Fenster hinausgeworfen hätte, :slap: auch dann nicht wenn Tante-AMD mir mit neuen Fakten die Freude über die Leistung einer 3080 oder 3090 etwas trübte.
 
Zuletzt bearbeitet:
Also für mich werden letzt Endlich vorallem meine Monitore entscheiden ob AMD oder Nvidia. Da ich 3 G-Sync Monitore habe, welche für sich schon so viel gekostet haben wie ein kleinwagen, werdr ich bei Nvidia bleiben.

Wegen dem Speicher gibt es halt ne 3090... mein ganzes System ist sowieso Preis Leistungstechnisch völlig "unvernünftig"

Aber muss es denn immer vernünftig sein, wenns Spass macht?
 
Zurück