Radeon RX 6800: Raytracing- und 3DMark-Performance geleakt

AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
Ich auch! Hatte auch schon beide 1:1 gegenüber. Habe damals auch Phys X ausgetestet mit AMD/Nvidia Combo
 
Zuletzt bearbeitet:
Ich kann mich nur wiederholen...
Die UVP der 3080/3070 kommt nicht von ungefähr!
Ebensowenig die Preise, die AMD nun aufruft.

Eine UVP von 700€ für eine 3080 ist kein "Geschenk" von Nvidia (nach der 2080Ti), wie einige vielleicht denken, sondern genau eingeschätztes "Wissen" bzgl. der Leistung der neuen AMD-GPUs um preislich noch einigermaßen (mit "grünem" Käufer-Bonus) attraktiv zu bleiben.

mfg
 
Wo sind die besser? Das wird sich erstmal zeigen müssen. Besser wären sie mit einem DLSS-Ersatz vlt. Aber wer weiß wann das kommt. Mich interessiert vor allem, ob AMD es diesmal schafft vernünftige Kühler auf ihre Karten zu bringen. Da hat Nvidia bei der 3090 nen Brett vorgelegt.
Bei den Kühlern , resp. der Lärmbelastung die AMD bisher vor zu weisen hatte bin ich voll bei dir.

RTX30X0 haben echt coole Kühler und gut in mein Setup würde es eben auch passen. Habe nie verstanden warum man das Teil nicht endlich umdreht. ...da waren einige lachhafte Begründungen die habe ich schon vergessen
 
Das wäre gänzlich anders als meine Vermutung. Ich habe bisher vermutet, dass amd bei RT den kürzeren zieht. Das wäre laut dem Benchmark ja nur bedingt richtig.
Bei gleichen Auslösungen soll die RTX 6800 also mehr RT Power haben als eine 3070 haben. Bin gespannt auf die visuelle Analyse von DF zwischen 4k RT beider Karten sowie 1440p (DLSS) vs 1440p (Radeon Image Sharpening).

Nach eigenen Angaben arbeitet AMD an einem DLSS Konkurrenten, der keine zusätzliche Implementierung der Entwickler benötigt. Mit viel Glück gibt es zum Release schon eine Preview davon.
 
AMD/ATI hatte schon immer eine wärmere Bildausgabe dagegen wirkt die Bildausgabe der NV Karten zum Teil steril. Viele empfinden daher die Bildausgabe der AMD Karten daher als besser, ich auch ;).
Ist aber Subjektiv.
Ironischerweise, finde ich als Verfechter deiner Aussage, dass das Bild das jetzt meine GTX1080 ausgiebt, seit der "Bildschärfung von AMD für Jedermann" sehr gut und akzeptabel ist.

So zu sagen, haben wir den Blaustich den es schon seit GeForce2 gab und unscharfe Ausgabe, durch freie AMD Technik (was NV nie machen würde) verringert.
ps: danke hier auch für VRR

Seit es ATI gab, haben sie immer an der Spitze der Ausgabequalität gearbeitet und Vorlagen von NV mit lächerlich einfachen Lösungswegen umsetzten können.

Wenn es mal AMD, ex. ATI nicht mehr geben sollte, haben wir einen echten Verlust zu verzeichnen. Zumindest was Kundenfreundlichkeit und technologischen Fortschritt angeht.
War das nicht schon immer so das NVIDIA hier besch...
Als ich von meiner 1060 im alten Rechner auf die 5700XT im neuen System gewechselt habe, ist mir als erstes die wesentlich bessere Bildqualität ins Auge gestochen. Da gibt es sogar ein Video irgendwo, wo schön erklärt wird wo und wie hier NVIDIA trickst.
Hätte sehr gerne einen Blick auf das Video geworfen. Die Ungläubigen sind aber auch mit schwer zu überzeugen aber besser als ohne.
 
... insbesondere dank AMD's
Rumgespiele mit "Rage-Mode" und "Smart Access Memory" bei der Präsentation.
Wenn sowas bei Tests legitim wäre, dann kann man auch gleich bei den RTX Karten DLSS permanent anmachen
und behaupten das wäre fair...

So ein BS. Bei den Benches geht es darum, die Leistung von Grakas bei nativen Auflösungen zu vergleichen.

An diesem Grundprinzip ändern auch die Nutzung von Plattformvorteilen oder ein kleines Auto-OC nix.

Es ist dagegen allerdings ein Unterschied, wenn die RTX nur noch 1080p für 4k Matsch am Bildschirm rendert.

Dann kann pcgh sich die 4k benches ja in Zukunft für die RTXs klemmen und einen kleinen Vermerk bei den 1080p-Balken machen (=fps @ 4k with DLSS). :fresse:
 
Raytracing und der 4k Hype vertragen sich halt nicht. Aus einer 3070 die mit dem 4k Pomp der 2080Ti beworben wird (und der war schon sehr optimistisch), kann so schnell eine 1440p@30fps RTX Karte werden, sofern man die Einstellungen nicht runterregelt. Bedenkt man, dass Nvidia in der Regel mindestens drei Generationen braucht um bei gleichem Geldbetrag die Leistung zu verdoppeln, wird uns das noch eine Weile begleiten. RTX6070 wäre dann bei 4k@30fps mit allen Details.

Sofern man kleine enge Räume hat läuft Raytracing auch immer sehr schnell. Wenn es dann hinaus in die offene Welt geht, ist das der Leistungskiller. 4k mit 60fps und vollem Raytracingspektakel ohne Einschränkungen wird noch eine Weile dauern. An den leicht matschigen Look der Reflektionen der Schärfe vermissen lässt werden wir uns gewöhnen müssen.
 
wenn amd wirklich soviel geld für die server von superresulution ausgibt wie nvidia bei dlss kanns was werden und dann werde ich mir auch eine 6900xt holen weil ich sowieso einen 5900x diese woche bestelle aber aber ohne wirds schwer
 
Ich kann mich nur wiederholen...
Die UVP der 3080/3070 kommt nicht von ungefähr!
Ebensowenig die Preise, die AMD nun aufruft.

Eine UVP von 700€ für eine 3080 ist kein "Geschenk" von Nvidia (nach der 2080Ti), wie einige vielleicht denken, sondern genau eingeschätztes "Wissen" bzgl. der Leistung der neuen AMD-GPUs um preislich noch einigermaßen (mit "grünem" Käufer-Bonus) attraktiv zu bleiben.

mfg
...ganz erlich.
Ich glaube schon lange, dass NV einen bei AMD eingeschleust hat.

Die verschaukeln den Kunden. NVidia hat eine unglaubliche Skalierung unter Ihren Produkten die ganz genaue Punktlandungen erziehlen bei Ihrer Performance. Auch unter einander kommen sich diese nie in die Quere, immer schön 10-15%.
AMD kann das nicht vorweisen, Ihre Produkte sitzen des öftern aufeinander. Darum empfand ich in der Vergangenheit, die top Performanceprodukte nie so interessant wie die Middrange. Um so unverständlicher, dass mit einer super schnellen Topperf., die Mid und Low - range Karten besser verkauft werden.
...oder sagen wir einfach dumm!

Die super Skalierung deutet auch darauf hin, dass man nie das Maximum erhalten wird.
Erst wenn die Spione das Zeichen geben, wird eine Pro/Ultra/Super 20GB Version erscheinen.
Zu meinem Unverständnis, ist dann die blose Existens und der schnelle Release dieser immer zum Erstaunen vieler :-/ ?
hehe und nicht EIN Wort dazu - ein Schelm, wer schlechtes dabei denkt. :-P
Aber man wird eh' abwarten müssen wie sich das ganze so entwickelt - nutzt AMD nicht sowas wie dynamische Auflösungen? War das aktiviert?
Das wäre mal eine der sehr wenigen Consol Techs die ich gerne implementiert sehen würde.

Das würde in der Hitze des Gefächts helfen und wenn ich dann in einer ruigen Phase die Grafikbestaunen möchte, haben wir wieder max. Grafiks
 
Zuletzt bearbeitet:
TDP ist nicht der Verbrauch
Für nen R9 plus ne 6800XT und Restgedöns würde ich auch als Maximlverbrauch so 550 Watt kalkulieren.

Die AMD Angabe muss allerdings auch für Ammis mit billig Netzteil reichen, sonst hat AMD ne Klage am Hacken.

Dazu kommen Lastspitzen die höher ausfallen können. Aber das weiß man noch nicht. Siehe Ampere mit knapp 500 Watt.

Vermutlich reicht ein Gutes und Neues Netzteil mit 650 Watt für R9 5900x + RX 6900XT (Ohne OC)

Bei nem R7 und ner RX6800 würde ich mir auch bei 550 Watt ohne overclock keine Sorgen machen. Aber muss man sehen, am besten einfach Tests abwarten.
Das TDP != Verbrauch ist ist mir auch klar ;-).
Aber ja, hab bewerte das ähnlich wie du. Rein preislich geben sich 650 vs 750 Watt Netzteile jetzt auch nicht die welt, im Gegenteil, ich meine die Preis pro Watt sieht bei 750 besser aus als bei 650. ärgerlich wäre nur, wenn das 750er NT sich dann 90% der Zeit bei mittlerer Last langweilt und dabei dann einen deutlich schlechteren Wirkungsgrad erzielt als eventuell ein 650er, dass zu 2/3 ausgelastet ist, etc.

Naja mal sehen was die ersten Tests so bringen werden. Muss eh noch mit mir ringen ob es dann 2x AIO für GPU und CPU werden oder doch nen Custom Loop ;-).
 
Zusammenfassen bei dem Leak hier:

Mit dem Nvidia-Cheat-Fetaure Nvidia schneller (welch Wunder :schief:) und ohne "Hilfsmittelchen" AMD in Front :D.

Meine Meinung zur "News": Nein, wird so nicht passieren.
 
Zuletzt bearbeitet:
Man darf nicht vergessen das AMD die erste Generation mit Raytracing einführt. Nvidia hat hier schon mehr Erfahrung und trotzdem schafft es AMD besser rauszukommen als eine neue RTX 3070 die die zweite Generation der Raytracing Einheiten schon hat. Das ist echt beachtlich, wenn die Werte später so eintreffen sollten.
Ich denke das ist keine Frage der "Erfahrung" sondern eine des Konzepts. Unterm Strich scheint die AMD Lösung, die ohne extra Kerne (die Platz, Strom und Geld kosten) auskommt, auf ähnlichem Niveau zu liegen oder tendenziell sogar etwas flotter und damit besser zu sein. Inwieweit das wirklich der Fall ist werden transparente Tests zeigen.

Wenn ja, dann ist einfach das Konzept besser und ggf auch ein Grund für die mutmaßlich geringere Leistungsaufnahme der AMD Karten.

Es könnte dazu führen, dass selbst ein nochmals in den nächsten Generationen weiterentwickeltes Nvidia Konzept mit Extra Kernen immer eher unterlegen bleibt. Wenn das Konzept "nichts taugt" nutzt die Weiterentwicklung desselben nur bedingt etwas. Überlegen kann man dann nur mittels massiver Aufstockung und entsprechenden weiteren Nachteilen werden.

Vielleicht erlebt Nvidia ja damit seinen "CGN Effekt" und muss ähnlich wie AMD die letzten Jahre die Karten immer bis an die Kotzgrenze takten um mithalten zu können?! Ist natürlich reine Mutmaßung! Jedenfalls hätte Nvidia ja genug Mittel um in dem Fall ein neues Konzept zu entwickeln - vorausgesetzt sie haben etwas, dass man mit Geld nicht kaufen kann: Eine bessere Idee!
 
in sachen bildqualität ist das so wie vorher schon erwähnt das nvidia eher die farben auf kühl hat das stimmt aber das ist nichts negatives. das ist reine geschmackssache. weiss noch wie ein kollege neben mir mit seiner gtx 570 zockte und ich mit einer radeon 6950 und da versuchte ich das ruhige bild von nvidia hinzubekommen mit der amd da es für mich besser aussah obwohl mein monitor das doppelte kostete aber nvidia hat ein ruhigeres bild und amd hat gerne ein scharfes bild was man auch mögen muss. für mich persönlich zu scharf. freund von mir hat nen pc mit rx 480 und findet auch seinen laptop mit gtx 1060 der an einem wqhd monitor angeschlossen ist in manchen games besser manchmal sieht er wieder keinen unterschied. glaube nvidia ist da noch vorne was das bild betrifft
 
Na geforce verticken und AMD joinen die 6800 Karten blasen die 2080ti eh weg. :devil: Oder damit leben.

oder du machst es wie nvidia und lügst :devil:

Screenshot_2020-11-02 3DCenter Forum - Is this a thing (the secret of vivid colors of Radeon) ...png
 
Zuletzt bearbeitet:
Na geforce verticken und AMD joinen die 6800 Karten blasen die 2080ti eh weg. :devil: Oder damit leben.

oder du machst es wie nvidia und lügst :devil:

Anhang anzeigen 1340844
Wow... da bin ich ja echt froh, dass ich nicht der Trottel war, der die Karte damals für 1400€ neu gekauft hat, sondern nur der Lucky Bastard, der sie gebraucht für 500 abgegriffen hat :ugly:

Also ganz ehrlich, wenn ich so viel Kohle für sone Karte gezahlt hätte, und dann so eine "Bildqualität" dafür bekomme, und sich der Laden dann auch noch so benimmt, dann wäre das für mich - ganz ehrlich - das letzte mal, dass ich nVidia meine Kohle in den Arsch blase.

Ich werd die Karte behalten, weil sie ne Weile reichen wird vonner Performance, und ich wahrscheinlich so schnell nichts wesentlich besseres für weniger finde, aber irgendwann is man an dem Punkt wo man sich denkt, dass FPS auch einfach nicht alles ist.
Da könnte ich ja gleich alles nur noch in 720P Low zocken.
 
Zurück