• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

takan

Software-Overclocker(in)
Raytracing ist mir ziemlich egal. Ein Grafikfeature was die FPS halbiert wird immer als erstes deaktiviert. DLSS trauer ich mehr nach, ein Feature das die FPS verdoppelt schalte ich sofort ein. Ich hoffe dass AMD Super Resolution bald auf die Reihe kriegt.
super resolution ist kein dlss.
das von amd ist downsampling...
das von nvidia ist "ai" upscaling
 

sifusanders

PC-Selbstbauer(in)
super resolution ist kein dlss.
das von amd ist downsampling...
das von nvidia ist "ai" upscaling
absolut falsch. Das kommende Super Resolution ist ebenso ein AI upsampler im Stile von DLSS, basierend auf DirectML

Was Du meinst ist evtl. "virtual super resolution". Das ist bereits seit längerer Zeit in den AMD Treibern drin und ist in der Tat ein Downscaler für Spiele, die dies nativ nicht unterstützen
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Dann her derjenige eine Fehlkauf getätigt.
Die 6900XT Stock ist auf fest selben Niveau, mit OC bis auf 2.5 GHz (von 2Ghz aus) rauf, das packt eine 3090 nicht mehr.

Wobei wir am ende über +-10% reden bei 500€ Unterschied

Abwarten, in 5K und 8K dürfte sich die Stärke der RTX 3090 zeigen, da wird es dann interessant.
 

BigBoymann

Software-Overclocker(in)
Hier sieht man, dass Average Frame Rate mit RT um 47% sinkt:
OK, ich setz mal die 2080Ti mit der 6800XT gleich. Dann ist das schon ein bedeutener Unterschied in der wirklichen Leistung. Wie gesagt, kann ich mir noch Verschiebungen seitens des Powerlimits vorstellen, aber zweistellig werden die wohl eher nicht ausfallen, sind ja allesamt schon so ziemlich an der Kotzgrenze.

Danke!
 

takan

Software-Overclocker(in)
Quelle? Artikel gestern von PCGH besagt dass es sich bei Super Resolution um eine Deep-Learning Bildglättungstechnik handelt.
ja im pcgh artikel steht nichts von "super resolution"
ich hab abend mein treiber geöffnet von amd, unter anzeige steht ein aktivierungsfeld "virtuel super resolution"
glaube nicht das amd unterschiedliche dinge gleich benennt.
 

ChrisMK72

PCGH-Community-Veteran(in)
Hardware Unboxed VID zu dem Thema
Obwohl ...

Er redet davon, warum das Ergebnis der 3080 in 1440p in High Quality so "underwhelming" is(also enttäuschend, bzw. nicht gerade überwältigend), verglichen mit 4k.

Dabei wird ein Spieledurchschnitt gezeigt, wo die P1 fps um 136 liegen.
Average 171.

Das is doch mein Ziel ! :D
Immer 100 fps(gelockt) in WQHD(also außer natürlich in "Watch Dogs: Legion der Ruckelsoldaten".

Der Rest: Who cares ? :ka: :wayne:

Ich bleib' weiter bei meiner Bestellung. :cool:
Hoffentlich wird's noch was, mit dem Weihnachtsgeschenk an mich.

edit:

1.jpg
 

owned139

Software-Overclocker(in)
Da mus s ich leider widersprechen. Das kann sicherlich damit zusammenhängen, gerade aber bei den Ampere Karte ist aber eher eine schlechte Auslastunger der CUs der Fall, so dass die zusätzliche FP32 Leistung erst in 4k eingebracht werden kann.
Die Verdopplung der Shader hatte ich tatsächlich nicht bedacht.
Muss aber nicht unbedingt daran liegen. Müsste gerade dann der Abstand in 4K nicht noch größer sein? Gerade wegen der doppelten Shader.

Speicherbandbreite gerade die kleine 6800. Vermutung. Ach wir werden sehen. Denke nicht das AMD in 1440p benches im CPU Limit raushaut. :ugly:
Die reale Speicherbandbreite ist bei Ampere höher. Der Infinitycache ist nicht unendlich groß und wir wissen noch gar nicht, wie stark dieser zum tragen kommt.
 

ChrisMK72

PCGH-Community-Veteran(in)
Das hab ich schon kapiert @sifusanders
np.

Fand es trotzdem interessant, wie man anhand dieser Grafik in 1440p von "underwhelming" sprechen kann.
Bei mir würde es eher heißen: Erwartungen erfüllt! :)

(Immerhin mehr P1 fps, als vorher average mit der 1080 Ti.)
 

sifusanders

PC-Selbstbauer(in)
Das hab ich schon kapiert @sifusanders
np.

Fand es trotzdem interessant, wie man anhand dieser Grafik in 1440p von "underwhelming" sprechen kann.
Bei mir würde es eher heißen: Erwartungen erfüllt! :)
Geht mehr darum, dass verglichen zu den 4k Werten man eigentliche bessere Performance in1440p hätte erwarten können. Natürlich sind die Ampere aktuell nach wie vor die besten 1440p Karten auf dem Markt. Ändert sich evtl halt am 18.11- zudem auch dann der Abstand beider Architekturen jetzt nicht riesig ist. Weiterhin kommt es wie schon immer natürlich auch auf das Spiel an. Jeder muss halt gucken, welche Karte besser zu ihm selbst passt. Denke nicht, dass man wirklich 'falsch' entscheiden kann.
 

sifusanders

PC-Selbstbauer(in)
Muss aber nicht unbedingt daran liegen. Müsste gerade dann der Abstand in 4K nicht noch größer sein? Gerade wegen der doppelten Shader.
Die Anzahl Integer Rechnungen dürfte sich nicht verändern, daher kommen in 4k proportional mehr FP32 Rechnungen dazu und dann kann Ampere halt besser seine Karten (no pun intended) ausspielen - so hab ich es zumindest verstanden
 

owned139

Software-Overclocker(in)
700FPS+ = wenig? :ugly:

Die Anzahl Integer Rechnungen dürfte sich nicht verändern, daher kommen in 4k proportional mehr FP32 Rechnungen dazu und dann kann Ampere halt besser seine Karten (no pun intended) ausspielen - so hab ich es zumindest verstanden
Das habe ich verstanden, aber müsste die Abstand dann nicht trotzdem größer sein?
Ampere hat doch hier die Shader verdoppelt, dafür ist der Gewinn ziemlich klein.
Wieso steigt mit höherer Auflösung die FP32 Berechnungen?
 

Noctim

Komplett-PC-Aufrüster(in)
Mittlerweile gibt es schon Beispiele, bei denen man den Unterschied auch wirklich sehen kann, z.B. Shadow of the Tombraider.

Das für mich wi8chtigste Argument ist, dass Raytracing irgendwann einmal verpflichtend sein könnte. Dann ließen sich die Spiele ohne nicht mehr starten und der Leistungsverlust würde sich durch alle Titel ziehen. Allerdings ist da die Frage, wie lange man seine Karte nutzen möchte.

Das Feature wird irgendwann einfach standardmäßig vorhanden sein. Sinnlos ist es ja nicht und gut aussehen tut es natürlich. Das genannte Cyberpunk-Beispiel sieht gut aus, aber die meisten Games dieser Kategorie sahen auch ohne Raytracing hammergeil aus.

Aber aktuell ist es a) ein Feature, dass nur wirklich große Triple A Titel, wenn überhaupt, unterstützen und b) immer noch so unperformant ist, dass es über eine hardwareseitige Lösung befeuert werden muss.

Wir halten fest: Für ein paar Lichteffekte und Spiegelungen in Pfützen, die bei Grafikdemos natürlich nett aussehen, aber im Gameplay null Relevanz haben.

Mir ist das generell bei Doom: Eternal aufgefallen. Das Spiel hat eine extrem gute Grafik, aber wenn man im Flow ist, fällt die Grafik nicht mehr bewusst auf. Da geht es um Gegner, gute Kombos, Aiming und Movement. Ich musste zwischendurch wirklich kurz bewusst innehalten, um die gestalterische Leistung der Level-Designer würdigen zu können. Diese Momente hielten ein paar Sekunden/Minuten und dann ging es mit dem Game weiter.

Gleiches empfinde ich bei Raytracing zur Zeit: Nice to have, aber daraus wird ein schlechtes Spiel kein gutes Spiel.

Und dafür FPS im zweistelligen Prozentbereich opfern? Ich glaube nicht, dass ich persönlich dazu bereit wäre.

Wenn es irgendwann keinen nennenswerten (!) Performance Impact hat, so wie andere Features wie Tiefenschärfe und Anti Aliasing und Co., dann wird es einfach zum Standard gehören. Aber solange das krampfhaft mit der Brechstange gelöst werden muss, sehe ich keinen Grund für einen gewaltigen Aufpreis bei gleichzeitigen Performance-Einbrüchen.
 
Zuletzt bearbeitet:

AlphaSec

Komplett-PC-Aufrüster(in)
Das habe ich verstanden, aber müsste die Abstand dann nicht trotzdem größer sein?
Ampere hat doch hier die Shader verdoppelt, dafür ist der Gewinn ziemlich klein.
Wieso steigt mit höherer Auflösung die FP32 Berechnungen?
Ampere hat die ALUs nicht verdoppelt gegenüber Turing, statt 64 FP32+INT32 verfügt jeder SM jetzt über 64 FP32+FP32/INT32 Einheiten. bei reiner FP32 Last könnte ein Ampere SM theoretisch 128 Berechnungen parallel ausführen, bei einer 50:50 Verteilung zwischen FP32/INT32 gäbe es keine Unterschiede zwischen Ampere und Turing. Beide Fälle sind rein theoretischer Natur, die Wahrheit liegt in Spielen dazwischen. Damit hat Ampere in Spielen im Prinzip nie die angegebenen, doppelten FP32 Einheiten zur Verfügung, durch die ungleiche FP>INT Last allerdings einen gewissen Vorteil.
 

PureLuck

Freizeitschrauber(in)
Nett zu sehen, dass AMD mit ihrer ersten Iteration von RT so nah an die zweite von nVidia heranreicht.
Persönlich halte ich von RT allerdings noch nichts, da die Leistungseinbußen einfach zu drastisch sind.
DLSS ist auch eine gute Technik. Für mich aber ebenfalls nix, da ich kein Fan von Scaling bin. Ich brauch's nativ! :D

Wenn die AMD 6800XT Benches meinen Ansprüchen genügen, wird es so eine. Sollte sie knapp drunter liegen, lasse ich mich auch noch zu einer 6900er überreden, wenn die Preise nicht so in den Himmel gehen wie bei nVidia.
X570 Board ist im PC. Eine neue CPU war sowieso geplant.
 

hanfi104

Volt-Modder(in)
Wenn ich mir dieses Video (in 4K60, sonst kommt es natürlich nicht rüber) ansehen, dann muß ich da deutlich widersprechen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

720p sieht bei mir Unspielbar aus. Das, was da hochskaliert auf 4K gezeigt wird, ist mehr als nur annehmbar. Es ist wesentlich besser, als natives Full HD und voll ganz spielbar. Ich würde es irgendwo bei WQHD einordnen (eher etwas darunter), wenn man genau hinsieht und das Video stoppt, dann sieht man doch etwas, aber dafür sind die Pixel erheblich kleiner.

DLSS hat das Zeug dazu alles zu ändern.
So am PC angeschaut
Durchaus beeindruckend aber nicht einer der gezeigten Auflösungen liefert ein akzeptables Bild
In Bewegung ist es dann nur noch match, absolut inakzeptabel.
Für Standbilder und Screenshots toll, aber nicht im Gaming.

Aber trotzdem, 1/9 für das was es ist gut aus, lieder weit unterhalb meiner Bildschärfeschwelle (mir tun da die Augen weh)
Abwarten, in 5K und 8K dürfte sich die Stärke der RTX 3090 zeigen, da wird es dann interessant.
Genau 8K^^
Sie hat in der Tat den Speicher, aber anspruchsvolle Games werden die 3090 überwältigen, den anderen reichen die 16 der 68/6900XT

Edit:all hail automerge :D
 
Zuletzt bearbeitet:

PureLuck

Freizeitschrauber(in)
Wenn ich mir dieses Video (in 4K60, sonst kommt es natürlich nicht rüber) ansehen, dann muß ich da deutlich widersprechen:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ziemlich underwhelming... also mich lockst du damit definitiv nicht hinterm Ofen hervor - zu viel Geschmiere und Detailverlust. Wer, der sich RTX-Karten jenseits der 500€ zulegt, sollte so einen Matsch haben wollen?
 

Blowfeld

PC-Selbstbauer(in)
Naja, da 1080p noch immer der mit großem Abstand verbreitetste Standard ist, sind wir von einem Standard von 1440p noch sehr, sehr weit entfernt. Einfach mal über den Rand eines Computerforums schauen sollte bei so etwas meistens helfen.
Und 4K ist immer noch eine Randerscheinung, auch wenn jeder zweite TV das mittlerweile bietet.

Klar ist 1080p noch der weit verbreiteteste Standard. Aber zumindest unter Gaming Enthusiasten, die nicht in Schwellenländern oder der 3. Welt am PC spielen, sollte die Sache anders ausschauen.

Ich hoffe trotzdem noch, dass sich 18:9 in der kommenden Dekade als neuer Standard durchsetzen wird (Fincher und Co. gehen diesen Schritt ja schon länger, und ich fände es einen klasse Kompromiss aus angestaubtem 16:9 und ultrawide)

Dann hätten wir halt irgendwann den 2000p Standard bei 4000 x 2000 :daumen:

Aber ich glaube, hier bin ich einfach nur Visionär :lol:
 

Acgira

Freizeitschrauber(in)
Wobei die Chancen eigentlich gut stehen sollten, dass die Performance sich zukünftig noch bessert. Nvidia fummelt jetzt ja schon ca. 2 Jahre an der Technik, und damit auch den Treibern, da klingen die - aus dem Stand! - 1/3 geringere RT-Performance von BigNavi für mich sogar noch relativ ordentlich.
Für den ersten Wurf recht ordentlich - werde ich auch so sehen, wenn die Benchmarks da sind. Jetzt - AMD zu kaufen ist jedenfalls eine gute Idee. Ich fühl mich noch zu unentschlossen um mich schon zu entscheiden.
 

Arkonos66623

Freizeitschrauber(in)
Was ich vermutet habe scheint sich immer mehr zu bestätigen, RT bei AMD ist im Vergleich noch etwas schwach. Man hat jetzt eben die Wahl zwischen starkem RT + 10 GB oder schwächerem RT und 16 GB. Wie es scheint ist es weder bei AMD noch bei NVIDIA 100% Rund.

Bei ebenbürtiger RT Leistung hätte man damit auch in der Präsentation angegeben.
 

Mindovermatter

Schraubenverwechsler(in)
Diese, sehr solide Leistung + die 16 GB + der günstigere Preis + die Zusammenarbeit mit den Ryzen Chips stehen sollten für den Einen oder die andere dennoch genügend Kaufanrzyzen (sorry!) schaffen - auch wenn AMD bei RT im Moment hinterher hinkt.

Grüße

phila

P.S.: Schlimmer wärs, wenn RTX schon in richtig vielen Spielen einen ungeheuren Mehrwert böte; das und DLSS (das mir selbst wichtiger ist) werden zwar aber Team Rot kann hier noch den Anschluss finden.
""Kaufanryze" Muhahaha, sehr schön:lol:
Im Ernst, bei mir wirkt diese Kombination auch attraktiv - ich überlege ein kombiniertes Grafik-Prozessor-Upgrade. Und RT finde ich nicht wirklich wichtig, wie @Kleriker oben ausführlich schrieb
Die Vorteile sind mir schlicht zu gering.

DSSL reizt mich vielleicht ein wenig, aber das könnte ja nachgeliefert werden.
 

Rollora

Kokü-Junkie (m/w)
Ob sich das Raytracing auch flächendeckend in jedem zukünftigen Spiel implementiert ist auch noch dahingestellt
In den kommenden 3 Jahren ist das noch fragwürdig in 10 Jahren wird jedes AAA Spiel massiv auf RT setzen. Letztlich führt kein Weg an RTRT vorbei
Für die aktuellen GPUs (auch RX 6xxx) ist es eine nette Spielerei, in 2 Generationen ist es wohl ausgereifter und damit Pflicht es beim Kauf zu berücksichtigen (also so gegen 2024 mit 3nm.Karten). Welche RT Performance du heute hast ist also egal. Wenn aber die Crossplattformspiele es als Standardfeature haben und der PC sich von den Konsolen neben Anzahl der FPS und Auflösung auch noch in der Anzahl der möglichen RT Effekte/ Fähigkeit unterscheidet, wird der Unterschied erst richig wichtig sein. Das kann in 5 Jahren ab der PS5 Pro sein, oder mit der PS6 erst. Bis dahin ist diese neue Tech (In Echtzeit ist RT ja neu) noch in einer Phase des Umbruchs
 

Netaxus

Schraubenverwechsler(in)
Was ist mit der Kühlleistung, grade diese Veränderung ist höchst interessant und sie wird eiskalt ignoriert!?
  • Wie wirkt sich die Abwärme auf den Prozessor (CPU) aus?
  • Hat die Ableitung der Wärme zum zweiten Lüfter ein starkes Gefälle - reduziert das die Wärme asymetrish zur CPU - reduzierter Effekt, as to expect? Ist die Wärme der CPU sekundärer Natur beim Spielen und verteilt so die Effizenz der Wärme Ableitung?
  • Wirkt sich der Durchstrom von Luft Durch u.- Seiten(a)bleitung auf die Kühleffizenz aus?
  • Sind Costom Modele besser in der Kühlung und warum oder in logischer Proportion ineffizenter - drei Lüfter gegen zwei in Effizenz?!
  • Zur Festellung der Effizienz, in Db Messung (Lautstärke pro Lesitung), kann Lautstärke zu Leistungsaufnahme und darstellende Leistung ins Verhältnis gesetzt werden. Hier können ältere Karten für den Vergleich normal hergenommen werden.
https://cdn.mos.cms.futurecdn.net/g9A8EHQLvQHUDndG6v4ScX.jpg
Wir haben hier klar ein sehr kompaktes Design welches aus logischer Weise eine Wärme Konzentration und damit lokale Amplitude mit sich bringt, damit müsste das System recht effizent sein.

Es ist entscheidend wenn neue Innovationen kommen, dass dieses auch gewürdigt werden. Für gewöhnlich bekommt man nur altbewärtes. Also macht es die Validierung umso wichtiger um festzustellen was erhalten werden muss. Das Custom-Hersteller hier jetzt nicht nachziehen können ist klar. Es muss nur klar dargestellt werden welches System besser ist, dass diese Innovation integriert werden könnte, schon im nächsten Zyklus. Durch die starke AMD Konkurrenz könnte dieser Aspekt vergessen gehen und eine Möglichkeit verspielt, wenn nicht auf Vorzüge hingewiesen wird.

Es wäre Nvidia unrecht getan diesen Aspekt zu ignorieren! Oder wie Elon Musk es sagen würde: Fehler machen wird weniger bestraft, als keine Innovations zu betreiben. Jeder der was für den Endverbraucher erreichen will muss hier klar drauf schauen, nur so kann ein Impuls zu Herstellen gesendet werden der diese Perspektive auf andere Produktelinen und Arten überträgt und so weiter Partizipation für den Verbraucher generiert.

Wie schon in "Menschliche Kommunikation" von Paul Watzlawick geschrieben wurde ist Belohnung eine Mittel der Katalyse eines gewissen Verhaltens. Zu starke Belohnung reduziert das Streben nach weiterer Belohnung zu geringe erzeugt das aktuelle Verhalten wie wir es kannten. AMD ist entscheident in seiner aktuellen Position zum auf Konkurrenzebene impulse der Innovation zu generieren, das sind aber die niedrigsten, da sie einzig auf selbsterhaltung entstehen und nicht durch den Verbraucher und so von ihm als Instanz losgelöst und für Innovationen irrelevant als, person attention for measure. He consumes what he gets how can he complain he doesn't understand the systems they produce! The only ability to give a statement ist recognizing of innovation and reward ist.
 
Zuletzt bearbeitet:
Oben Unten