Radeon RX 6800XT: Mit Raytracing 1/3 langsamer als GTX 3080?

Das habe ich verstanden, aber müsste die Abstand dann nicht trotzdem größer sein?
Ampere hat doch hier die Shader verdoppelt, dafür ist der Gewinn ziemlich klein.
Wieso steigt mit höherer Auflösung die FP32 Berechnungen?
Ampere hat die ALUs nicht verdoppelt gegenüber Turing, statt 64 FP32+INT32 verfügt jeder SM jetzt über 64 FP32+FP32/INT32 Einheiten. bei reiner FP32 Last könnte ein Ampere SM theoretisch 128 Berechnungen parallel ausführen, bei einer 50:50 Verteilung zwischen FP32/INT32 gäbe es keine Unterschiede zwischen Ampere und Turing. Beide Fälle sind rein theoretischer Natur, die Wahrheit liegt in Spielen dazwischen. Damit hat Ampere in Spielen im Prinzip nie die angegebenen, doppelten FP32 Einheiten zur Verfügung, durch die ungleiche FP>INT Last allerdings einen gewissen Vorteil.
 
Nett zu sehen, dass AMD mit ihrer ersten Iteration von RT so nah an die zweite von nVidia heranreicht.
Persönlich halte ich von RT allerdings noch nichts, da die Leistungseinbußen einfach zu drastisch sind.
DLSS ist auch eine gute Technik. Für mich aber ebenfalls nix, da ich kein Fan von Scaling bin. Ich brauch's nativ! :D

Wenn die AMD 6800XT Benches meinen Ansprüchen genügen, wird es so eine. Sollte sie knapp drunter liegen, lasse ich mich auch noch zu einer 6900er überreden, wenn die Preise nicht so in den Himmel gehen wie bei nVidia.
X570 Board ist im PC. Eine neue CPU war sowieso geplant.
 
Wenn ich mir dieses Video (in 4K60, sonst kommt es natürlich nicht rüber) ansehen, dann muß ich da deutlich widersprechen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

720p sieht bei mir Unspielbar aus. Das, was da hochskaliert auf 4K gezeigt wird, ist mehr als nur annehmbar. Es ist wesentlich besser, als natives Full HD und voll ganz spielbar. Ich würde es irgendwo bei WQHD einordnen (eher etwas darunter), wenn man genau hinsieht und das Video stoppt, dann sieht man doch etwas, aber dafür sind die Pixel erheblich kleiner.

DLSS hat das Zeug dazu alles zu ändern.
So am PC angeschaut
Durchaus beeindruckend aber nicht einer der gezeigten Auflösungen liefert ein akzeptables Bild
In Bewegung ist es dann nur noch match, absolut inakzeptabel.
Für Standbilder und Screenshots toll, aber nicht im Gaming.

Aber trotzdem, 1/9 für das was es ist gut aus, lieder weit unterhalb meiner Bildschärfeschwelle (mir tun da die Augen weh)
Abwarten, in 5K und 8K dürfte sich die Stärke der RTX 3090 zeigen, da wird es dann interessant.
Genau 8K^^
Sie hat in der Tat den Speicher, aber anspruchsvolle Games werden die 3090 überwältigen, den anderen reichen die 16 der 68/6900XT

Edit:all hail automerge :D
 
Zuletzt bearbeitet:
Wenn ich mir dieses Video (in 4K60, sonst kommt es natürlich nicht rüber) ansehen, dann muß ich da deutlich widersprechen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ziemlich underwhelming... also mich lockst du damit definitiv nicht hinterm Ofen hervor - zu viel Geschmiere und Detailverlust. Wer, der sich RTX-Karten jenseits der 500€ zulegt, sollte so einen Matsch haben wollen?
 
Naja, da 1080p noch immer der mit großem Abstand verbreitetste Standard ist, sind wir von einem Standard von 1440p noch sehr, sehr weit entfernt. Einfach mal über den Rand eines Computerforums schauen sollte bei so etwas meistens helfen.
Und 4K ist immer noch eine Randerscheinung, auch wenn jeder zweite TV das mittlerweile bietet.

Klar ist 1080p noch der weit verbreiteteste Standard. Aber zumindest unter Gaming Enthusiasten, die nicht in Schwellenländern oder der 3. Welt am PC spielen, sollte die Sache anders ausschauen.

Ich hoffe trotzdem noch, dass sich 18:9 in der kommenden Dekade als neuer Standard durchsetzen wird (Fincher und Co. gehen diesen Schritt ja schon länger, und ich fände es einen klasse Kompromiss aus angestaubtem 16:9 und ultrawide)

Dann hätten wir halt irgendwann den 2000p Standard bei 4000 x 2000 :daumen:

Aber ich glaube, hier bin ich einfach nur Visionär :lol:
 
Wobei die Chancen eigentlich gut stehen sollten, dass die Performance sich zukünftig noch bessert. Nvidia fummelt jetzt ja schon ca. 2 Jahre an der Technik, und damit auch den Treibern, da klingen die - aus dem Stand! - 1/3 geringere RT-Performance von BigNavi für mich sogar noch relativ ordentlich.
Für den ersten Wurf recht ordentlich - werde ich auch so sehen, wenn die Benchmarks da sind. Jetzt - AMD zu kaufen ist jedenfalls eine gute Idee. Ich fühl mich noch zu unentschlossen um mich schon zu entscheiden.
 
Was ich vermutet habe scheint sich immer mehr zu bestätigen, RT bei AMD ist im Vergleich noch etwas schwach. Man hat jetzt eben die Wahl zwischen starkem RT + 10 GB oder schwächerem RT und 16 GB. Wie es scheint ist es weder bei AMD noch bei NVIDIA 100% Rund.

Bei ebenbürtiger RT Leistung hätte man damit auch in der Präsentation angegeben.
 
Diese, sehr solide Leistung + die 16 GB + der günstigere Preis + die Zusammenarbeit mit den Ryzen Chips stehen sollten für den Einen oder die andere dennoch genügend Kaufanrzyzen (sorry!) schaffen - auch wenn AMD bei RT im Moment hinterher hinkt.

Grüße

phila

P.S.: Schlimmer wärs, wenn RTX schon in richtig vielen Spielen einen ungeheuren Mehrwert böte; das und DLSS (das mir selbst wichtiger ist) werden zwar aber Team Rot kann hier noch den Anschluss finden.
""Kaufanryze" Muhahaha, sehr schön:lol:
Im Ernst, bei mir wirkt diese Kombination auch attraktiv - ich überlege ein kombiniertes Grafik-Prozessor-Upgrade. Und RT finde ich nicht wirklich wichtig, wie @Kleriker oben ausführlich schrieb
Die Vorteile sind mir schlicht zu gering.

DSSL reizt mich vielleicht ein wenig, aber das könnte ja nachgeliefert werden.
 
Ob sich das Raytracing auch flächendeckend in jedem zukünftigen Spiel implementiert ist auch noch dahingestellt
In den kommenden 3 Jahren ist das noch fragwürdig in 10 Jahren wird jedes AAA Spiel massiv auf RT setzen. Letztlich führt kein Weg an RTRT vorbei
Für die aktuellen GPUs (auch RX 6xxx) ist es eine nette Spielerei, in 2 Generationen ist es wohl ausgereifter und damit Pflicht es beim Kauf zu berücksichtigen (also so gegen 2024 mit 3nm.Karten). Welche RT Performance du heute hast ist also egal. Wenn aber die Crossplattformspiele es als Standardfeature haben und der PC sich von den Konsolen neben Anzahl der FPS und Auflösung auch noch in der Anzahl der möglichen RT Effekte/ Fähigkeit unterscheidet, wird der Unterschied erst richig wichtig sein. Das kann in 5 Jahren ab der PS5 Pro sein, oder mit der PS6 erst. Bis dahin ist diese neue Tech (In Echtzeit ist RT ja neu) noch in einer Phase des Umbruchs
 
Was ist mit der Kühlleistung, grade diese Veränderung ist höchst interessant und sie wird eiskalt ignoriert!?
  • Wie wirkt sich die Abwärme auf den Prozessor (CPU) aus?
  • Hat die Ableitung der Wärme zum zweiten Lüfter ein starkes Gefälle - reduziert das die Wärme asymetrish zur CPU - reduzierter Effekt, as to expect? Ist die Wärme der CPU sekundärer Natur beim Spielen und verteilt so die Effizenz der Wärme Ableitung?
  • Wirkt sich der Durchstrom von Luft Durch u.- Seiten(a)bleitung auf die Kühleffizenz aus?
  • Sind Costom Modele besser in der Kühlung und warum oder in logischer Proportion ineffizenter - drei Lüfter gegen zwei in Effizenz?!
  • Zur Festellung der Effizienz, in Db Messung (Lautstärke pro Lesitung), kann Lautstärke zu Leistungsaufnahme und darstellende Leistung ins Verhältnis gesetzt werden. Hier können ältere Karten für den Vergleich normal hergenommen werden.
https://cdn.mos.cms.futurecdn.net/g9A8EHQLvQHUDndG6v4ScX.jpg
Wir haben hier klar ein sehr kompaktes Design welches aus logischer Weise eine Wärme Konzentration und damit lokale Amplitude mit sich bringt, damit müsste das System recht effizent sein.

Es ist entscheidend wenn neue Innovationen kommen, dass dieses auch gewürdigt werden. Für gewöhnlich bekommt man nur altbewärtes. Also macht es die Validierung umso wichtiger um festzustellen was erhalten werden muss. Das Custom-Hersteller hier jetzt nicht nachziehen können ist klar. Es muss nur klar dargestellt werden welches System besser ist, dass diese Innovation integriert werden könnte, schon im nächsten Zyklus. Durch die starke AMD Konkurrenz könnte dieser Aspekt vergessen gehen und eine Möglichkeit verspielt, wenn nicht auf Vorzüge hingewiesen wird.

Es wäre Nvidia unrecht getan diesen Aspekt zu ignorieren! Oder wie Elon Musk es sagen würde: Fehler machen wird weniger bestraft, als keine Innovations zu betreiben. Jeder der was für den Endverbraucher erreichen will muss hier klar drauf schauen, nur so kann ein Impuls zu Herstellen gesendet werden der diese Perspektive auf andere Produktelinen und Arten überträgt und so weiter Partizipation für den Verbraucher generiert.

Wie schon in "Menschliche Kommunikation" von Paul Watzlawick geschrieben wurde ist Belohnung eine Mittel der Katalyse eines gewissen Verhaltens. Zu starke Belohnung reduziert das Streben nach weiterer Belohnung zu geringe erzeugt das aktuelle Verhalten wie wir es kannten. AMD ist entscheident in seiner aktuellen Position zum auf Konkurrenzebene impulse der Innovation zu generieren, das sind aber die niedrigsten, da sie einzig auf selbsterhaltung entstehen und nicht durch den Verbraucher und so von ihm als Instanz losgelöst und für Innovationen irrelevant als, person attention for measure. He consumes what he gets how can he complain he doesn't understand the systems they produce! The only ability to give a statement ist recognizing of innovation and reward ist.
 
Zuletzt bearbeitet:
Zurück