Locuza
Lötkolbengott/-göttin
Das ist eine interessante Designfrage, die sich schon bei der XBox One X gestellt hat.Wenn ich mir die Organisationsstruktur von RDNA ansehe und das als behelfsmäßige Ableitungsgrundlage heranziehe, würde ich eher davon ausgehen, dass die beiden Designs unterschiedliche L2-Cache-Größen aufweisen werden; die Xbox wird mit ihrem 320 Bit-Interface voraussichtlich mehr L2 besitzen.
ROPs, L2$ und Memory-Controller möchte man eng verschalten, entsprechend skaliert das meistens zusammen.
Aber seit mindestens GCN1 hat AMD mehrere Crossbars verbaut, weswegen es beispielsweise auch nur 32 ROPs, anstatt 48 ROPs an einem 384-Bit-Interface bei Tahiti sein konnten.
Der L2$ wurde aber entsprechend skaliert auf 768KiB.
Bei der Xbox One X kommt ein 384-Bit Interface zum Einsatz, da habe ich mich schon früh gewundert, ob 32 oder 48 ROPs zum Einsatz kommen und analog zu Tahiti 3MiB L2$ verbaut werden oder Microsoft ROPs und L2$ fest zusammenskaliert und dafür dann bei der MC-Verteilung etwas Lustiges macht.
Es ist dann Letzeres:
https://scr3.golem.de/screenshots/1708/Microsoft-Xbox-One-X-Scorpio-Engine-Hot-Chips-29/Microsoft-Xbox-One-X-Scorpio-Engine-Hot-Chips-29-03.png
Die XBox One X hat 32 ROPs, 2MiB L2$ und 8 Memory-Channel-Controller auf die 6 Dual- bzw. 12-Channels verteilt sind.
Die Xbox Series X hat 64 ROPs und sollte analog über 5 Dual-Channels verfügen (Für GDDR6 sind es genauer 10-Dual-Channels bzw. 20-Einzelchannels)
Ich stelle mir aktuell vor, dass MS einen ähnlichen Kniff anwendet und die DRAM-Channels auf eine symmetrische Anzahl an Memory-Controller verteilen wird.
Die 5700 @ 2.15Ghz sollte in der Regel, falls kein Bandbreitenlimit vorherrscht oder andere interne Flaschenhälse wie Fabric-Speed, näherungsweise >11% schneller sein.Ohne jetzt auf alles einzugehen => Du widersprichst Dir im Ganzen.
Deinen Argumenten nach müsste die sehr hoch getaktete RX 5700 die niedrig getaktete RX 5700 XT unabhängig der Auflösung stets schlagen, das ist jedoch ganz eindeutig nicht der Fall, obwohl die am Papier stärkere RX 5700 mit fast 10 Teraflops deutlich über Jener der RX 5700 XT mit gut 9 Teraflops (oder 9,3 je nach Takt) liegt.
Offenbar kann die RX 5700 mit ihrem sehr hohen Takt die fehlenden 4 CU's nicht ganz ausgleichen (oder nur in wenigen Fällen), und das trotz höherer Rechenleistung.
Außerdem basieren Deine Spekulationen stets darauf dass die PS5 GPU durchgängig mit 2,23 Ghz taktet, was doch sehr bezweifelt werden darf angesichts der Bezeichnung "Boost Takt".
Und was RT angeht, die Argumentation auf Basis der Intersection-Engine ist meines Wissens nach Spekulation, ein offizielles Statement von AMD wie sie RT in RDNA 2 GPU's implementiert haben gibt es noch nicht.
Wie gesagt gibt es keinen "Stock-Clock" der 1,75 GHz beträgt, ich denke entsprechend da wurde einfach eine Stock-5700XT gegenüber einer 5700 @2,15 gestellt, wo ich mich auch frage wie hoch die Spannung dort ist und wie er das kühlt.
Frameverlauf bzw. Taktverlauf bzw. überhaupt genaue Angaben fehlen.
Bei einem Vergleich mit einer Stock-5700XT bleiben ungefähr noch 5-6% Vorteil bei der reinen Rechenleistung übrig, auch wieder nur grob abgeleitet, von ungefähren Durchschnittswerten der 5700XT.
Da limitiert vielleicht das Memory-System, um ein paar Prozent.*
Mehr Präzision wäre an dieser Stelle sehr wünschenswert.
In Bezug auf schnellere Geometrie/Rasterizer/ROPs-Raten, da hätte man bei ~23% eine gewisse Tendenz erwarten können, es scheint bei den getesteten Spielen aber keinen Vorteil zu erbringen.
(Ein etwas offensichtlicher Test wäre z.B. The Witcher 3 mit HairWorks, da sollte sich so etwas widerspiegeln).
Sagen wir mal das verhält sich bei der PS5 vs. XSX genauso, dann könnte die Xbox Series X wohl mehrheitlich den theoretischen Rechenleistungsvorteil von >18.2% gewinnen und andere Faktoren könnte man praktisch ausklammern.
Dann wäre die Frage, wie sich zukünftige Spiele entwickeln werden?
Laut Mark Cerny soll 2.23 "fast immer" den Standardtakt darstellen, nun gehe ich völlig mit jedem, der das erst einmal anzweifelt und lieber auf Praxisresultate warten möchte.
Werden es am Ende häufig "nur" ~2.1 GHz (+15% mehr Takt, aber schon ~26% mehr Rechenleistung bei der Series X) sein?
Bezüglich RT gibt es nicht viel zu spekulieren, falls praktisch von Relevanz wäre.
Die 379.6 Intersectiontests pro Sekunde sind eine offizielle Angabe von Microsoft, was schön mit dem Patent von AMD harmoniert, mit Intersection-Engines pro TMU.
Mark Cerny hat auch offiziell gesagt, dass in jeder Compute Unit eine Intersection-Engine vorliegt und man die gleiche Strategie wie AMD selber verfolgt.
Höchstunwahrscheinlich das man hier auf eine große Differenz/Überraschung stoßen wird.
Alle Parteien werden sehr wahrscheinlich auf den gleichen Lösungsansatz setzen und dann sind es eben vier Intersectionstests pro Takt pro Compute Unit.
* Da es natürlich eine interessante Frage ist, habe ich nach OC-Ergebnissen geschaut.
Techspot hat ihre 5700XT Samples wassergekühlt auf 2.1Ghz bringen können, mehr war einfach nicht drin (wie gesagt, ich frage mich wie der YouTuber auf 2.15Ghz bei einer 5700 gekommen ist).
Overclocking the Radeon RX 5700 XT: 2.1 GHz on Liquid Cooling - TechSpot
Memory-OC-Angaben wurden keine gemacht, die Ergebnisse machen aber eindeutig, dass sicherlich keins statt gefunden hat, denn die fallen sehr dürftig aus.
18% mehr GPU-Takt (2.1Ghz vs. 1.78 Ghz) bei F1 2019 haben die durchschnittlichen FPS, um gerade mal die Hälfte, nämlich 9% wachsen lassen (1% low um 6%).
BFV "profitierte", um 5% bzw. 7% bei 1% lows, Rainbow Six Sige erbrachte immerhin 10% bei Avg. FPS, Metro Exodus 7% , Resident Evil 2 ebenso 7%, Shadow of the Tomb Raider 6%, Fortnite 6%, The Division 2 7%, Dirt Rally 2.0 5%, Forza Horizon 4 hat gerade so 3% aus dem Auspuff geschoben, Far Cry New Dawn 7%, World War Z 6% und letztendlich "erklimmte" man unter AssCreed Odyssey 4% Performancezuwachs.
Bzw. bei F1 2019 haben 10.75TF (+18%) auf der Waage nur 9% echte Leistung, gegenüber theoretisch 9.11TF erbracht.
Das die 5700@ angeblich 2.15 Ghz dann ähnliche Ergebnisse wie eine Stock-5700XT liefert, wäre dann nicht sehr überraschend.
RDNA2 muss gehörig an der Bandbreiteneffizienz arbeiten, ansonsten sind PS5 und XSX arg speicherlimitiert.
Die XSX hat gegenüber der PS5 im Best-Case 25% mehr Bandbreite (560GB/s vs. 448GB/s), aber die Memory-Konfiguration ist nicht gleichmäßig aufgeteilt, es sind in der Praxis vielleicht bisschen weniger als 25% mehr Bandbreite.
Aber isoliert betrachtet, könnte das ein guter Leistungsvorteil für die XSX sein.
Es gibt aber noch weitere Faktoren die wichtig sind, wie viel fressen andere Konsumenten?
Beide haben scheinbar einen 3D-Audio-Chip, der sich bei der PS5 iirc 10-20GB/s genehmenigen könnte, auf der I/O-Seite hat die PS5 aber zusätzlichen SRAM-Buffer und eine Coherency-Engine, dass steigert die Bandbreiteneffizienz.
Die XSX hat offiziell noch nichts Vergleichbares, aber der 3D-Audio-Chip war am Anfang oder immer noch(?) kein Bestandteil der öffentlichen Specpräsentation, vielleicht hält man noch weitere Überraschungen bereit bzw. zu BCPack wurde auch noch nicht alles dargelegt.