AW: Xbox One: Crytek erklärt den Trick mit dem ESRAM bei Ryse
Die Architektur mag prinzipiell die gleiche sein aber es sind dennoch erhebliche Unterschiede vorhanden, 2 ACE´s vs 8 ACE´s, 16 ROPS vs 32 ROPS, kein hUMA vs hUMA, kein ARM Chip vs ARM Chip+seperaten Speicher, DDR3 vs GDDR5, standart Cache bei der Gpu vs zusätzliche Bits bei jedem Cache reserviert für GPGPU.
So what?:
- xy ACEs vs xy ACEs: Man entwickelt Code, der auf ACEs läuft. Fertig. Die Anzahl entscheidet am Ende darüber, wieviel Inhalte schnell genug berechnet werden kann, aber sie ändert nicht den Aufbau der Engine.
- xy ROPs vs xy ROPs: Man lässt das Bild rastern. Fertig. Die Anzahl der Einheiten entscheidet am Ende darüber, wieviel Inhalte schnell genug verarbeitet werden können, aber sie ändert nicht den Aufbau der Engine. (Genaugenommen ändern ROPs rein gar nichts, außer die maximal mögliche Anzahl an Pixeln*AA)
- hUMA wäre ein qualitativer Unterschied, aber bei einer hochoptimierten Engine wird der Speicher sowieso gezielt verwaltet. Dass die PS4 in der Lage ist, ihren Speicher als eine große Einheit zu verwalten und automatisch wechselnde Zugriffe zu organisieren, nützt ihr heute nichts (weil kein Spiel die wechselnden Zugriffe nutzt) und wird ihr am Ende auch nichts nützen (weil niemand die Automatiken nutzt). Ob es dazwischen mal etwas bringt, muss sich zeigen. Imho hat auch die PS4 noch zuwenig Rohleistung, um nenneswert was auf die GPU auszulagern. (Sollte die Entwickler das doch machen wollen, ist der SRAM der X1 allerdings ein RIESEN Vorteil. hUMA spart einem ein paar Speicherzugriffe, aber so große Probleme hat man bei einfachen Spielen eh nicht. Die Latenz des Datenaustausches ist dagegen essentiell über die Frage, welche Aufgaben man überhaupt auslagern kann und (G)DDR ist für vieles zu träge)
- ARM Chip: Die Leistung ist lächerlich bis nicht existent, im Vergleich zur APU. Da kann man vielleicht nen Chat hin auslagern, aber für Aufgaben, die die Leistung beeinflussen, ist der Chip gar nicht gedacht
- DDR3 vs GDDR5: Die Software sieht zwei Speichercontroller. Mehr nicht.
- reservierte Bits im Cache: Die X1 kann 268.435.456 Bits zusätzlich cachen und die Entwickler haben die Kontrolle darüber, wie da was reserviert wird
Der SRAM ist auch kein Zauberwerk mit dem Entwickler noch nie gearbeitet haben, Caches sind bekanntlicherweiße auch SRAM und in der Form wofür man ihn nutzt ist auch nicht unterschiedlich zum eDRAM den man seid der Ps2 in Konsolen sieht.
Herkömmliche Caches werden automatisch verwaltet und lassen sich von den Entwicklern nicht gezielt nutzen. Außerdem sind sie, im Vergleich zum Durchsatz der CPU, lächerlich klein. Die X1 hat da einen komplett anderen Ansatz. Den eDRAM der PS2 kann man ebenfalls nicht vergleichen, der diente als stinknormaler VRAM. Eher noch der eDRAM der X360 - der wurde aber afaik ebenfalls nicht direkt von den Entwicklern kontrolliert und diente als reiner Framebuffer. (also eben die Aufgabe, für die der ESRAM der X1 nicht die richtige Größe hat und wofür es bei modernen Engines auch bescheuert wäre, einen sehr schnellen lokalen Speicher einzusetzen)
Auch bietet der eSRAM nicht bedeutent mehr Bandbreite als der GDDR5 der Ps4,
Jein. Er bietet nicht mehr Bandbreite, als der GDDR5 - aber SRAM und DDR3 zusammen bieten rund 60% mehr Bandbreite. Da moderne Engeines sehr viele Zwischendaten produzieren, deren Lese-/Schreibvorgänge man komplett über den ESRAM abwickeln kann, hat die X1 bei einer gut optimierten Engine in der Praxis mehr Bandbreite zur Verfügung, als die PS4.
lediglich die Zugriffszeiten sind deutlich kürzer, inwiefern die GPU davon profitiert ist fraglich, da Moderne GPU´s eben nicht sehr Latenzanfällig sind.
Latenzmaskierung bei Renderern ist in der Tat einfach, da hast du recht. Es ist zwar davon auszugehen, dass fortgeschrittene Entwicklungen die niedrige Latenz des ESRAM auch nutzen werden - aber vermutlich nur, um die geringe Größe zu umgehen (Anstatt 1000 Aufgaben parallel zu bearbeiten, so dass man auch bei hohen Latenzen immer etwas zu tun hat, bearbeitet man 10 parallel muss trotzdem nicht auf den Speicher warten, der entsprechend kleiner ausfallen darf). Wirklich sinnvoll wären die niedrigen Latenzen für GPGPU - aber da haben imho (s.o.) beide GPUs viel zu wenig Einheiten für. Einzig bei Ladezeiten, in denen die GPU sonst gar nicht genutzt wird, könnte die X1 hier massiv profitieren.
(und vielleicht bei Indie-Titeln, die sich nicht um hübsche Grafik kümmern, sondern z.B. 1A Physik und/oder KI mit LastGen-Optik kombinieren)
Zur Cloud:
Cloud Power halte ich aber in Deutschland für einen Blödsinn, wir hinken beim Breitbandausbau noch einiges hinterher, in einigen Gebieten gibt es nur langsames Internet, geschweige von Internetverträgen mit Datenvolumen. Die Cloud mag zum Daten speichern gut sein, aber nicht zum berechnen. Vielleicht in anderen Ländern, die sehr gute Breitbandinfrastruktur haben, aber bei uns mit sicherheit nicht...
Im internationalen Vergleich liegen wir ziemlich weit vorne (Konsolenspiele will man schließlich auch in z.B. Südamerika verkaufen) und selbst mit ein paar Mbit kann man schon effektiv Berechnungen in die Cloud auslagern - z.B. World of Tanks macht es vor.
Kritischer wären da die Latenzen (World of Tanks macht es ebenfalls vor
), die grundsätzlich verhindern, dass in flotten Spielen diverse Berechnungen überhaupt ausgelagert werden können.