• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Windows 11: Kommt Direct Storage zum Launch und entlastet die CPU?

Pu244

Lötkolbengott/-göttin
Das war mal so, stimmt schon. Wobei "ordentlich" Definitionssache ist, von Ultra auf High spart in der Regel ziemlich viel VRAM ein und optisch gibt es kaum Unterschiede.

Kommt darauf an. Bei meiner GTX 670 war das schon böse, da ging bei AC:S nur noch niedrig und das schon im Jahr 2015, während sich die HD 7900er Besitzer immer noch über hoch freuen konnten. Besonders Texturen kann man sehr gut sehen und die gehen ordentlich auf den VRAM.

Mit den neuen Generationen und technischen Entwicklungen wird das Thema aber vermutlich entschärft -> DLSS / FSR, besseres Streaming durch DirectStorage, weniger VRAM Verbrauch durch Sampler Feedback Streaming. Bis auf DLSS noch Zukunftsmusik, ist mir bewusst. :D

Im Prinzip ist es so wie mit dem Himmelreich, das uns für gute Taten, Verzicht, Zurückstecken und und das Akzeptieren von Ungerechtigkeit belohnen soll: wenn nichts kommt, dann ist es echt blöd.

Ich habe schon soviele Dinge gesehen, die meist relativ wenig gebracht haben. Wenn sie was gebracht haben, etwa die dynamische VRAM Verwaltung, dann werden sie eingepreist und man steht wieder da, wo man vorher war. Bisher hat man es am PC auch nicht geschafft den normalen RAM richtig effektiv anzuzapfen, ich zweifle daran, dass das ausgerechnet mit erheblich langsameren SSD Speicher funktionieren soll. Die Gerenderte Auflösung mit DLSS zu reduzieren bringt zwar etwas, aber wohl auch nicht soviel. Von meiner GTX 980Ti habe ich noch im Kopf, dass FC: New Dawn mit den Ultra Texturen und WQHD etwas unter 6GB benötigt hat, in 720p dann "nur" noch 5GB. Zweifellos weniger, aber wenn man ein Problem hat, dann wird es wohl so nicht gelöst werden.

Leute die ihre Karten lange behalten wollen, nach Möglichkeit 5 Jahre oder mehr, werden sich bei der RTX 3060Ti, 3070(Ti) und eventuell auch mit der RTX 3080Ti mit ziemlicher Sicherheit in den Arsch beißen. Mit Stalker 2 ist schon ein Spiel unterwegs, das alle Karten unter 6GB zum alten Eisen erklärt, fraglich in wie fern man mit 8GB dann noch auf hoch oder sehr hoch, geschweige denn Ultra kommt.
 

raPid-81

Software-Overclocker(in)
Im Prinzip ist es so wie mit dem Himmelreich, das uns für gute Taten, Verzicht, Zurückstecken und und das Akzeptieren von Ungerechtigkeit belohnen soll: wenn nichts kommt, dann ist es echt blöd.

Ich habe schon soviele Dinge gesehen, die meist relativ wenig gebracht haben. Wenn sie was gebracht haben, etwa die dynamische VRAM Verwaltung, dann werden sie eingepreist und man steht wieder da, wo man vorher war. Bisher hat man es am PC auch nicht geschafft den normalen RAM richtig effektiv anzuzapfen, ich zweifle daran, dass das ausgerechnet mit erheblich langsameren SSD Speicher funktionieren soll. Die Gerenderte Auflösung mit DLSS zu reduzieren bringt zwar etwas, aber wohl auch nicht soviel. Von meiner GTX 980Ti habe ich noch im Kopf, dass FC: New Dawn mit den Ultra Texturen und WQHD etwas unter 6GB benötigt hat, in 720p dann "nur" noch 5GB. Zweifellos weniger, aber wenn man ein Problem hat, dann wird es wohl so nicht gelöst werden.

Leute die ihre Karten lange behalten wollen, nach Möglichkeit 5 Jahre oder mehr, werden sich bei der RTX 3060Ti, 3070(Ti) und eventuell auch mit der RTX 3080Ti mit ziemlicher Sicherheit in den Arsch beißen. Mit Stalker 2 ist schon ein Spiel unterwegs, das alle Karten unter 6GB zum alten Eisen erklärt, fraglich in wie fern man mit 8GB dann noch auf hoch oder sehr hoch, geschweige denn Ultra kommt.
WQHD DLSS Quality reduziert bereits den VRAM Bedarf um ca. 700 MB, habe dazu auch Screenshots. Die anderen Modi reduzieren natürlich mehr. Mit DLSS Quality hat man also sozusagen aus 8 GB fast 9 GB gemacht und kaum Qualitätsverlust (DLSS 2.2 sieht richtig gut aus, kaum noch Ghosting).

Nach 5 Jahren oder mehr musste man bisher sowieso Details runterfahren wenn man 60 FPS halten wollte in State-of-the-Art Titeln...
 

PCGH_Torsten

Redaktion
Teammitglied
Ist Direct Storage eine rein Software-seitige Geschichte oder ist dafür auch eine bestimmte Hardware nötig?

Damit es keine Leistung kostet, sollten entsprechende HW-Decoder auf der GPU vorhanden sein. Es sollte zwar möglich sein, alles auch als Shader-Code umzusetzen, aber die meisten Spiele-PCs sind durch ihre Shader- und nicht ihre CPU-Leistung limitiert. Würde man Aufgaben von der CPU auf die Shader verlagern, würde die Performance also sogar sinken.


Sorry aber ich verstehe nicht einmal warum du davon ausgehst das moderne Grafikkarten "genug" Speicher haben?
Wäre das tatsächlich der Fall, könnte man sich auch die ganzen Streamingsysteme in modernen Spielen sparen und alles direkt in den Framebuffer laden. Macht nur keiner. Warum wohl? :hmm:

Der GPU-Speicher wird in der Tat manchmal knapp, aber da hilft Direct Storage auch nicht weiter. VRAM enthält unmittelbar, nahezu ohne Latenz, und mit 400-1.000 GB/s zur Verfügung stehende Daten. Direct Storage hat eine relativ große Latenz für den Laufwerkszugriff als solchen und dann noch einmal für das Entpacken und erreicht selbst mit um Faktor 4-5 komprimierten Daten maximal 30-40 GB/s. Bei geringster Komprimierung sogar nur 7 GB/s – was die schnellsten SSDs halt liefern können. Bestenfalls kann man damit normalen System-RAM ersetzen, aber selbst der ist für die GPU in einem PCI-E-4.0-System mit 32 GB/s unkomprimiert zugänglich und natürlich können Texturen, etc. dort in komprimiertem Zustand abgelegt werden. Direct Storage kann also nur beim ersten Ladevorgang etwas bringen oder wenn der Hauptspeicher insgesamt zu klein ist, um alle innerhalb von ~30 Sekunden benötigten Daten zu fassen. (Längerfristige Wechsel der Spielwelt kann man entspannt im Hintergrund streamen.) Dazu sollten in allen heutigen Spielen 32 GiB reichen, in vielen 16 GiB. 8-GiB-Systeme könnten dagegen messbare Fortschritte verzeichnen, nur wird da niemand eine entsprechend starke/moderne Grafikkarte verbauen. (Einzige Ausnahme: Konsolen die haben zwar 16 GB, aber das sind 16 GB VRAM. Und jedes bisschen Speicher für weitere Aufgaben als Rendering muss da abgeknabbert werden.)
 

Pu244

Lötkolbengott/-göttin
WQHD DLSS Quality reduziert bereits den VRAM Bedarf um ca. 700 MB, habe dazu auch Screenshots. Die anderen Modi reduzieren natürlich mehr. Mit DLSS Quality hat man also sozusagen aus 8 GB fast 9 GB gemacht und kaum Qualitätsverlust (DLSS 2.2 sieht richtig gut aus, kaum noch Ghosting).

8 statt 9 GB ist eben nur ein kleiner Unterschied. Wenn es kommt, dann meist relativ dicke. Da wären eben 16GB angesagt, um ordentlich in die Zukunft zu düsen. Da fehlt dann eben bei Nvidia einiges, bei AMD steht die geringe Raytracingleistung im Weg und wie ihre DLSS Alternative ankommen wird, steht noch in den Sternen. Morgen wissen wir dann wohl mehr und richtig deutlich wird es in 1-2 werden, da weiß man dann, wo die Reise hingeht.

Wirklich zukunftssicher ist nur die RTX 3090 und in Grenzen die RTX 3060.

Nach 5 Jahren oder mehr musste man bisher sowieso Details runterfahren wenn man 60 FPS halten wollte in State-of-the-Art Titeln...

Kommt eben immer darauf an welche Details. Bei meine GTX 670 muß ich in FC New Dawn beispielsweise fast alles abstellen, es passt schlich und ergreifend nicht in den VRAM und ich bin auf Full HD begrenzt. Von den FPS habe ich nicht das geringste Problem, ich hänge, wie schon mit meiner GTX 980Ti in WQHD@Ultra, konsequent im CPU Limit. Mit einer entsprechenden CPU würde ich vermutlich die 120FPS nach oben durchbrechen. Dafür sieht es einfach nur mies aus, da materialisieren sich Steine vor meinen Augen und auch sonst sieht es schlechter aus, als FC3. Mit 4GB RAM könnte ich auf "sehr hoch" zocken, von den 120FPS müßte ich mich dann verabschieden, aber was soll es, mir reichen um die 60FPS auch aus, mehr bekommt meine CPU auch nicht zu Stande.

Meine GTX 980Ti ist ein gutes Beispiel: die war 5 Jahre alt als sie mir abgeraucht ist und hat immer noch gut getaugt, damit wäre ich wohl noch zwei Jahre weiter gekommen. Mit 4GB VRAM sähe das etwas anders aus, umgekehrt hätten der Karte am Ende auch 8GB oder mehr gut getan.
 

gerX7a

BIOS-Overclocker(in)
Du läßt dir aber auch die Hintertür offen, dass die praktische Auswirkung nicht zu ermitteln ist. Wenn W11 den Support mitbringt, dann muss dennoch jedes Spiel angepaßt werden? Wo sitzt überhaupt der aktuelle Flaschenhals?
a) Ich lasse mir keinerlei Hintertüren offen, dass würden bestenfalls die Hersteller, die diese Technk propagieren aber es ist unwahrscheinlich, dass die das nötig haben, denn diese Streamingvorteile wurden in exakt der gleichen Weise auch für die beiden Konsolen so erklärt und weder AMD, Microsoft noch nVidia (oder etwa Intel) haben hier ein Interesse daran aufwändig den Markt "umzukrempeln" für Null Mehrwert.
b) "dass die praktische Auswirkung nicht zu ermitteln ist" ist eine seltenunsinnige Aussage, da auf einem Computer nahezu alles sekundengenau zu messen ist, im Extremfall gar bis hin zur Nanosekunde. Nicht umsonst gibt es Profiling-Tools, mit denen man die Hardware im Detail beobachtet, misst und optimiert.
c) Und abschließend auch noch ein kolossaler Logikfehler. Was hat es mit der aktuellen Diskussion zu tun, ob DirectStorage mit Windows 11 eingeführt wird (wenn das, was in den nächsten Tagen angekündigt wird, überhaupt schon ein derartiges bevorstehendes Release sein soll)?
DirectStorage ist ein weiteres LowLevel-API, das genau so optional ist wie die Verwendung von DX12 oder Vulkan, da muss überhaupt keine Software angepasst werden, denn Altsoftware arbeitet schlicht über das bisherige I/O-System weiter.
Und aktuell ist auch vollkomen unklar ob DirectStorage überhaupt eine Art "integraler Bestandteil" von Windows 11 sein wird. Dieses könnte das zwar standardmäßig mitbringen, das API könnte für Windows 10 jedoch genau so als simples Feature-Update geliefert werden und im Sinne einer zumindest etwas schnelleren Adaption kann man auch eher annehmen, dass Microsoft derartiges eher nicht als Vertriebsargument für Windows 11 der Vorversion vorenthalten wird.
 

Lowmotion

Freizeitschrauber(in)
Praktisch ist da nichts zu ermitteln, weil der ganze Artikel unter dem "könnte" Stern steht und es DirectStorage noch nicht gibt.

Und es werden laufend Standards erfunden und begraben. zB. SLI + CF + U.2 + ...
 

Nebulus07

Software-Overclocker(in)
Alte Pipeline (hoher CPU Load durch einzelne Texture-Call-Verarbeitung, Dekomprimierung der Daten im RAM, verschieben der dekomprimierten Daten in den VRAM):
Anhang anzeigen 1367230

Neue Pipeline (Daten werden direkt und komprimiert in den RAM und danach VRAM verschoben, damit spart man 50% Bandbreite zwischen RAM-VRAM, Batch-Bearbeitung von Texture-Calls möglich):
Anhang anzeigen 1367231
Hier sieht man sehr schön, das DS nichts bringen wird! Denn es liegen auf der NVME bereits komprimierte Texturen, die die GPU schon heute benutzt und gar nicht erst decomprimiert werden müssen von der CPU.

Aha-Modus an: GPUs haben Hardwaredecomprimierer für Texturen. Und das schon seit 20 Jahren.

Mit anderen Worten jede GPU hat schon heute komprimierte Texturen in ihrem RAM! Und nutzt diese on the Fly.

Das einzige was DS bringt ist der IO Overhead. Die CPU sendet nur noch einen DMA Befehl und die Texturen werden gestreamt. Aber da die CPU ohnehin nichts macht, ist das auch egal.

Es ist wie mit allem im PC Bereich. Seit 20 Jahren kommt einfach nichts mehr neues. Und das alte wird immer wieder als neu verkauft. Da kann man drauf reinfallen oder staunend vor den bunten Werbeblättchen stehen.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Praktisch ist da nichts zu ermitteln, weil der ganze Artikel unter dem "könnte" Stern steht und es DirectStorage noch nicht gibt.

Und es werden laufend Standards erfunden und begraben. zB. SLI + CF + U.2 + ...
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.

Hier sieht man sehr schön, das DS nichts bringen wird! Denn es liegen auf der NVME bereits komprimierte Texturen, die die GPU schon heute benutzt und gar nicht erst decomprimiert werden müssen von der CPU.

Aha-Modus an: GPUs haben Hardwaredecomprimierer für Texturen. Und das schon seit 20 Jahren.

Mit anderen Worten jede GPU hat schon heute komprimierte Texturen in ihrem RAM! Und nutzt diese on the Fly.

Das einzige was DS bringt ist der IO Overhead. Die CPU sendet nur noch einen DMA Befehl und die Texturen werden gestreamt. Aber da die CPU ohnehin nichts macht, ist das auch egal.

Es ist wie mit allem im PC Bereich. Seit 20 Jahren kommt einfach nichts mehr neues. Und das alte wird immer wieder als neu verkauft. Da kann man drauf reinfallen oder staunend vor den bunten Werbeblättchen stehen.
Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:

Your textures are compressed with dxtc/s3tc/bcn. These are a family of algorithms for different texture types. They are directly usable by graphics cards and are used to save on VRAM, but as a trade-off can't compress as well. So games typically recompress these textures to save even more storage space on your disk, often using zip/zlib/deflate. Deflate uncompresses with only a few hundred MB/s per core, which is slow compared to the 2.4GB/s of the SexBox SSD or the even faster PS5. This is what the x CPUs cores is all about. This decompression is normally done by the CPU on PCs, which decompresses into a buffer in memory which then gets copied into VRAM. Additionally deflate is a very old algorithm and newer stuff like lzma or zstd creates smaller files and/or is faster. PS5 has Rad's Oodle Kraken which is kinda like lzma, and XBox has zlib (=deflate). Further they use optimized texture encoders and pre-processing (RDO) of the texture data to get even more efficient compression by lzma/zlib, eg Xbox has something called BCPack and PS5 can use Oodle Texture. Also note that in the console case this hardware decompression can also be used for general data, as it's all on a single chip, while for PCs any decompression hardware will just be on the GPU.
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.


Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:
Schon den Beitrag von PCGH-Torsten gelesen? :rolleyes:
 

raPid-81

Software-Overclocker(in)
Schon den Beitrag von PCGH-Torsten gelesen? :rolleyes:
Ja, und? Ich behaupte nirgends dass DirectStorage VRAM ersetzt, oder was meinst Du?

DirectStorage verschlankt die gesamte Loading-Pipeline und optimiert zusätzlich die NVME SSD -> RAM/VRAM Übertragung, reduziert den CPU Overhead durch Batch-Calls und ermöglicht eine Bandbreiten Erhöhung um ~ Faktor 2 durch Übertragung der Assets in komprimierter Form bis in den VRAM.

Sampler Feedback Streaming ist hier kein Thema im Thread, da sprechen wir dann von VRAM Einsparungspotenzial von bis zu 70%.


Konsolen die haben zwar 16 GB, aber das sind 16 GB VRAM.
Das stimmt so nicht, 16 GB insgesamt, davon 10 GB "schneller" und 6 GB "langsamer" RAM. Man kann also von maximal 10GB als VRAM ausgehen bei den Konsolen.
 

Nebulus07

Software-Overclocker(in)
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.


Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:

Na schön, mal selber ausprobieren, habe mal die Nvidia Texture Tools runtergeladen. Damit kann man texturen in das GPU Format konvertieren.


Es gibt verschiedene TextureFormate, die die GPU on the Fly decomprimieren kann.


Dann habe ich diese Texture als Basis genommen:
tex.jpg


Die Texture ist als JPG 888kb groß. Wie in dem obigen Artikel zu lesen, kann eine GPU keine Jpegs benutzen und braucht BC1-BC7 Formate.

Nach dem Umwandeln in die BC Formate mit dem Tool:
1624283720428.png


Habe ich diese Texturen nochmal gezipped mit dem zlib kompressor.

1624283774280.png


Was man sehr gut sieht, die GPU Texture Formate lassen sich gut zippen.
Aber auch nicht alle. BC1 wird von 699kb auf 577kb verkleinert. 17% weniger also.

Was erstaunt: Die Texture ist nach dem JPEG->BC1->ZIP kleiner als das JPEG. Das ist unverständlich. Läßt sich vl. damit erklären, das BC1 im Bitmap Informationen weg läßt.

Erkenntnis: Bitmaps lassen sich weiter komprimieren. Aber nur zu c.a. 17%.
Wenn sich durch DS die zip Texturen on the Fly nutzen lassen, wäre das ein Vorteil. Aber so wie ich DS verstanden habe, werden die Texturen im GPU Speicher immer ausgepackt in das BC Format.
Somit ergibt sich weder eine Platzersparnis im GPU-Ram, noch ein Geschwindigkeitsvorteil.

Fazit, das doppelte komprimieren von Texturen bringt etwas. Aber eine GPU kann keine doppelt komprimierten Texturen nutzen und liegen trotzdem einfach komprimiert im GPU-RAM.

Ich sehe immer noch keinen Vorteil für DS am PC!

Für Spielconsolen, wo sich GPU und CPU den selben RAM teilen, macht es durchaus Sinn! Denn hier kann die GPU nun die Texturen entpacken und im gleichen Speicher direkt nutzen. Am PC ist man immer limitiert mit dem GPU-Speicher.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Somit ergibt sich weder eine Platzersparnis im GPU-Ram, noch ein Geschwindigkeitsvorteil.

Fazit, das doppelte komprimieren von Texturen bringt etwas. Aber eine GPU kann keine doppelt komprimierten Texturen nutzen und liegen trotzdem einfach komprimiert im GPU-RAM.

Ich sehe immer noch keinen Vorteil für DS am PC!
Der Geschwindigkeitsvorteil ist doch klar:
1. Fall - alte Pipeline - Textur wird doppelt gepackt in den RAM verschoben - dort 1 mal entpackt - dann "nur" noch einmal gepackt in den VRAM verschoben
2. Fall - neue Pipeline - Textur wird doppelt gepackt in den RAM / VRAM verschoben und dort entpackt.

Es wird also Bandbreite gespart zwischen RAM - VRAM (DS) bzw. SSD - VRAM (RTX IO). Und nicht zu knapp, in Deinem Screenshot sind ja auch 50% Ratio zu sehen. Danke für den anschaulichen Test!

Dazu kommt dann dass sowohl AMD als auch Nvidia bereits in der letzten Gen Dekompressions-Hardware verbaut hat. Wie oben zitiert scheint die CPU bei deflate/zlib/zip auf Single-Core und langsame Bearbeitung beschränkt zu sein, das wäre mit einer dedizierten Hardware auf den GPU's dann ja viel schneller (und somit von Vorteil beim ad-hoc streamen).

Siehe auch hier:

1624286601637.png


1624286594838.png
 

Nebulus07

Software-Overclocker(in)
Der Geschwindigkeitsvorteil ist doch klar:
1. Fall - alte Pipeline - Textur wird doppelt gepackt in den RAM verschoben - dort 1 mal entpackt - dann "nur" noch einmal gepackt in den VRAM verschoben
2. Fall - neue Pipeline - Textur wird doppelt gepackt in den RAM / VRAM verschoben und dort entpackt.

Es wird also Bandbreite gespart zwischen RAM - VRAM (DS) bzw. SSD - VRAM (RTX IO). Und nicht zu knapp, in Deinem Screenshot sind ja auch 50% Ratio zu sehen. Danke für den anschaulichen Test!

Dazu kommt dann dass sowohl AMD als auch Nvidia bereits in der letzten Gen Dekompressions-Hardware verbaut hat. Wie oben zitiert scheint die CPU bei deflate/zlib/zip auf Single-Core und langsame Bearbeitung beschränkt zu sein, das wäre mit einer dedizierten Hardware auf den GPU's dann ja viel schneller (und somit von Vorteil beim ad-hoc streamen).

Siehe auch hier:

Anhang anzeigen 1367275

Anhang anzeigen 1367274
Fall1:
Die Texturen werden vor dem Spielbeginn in die GPU geladen.

Fall2:
Die Texturen werden während dem Spielens immer wieder nachgeladen.

Fall1, DS bringt nichts.
Fall2, kommt selten vor, da man Texture nachlader vermeiden möchte. Diese Objekte die erst nach 2 Sekunden eine Texture bekommen, kennt man ja von der PS4. (extrem langsame HD)

Fall1 wird die große Mehrheit der Spiele am PC bleiben. Da hier genug RAM vorhanden ist.

Ich lasse mich aber gerne überraschen.
 

Threshold

Großmeister(in) des Flüssigheliums
Kommt windows 11 jetzt als update oder muss ich das ganz neu kaufen und komplett neu installieren?
Oder kann ich drauf pfeifen und das einfach auslassen?
 

raPid-81

Software-Overclocker(in)
Fall1:
Die Texturen werden vor dem Spielbeginn in die GPU geladen.

Fall2:
Die Texturen werden während dem Spielens immer wieder nachgeladen.

Fall1, DS bringt nichts.
Fall2, kommt selten vor, da man Texture nachlader vermeiden möchte. Diese Objekte die erst nach 2 Sekunden eine Texture bekommen, kennt man ja von der PS4. (extrem langsame HD)

Fall1 wird die große Mehrheit der Spiele am PC bleiben. Da hier genug RAM vorhanden ist.

Ich lasse mich aber gerne überraschen.
Falsch.

Fall1: Schnellere Ladezeiten ins Spiel oder beim "Schnellreisen". Immer dann wenn der gesamte Textur-Speicher ausgetauscht wird.

Fall2: Jedes Open-World-Game streamt Textur-Daten nach, das wird mit DS auch beschleunigt.

Für Fall2 kommt dann noch Sampler-Feedback-Streaming ins Spiel womit die benötigten Textur-Daten reduziert werden. Davon allerdings viele kleine anstatt weniger großer Dateien, somit ist eine Batch-Bearbeitung und CPU-Overhead Reduzierung wieder im Vorteil.
 

Nebulus07

Software-Overclocker(in)
Falsch.

Fall1: Schnellere Ladezeiten ins Spiel oder beim "Schnellreisen". Immer dann wenn der gesamte Textur-Speicher ausgetauscht wird.

Fall2: Jedes Open-World-Game streamt Textur-Daten nach, das wird mit DS auch beschleunigt.

Für Fall2 kommt dann noch Sampler-Feedback-Streaming ins Spiel womit die benötigten Textur-Daten reduziert werden. Davon allerdings viele kleine anstatt weniger großer Dateien, somit ist eine Batch-Bearbeitung und CPU-Overhead Reduzierung wieder im Vorteil.

Na schön, DS bringt etwas beim Laden von doppelt komprimierten Texturen und diese werden dann in der GPU einmal ausgepackt. Bisher hat dies die CPU gemacht! Und nun die Frage aller Fragen... Meine CPU ist beim spielen gerade mal zu 15% ausgelastet... Wieso sollte die nicht weiterhin die Texturen auspacken? Während die GPU immer 100% Auslastung hat. Hat es nicht gerade den Vorteil, die CPU zu nutzen, da diese eh nichts tut?
 

PCGH_Torsten

Redaktion
Teammitglied
Ja, und? Ich behaupte nirgends dass DirectStorage VRAM ersetzt, oder was meinst Du?

Ich vermute, er will auf meinen Hinweis hinaus, dass sich ein Komprimierung um Faktor 2 von der SSD bis zur GPU nur lohnt, wenn die Transferrate der SSD entweder über der Hälfte der zwischen GPU und System-RAM beträgt oder wenn der System-RAM die benötigten Daten nicht in entpackter Form fassen kann. Ersteres ist bei PCs nie, letzteres so gut wie nie der Fall. Also lohnt Direct Storage auch nicht während des Renderns und die kritisierten "few hundred" MB/s pro Kern Entpackleistung (die ich für die jeweiligen Formate und aktuelle CPUs weder bestätigen noch korrigieren kann) bedeuten für ein aktuelles Oberklassesystem auch immerhin um die 2-4 GB/s, also weniger als 10 Sekunden einmaliger Ladevorgang zu Beginn des Spiels.
 

raPid-81

Software-Overclocker(in)
Ich vermute, er will auf meinen Hinweis hinaus, dass sich ein Komprimierung um Faktor 2 von der SSD bis zur GPU nur lohnt, wenn die Transferrate der SSD entweder über der Hälfte der zwischen GPU und System-RAM beträgt oder wenn der System-RAM die benötigten Daten nicht in entpackter Form fassen kann. Ersteres ist bei PCs nie, letzteres so gut wie nie der Fall. Also lohnt Direct Storage auch nicht während des Renderns und die kritisierten "few hundred" MB/s pro Kern Entpackleistung (die ich für die jeweiligen Formate und aktuelle CPUs weder bestätigen noch korrigieren kann) bedeuten für ein aktuelles Oberklassesystem auch immerhin um die 2-4 GB/s, also weniger als 10 Sekunden einmaliger Ladevorgang zu Beginn des Spiels.
Also in meine 16 GB System-RAM passen bestimmt nicht alle Texturen eines Open-World-Titels. Was sagst Du denn hierzu?

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Das ist laut MS auch nur in Kombination DS + SFS möglich, mit der alten Pipeline wäre das Nachladen wohl zu langsam.
 

gerX7a

BIOS-Overclocker(in)
...
AMD braucht kein RTX I/O, können die nextGen-Konsolen und RDNA2 bereits. Es beschreibt lediglich die
Fähigkeit komprimierte Texturen in der GPU auszupacken.
= mehr oder weniger NV-Marketing Bla ...
Die Aussage zu RDNA2 ist falsch. RDNA2 verfügt über keinerlei derartige Funktionalität. Die Konsolen-SoCs verfügen über zusätzliche HW-Einheiten, die bspw. die Dekompression übernehmen. So hat die PS5 einen Custom-Flash-Controller und im I/O-Complex des SoCs befindet sich eine dedizierte Einheit für die HW-Dekompression, die auf ZLib und Kraken ausgelegt ist. Und auch bei der Xbox findet man als SoC-spezifische Erweiterung Microsoft zufolge HW-Crypto- und Dekompression-Einheiten, wobei letztere über 6 GiB/s ausgeben können sollen, d. h. das ist keine Funktionalität von RDNA2 selbst und entsprechend können die aktuellen GPUs auch nicht mit derartigem aufwarten.

Da nVidia die Implementation noch nicht im Detail erklärt hat, bliebe dir als einizger Rettungsanker für dein offensichtlich anvisiertes Ziel, dass nVidia hier bzgl. der Dekompression nichts direkt in Hardware unterstützt sondern das hier ein Shaderprogramm die Dekompression übernimmt. Übermäßig wahrscheinlich wird das vermutlich aber nicht sein, da die zu unterstütztende Kompression sich i. d. R. auf nur wenige Algorithmen beschränken wird und man mit einer HW-Einheit die gesamte GPU beträchtlich entlasten könnte, entsprechend würde ich vermute, dass sich hier eine HW-Einheite im/nahe beim Block der Media-Engine als Fixed-Function-Unit finden wird. nVidia war hier einfach schneller, AMD hatte das nicht im Scope für RDNA2 und für die Konsolen wurde es in individueller Art für Sony und Microsoft direkt im SoC implementiert.

Wie schon erklärt bleibt zu vermuten, dass AMD mit RDNA3 entsprechende Funktionalität nachreichen wird und abseits dessen steht so oder so vermutlich grundsätzlich die Möglichkeit im Raum ein paar Shader/ALUs für die Dekompression heranzuziehen, auch wenn das zweifellos der ineffizientere Weg wäre, aber damit könnte man selbst nachträglich noch RDNA2 halbwegs fit für DirectStorage machen.

@raPid-81: Danke für das Aufstöbern dieses informativen Videos.
 
Zuletzt bearbeitet:

DragonX1979

PC-Selbstbauer(in)
Damit es keine Leistung kostet, sollten entsprechende HW-Decoder auf der GPU vorhanden sein. Es sollte zwar möglich sein, alles auch als Shader-Code umzusetzen, aber die meisten Spiele-PCs sind durch ihre Shader- und nicht ihre CPU-Leistung limitiert. Würde man Aufgaben von der CPU auf die Shader verlagern, würde die Performance also sogar sinken.




Der GPU-Speicher wird in der Tat manchmal knapp, aber da hilft Direct Storage auch nicht weiter. VRAM enthält unmittelbar, nahezu ohne Latenz, und mit 400-1.000 GB/s zur Verfügung stehende Daten. Direct Storage hat eine relativ große Latenz für den Laufwerkszugriff als solchen und dann noch einmal für das Entpacken und erreicht selbst mit um Faktor 4-5 komprimierten Daten maximal 30-40 GB/s. Bei geringster Komprimierung sogar nur 7 GB/s – was die schnellsten SSDs halt liefern können. Bestenfalls kann man damit normalen System-RAM ersetzen, aber selbst der ist für die GPU in einem PCI-E-4.0-System mit 32 GB/s unkomprimiert zugänglich und natürlich können Texturen, etc. dort in komprimiertem Zustand abgelegt werden. Direct Storage kann also nur beim ersten Ladevorgang etwas bringen oder wenn der Hauptspeicher insgesamt zu klein ist, um alle innerhalb von ~30 Sekunden benötigten Daten zu fassen. (Längerfristige Wechsel der Spielwelt kann man entspannt im Hintergrund streamen.) Dazu sollten in allen heutigen Spielen 32 GiB reichen, in vielen 16 GiB. 8-GiB-Systeme könnten dagegen messbare Fortschritte verzeichnen, nur wird da niemand eine entsprechend starke/moderne Grafikkarte verbauen. (Einzige Ausnahme: Konsolen die haben zwar 16 GB, aber das sind 16 GB VRAM. Und jedes bisschen Speicher für weitere Aufgaben als Rendering muss da abgeknabbert werden.)
Nun um ganz ehrlich zu sein, kann ich da in der Tiefe nicht mehr mitreden. Dafür habe ich mich noch nicht genug mit der Theorie von Direct Storage oder RTX-IO beschäftigt. :-o

Sicherlich, dass VRAM extrem schnell ist im Verhältnis zu anderen Speichermedien sei es nun DDR4 Ram oder
NVMe SSD's ist mir bewusst, zumindest wenn es um transfers in die GPU Caches geht. Und ich bin auch nicht Naiv genug um zu glauben, dass wir hier eine neue "Heilsbringer Technik" am Start haben.

Meinem begrenztem Verständnis zu folge, werden aber ins Besondere in den Geschwindigkeitsregionen in die sich schnelle SSD's heute aufmachen auch Latenzen und "unnötige" Umwege bei Datentransfers immer Kritischer und nehmen mehr an Bedeutung zu als z.B. rohe Transferleistung.

Jeder der z.B. schon mal massenhaft Daten übers Netzwerk verschoben hat, wird sicher wissen, dass die Art der Daten die verschoben werden (viele kleine Dateien vs. wenige Große) hier wesentlich mehr Einfluss auf die Transferrate haben kann als die Theoretische Maximalleistung des Netzwerkes an sich. Neben diversen anderen Faktoren wie der CPU Leistung und der Leistung der Speichermedien, sind der Overhead des Netzwerkprotokolls, und das Betriebssystem selbst oft ein limitierender Faktor.

Lange Rede, wenig Sinn - je weniger variable Faktoren Einfluss auf einen Datentransfer haben um Latenzen einzufügen desto besser... Und wenn z.B. die CPU auch noch Rechenleistung einspart und unnötige Transfers von und in den Arbeitsspeicher vermieden werden, lässt sich der Einfluss einer Technik wie Direct Storage nur schwer Beziffern. Insbesondere bei kontinuierlichen Datentransfers die wir in diesem Zusammenhang sicherlich in Zukunft öfter sehen werden, wenn es um aufwendige Computerspielwelten geht.

Ich bin zumindest gespannt wie sich Direct Storage im Alltag schlägt... =)


Praktisch ist da nichts zu ermitteln, weil der ganze Artikel unter dem "könnte" Stern steht und es DirectStorage noch nicht gibt.

Und es werden laufend Standards erfunden und begraben. zB. SLI + CF + U.2 + ...
Ich wüsste nicht dass der "U.2" Standard begraben ist, zumal dieser ohnehin aus dem Servermarkt entliehen ist.
Dass dieser bei Consumern keine große Rolle spielt, ist für mich aber nicht mal überraschend.

M.2 ist hier schlicht Vorteilhafter. Sofern man nicht auf besonders Langlebige Enterprise SSD's setzt oder sehr viele im System benötigt.
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Wie oft Daten aus dem VRAM rein- und ausgeladen werden, sieht man ja recht schön in @raPid-81's Video ab etwa der 8. Minute. Und hierbei ist zu beachten, dass es sich nur um eine kleine, geschlossene Demo-Szene handelt. Eine große Open-World-Szene mit weitaus mehr Objekten und noch komplexeren Texturen stellt da gleich ganz andere Anforderungen. *)
Auf dem PC kann man das sicherlich mit einem großen RAM-Cache zu erschlagen versuchen, dennoch sind die Entwickler auch hier gezwungen ihr Setup grundsätzlich auf die kleinsten Systeme auszulegen und das hat im worst case gar derzeit maximal 8 GiB RAM. Am Ende sind die Speicherressourcen so oder so endlich egal wie weit man es hochskaliert und mit etwas wie DirectStorage (in Kombination mit Sampler Feedback Streaming) öffnet man halt den Flaschenhals zum Massenspeicher und kommt schneller als die Assets ran.

*) Wenn mal irgendwann ein GTA6 oder RDR3 raukommt, erzählen die Entwickler mal vielleicht was aus dem Nähkästchen und dann wird man vielleicht durchaus so etwas in der Art zu hören bekommen wie, dass ein derartiger Detail-/Qualitätslevel ohne derartige Techniken nicht möglich gewesen wäre.
Andererseits vielleicht zwei schlechte Beispieltitel; bis die rauskommen, gehören diese Techniken vielleicht schon zum Alltag. ;-)

@RX480: Jo, "vermuten", denn im Gegensatz zu dir stelle ich keine vermeintlichen Tatsachenaussagen in den Raum nur um eine persönliche Agenda durchzusetzen.
AMD hat nirgends eine derartige Funktionalität in Verbindung mit RDNA2 in den Raum gestellt, die Konsolen-SoCs haben diese explizit separat und herstellerindividuell implementiert und mir scheint eher, dass du nicht zu Differenzieren weist zwischen den Konsolen-SoCs und dem was AMD als RDNA2 auf den PC-GPUs herausgebracht hat, also ja, offensichtlich habe ich hier ein "+1" verdient, nur das wäre eigentlich vollkommen unnötig gewesen, wenn du nicht vorher so einen Unsinn gepostet hättest.

Ergänzend kommt auch noch hinzu, dass es vollkommen unsinnig von AMDs Marketing wäre, mit einem entsprechenden Feature hinterm Berg zurückzuhalten, wenn es denn in einer gleichwertigen Art existieren würde. Da nVidia derzeit auch nicht mehr als teasern kann, weil das API noch nicht offiziell freigegeben ist, bräuchte man sich da bei AMD auch keine Gedanken zu machen und könnte das in gleicher Weise für die Vermarktung nutzen. Dies jedoch explizit nicht zu tun, ist dagegen weitaus schwerer zu begründen, denn egal wie man es nimmt, zahlt das bei Ampere zumindest in kleinem Rahmen unter der Rubrik "Zukunftssicherheit" ein (wenn man die so nennen will), etwas mit dem sich AMD-Fans ja auskennen sollten, wenn man sich den langen, beschwerlichen Weg von FSR ansieht, d. h. das ist zweifellos kein Punkt den man im Marketing für unbedeutend hält und daher leichtfertig unter den Tisch kehren würde.
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Also in meine 16 GB System-RAM passen bestimmt nicht alle Texturen eines Open-World-Titels. Was sagst Du denn hierzu?

"Kauf mehr RAM". :-D
Im Ernst: Wenn in einem System eine Grafikkarte zu einem 15-25 mal höheren Preis werkelt, als in Arbeitsspeicher investiert wurde (je nach Kaufzeitpunkt), dann kann es natürlich zu Flaschenfälsen kommen, die nichts mit der Norm zu tun haben. Lange Zeit war eher so ein Verhältniss von 1:2 bis maximal 1:4 üblich. (Also 250 Euro RAM mit 1.000 Euro GPU als Extremfall, aber eher mal 300 + 600 Euro.)
Aber selbst in deinsem System muss das nicht auftreten. In den System-RAM müssen nicht alle Texturen eines Spiels passen. Sondern nur die von Objekten, die der Spieler in absehbarer Zeit erreichen kann. Dafür reichen 16 GiB meistens noch aus. Wenn über 5 Minuten Spielzeit von 12 GiB geladenden Texturen 6 GiB wegen wechselnder Landschaften ausgetauscht werden mussten, was extrem viel wäre, dann entspricht das gerade einmal 20 MB/s Streaming-Leistung. In vielen Spielen hättest du nicht einmal bei Schnellreisen ein Problem, weil die Schnellreisepunkte meist in der "Landschaft" liegen, die einen recht überschaubaren Satz Texturen nutzt.

Was sagst Du denn hierzu?
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Das ist laut MS auch nur in Kombination DS + SFS möglich, mit der alten Pipeline wäre das Nachladen wohl zu langsam.

Wenn man mir Videos von mehr als 3 Minuten Länge vorsetzt sage ich normalerweise "was davon soll ich mir angucken?". In dem Fall kommt noch hinzu: "Was hat die X-Box mit einem PC zu tun?". Ohne System-RAM, nur mit 16 GiB-VRAM, ist Streaming direkt von der SSD natürlich extrem wichtig. Alles, was zwischen dicht aufeinander folgenden Szenen nicht gestreamt bekommt, sondern vorrätig halten muss, geht bei Konsolen zu Lasten des Texturbudgets innerhalb einer Szene und damit der Optik beziehungsweise macht diese unmöglich. Aber so eine Architektur haben wir im PC nicht. Und: Verglichen mit einer X-Box haben die meisten PCs eine nur wenig schnellere SSD (verglichen mit der PS5 gar eine deutlich langsamere), aber ein wesentlich schneller GPU. Das heißt die Rechenleistung muss bei uns als nicht nur nicht direkt vom Laufwerk bedient werden, sie kann es in relativ gleichem Maße auch gar nicht. Egal ob mit oder ohne Direct Storage.


Ich wüsste nicht dass der "U.2" Standard begraben ist, zumal dieser ohnehin aus dem Servermarkt entliehen ist.
Dass dieser bei Consumern keine große Rolle spielt, ist für mich aber nicht mal überraschend.

M.2 ist hier schlicht Vorteilhafter. Sofern man nicht auf besonders Langlebige Enterprise SSD's setzt oder sehr viele im System benötigt.

Hey: Dieses Post wurde auf einem Rechner mit U.2-SSD geschrieben! Mit einer PS/2-Tastatur. :-) Und spätestens wenn ich jetzt noch einen USB-Stick ins SATA-E-Front Panel stecke, führe ich unangefochten im Schnittstellen-Bingo.
 

DragonX1979

PC-Selbstbauer(in)
@PCGH_Torsten

Nichts für ungut ;)

Abgesehen von meinem Tablet :wall: sind in meien PC's je mindestens eine U.2 Optane SSD verbaut.
10-60DWPD sind einfach zu verlockend in kombination mit der geringen Latenz...

Kleiner Nachtrag: Im Falle einer DC P4801X ist das sogar recht erschwinglich
(sofern man nicht gerade ne' Halbleiterkriese hat, wie ich gerade feststellen muss...)
 
Zuletzt bearbeitet:

RX480

Lötkolbengott/-göttin
@RX480: Jo, "vermuten", denn im Gegensatz zu dir stelle ich keine vermeintlichen Tatsachenaussagen in den Raum nur um eine persönliche Agenda durchzusetzen.
???

"Microsoft on Tuesday, in a developer presentation, confirmed that the DirectStorage API, designed to speed up the storage sub-system, is compatible even with NVMe SSDs that use the PCI-Express Gen 3 host interface. It also confirmed that all GPUs compatible with DirectX 12 support the feature." (x)

(x) Im Optimalfall alle DX12- GPU´s , aber evtl. nur DX12U-GPU´s haben dann SamplerFeedback.
Aus meiner laienhaften Sicht ist das Auspacken ja nur ein simpler ComputeJob, geht evtl. sogar runter bis Polaris.
Ob RDNA2-PC noch ein bisschen Anders damit umgeht, who knows. AMD muss ja net Alles veraten.

edit: Warum Sony nen Sonderweg einschlägt erklärt sich vllt. einfach aus der Tatsache, das der kleinere Chip net soviel Shader für AsyncCompute übrig hat wie bei MS und daher die explizite Lösung.
Sowas scheint eh ein spezielles Sony-Ding zu sein, wenn man sogar extra nochmal normale Inhalte auf der SSD komprimiert.
Ob die Kosteneinsparung für Speicherplatz Das wert ist?
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
"Kauf mehr RAM". :-D
Im Ernst: Wenn in einem System eine Grafikkarte zu einem 15-25 mal höheren Preis werkelt, als in Arbeitsspeicher investiert wurde (je nach Kaufzeitpunkt), dann kann es natürlich zu Flaschenfälsen kommen, die nichts mit der Norm zu tun haben. Lange Zeit war eher so ein Verhältniss von 1:2 bis maximal 1:4 üblich. (Also 250 Euro RAM mit 1.000 Euro GPU als Extremfall, aber eher mal 300 + 600 Euro.)
Aber selbst in deinsem System muss das nicht auftreten. In den System-RAM müssen nicht alle Texturen eines Spiels passen. Sondern nur die von Objekten, die der Spieler in absehbarer Zeit erreichen kann. Dafür reichen 16 GiB meistens noch aus. Wenn über 5 Minuten Spielzeit von 12 GiB geladenden Texturen 6 GiB wegen wechselnder Landschaften ausgetauscht werden mussten, was extrem viel wäre, dann entspricht das gerade einmal 20 MB/s Streaming-Leistung. In vielen Spielen hättest du nicht einmal bei Schnellreisen ein Problem, weil die Schnellreisepunkte meist in der "Landschaft" liegen, die einen recht überschaubaren Satz Texturen nutzt.
Warum sollte ich denn RAM aufstocken? Könnte doch gleich eine Grafikkarte mit 128GB RAM kaufen (wenn es diese im Consumer Bereich gäbe) und hätte komplette Open World Titel geladen! Aber klar, lieber alles mit Hardware erschlagen anstatt mal das Texture-Streaming ins Jahr 2021 zu bringen. :schief:

Wenn man mir Videos von mehr als 3 Minuten Länge vorsetzt sage ich normalerweise "was davon soll ich mir angucken?". In dem Fall kommt noch hinzu: "Was hat die X-Box mit einem PC zu tun?". Ohne System-RAM, nur mit 16 GiB-VRAM, ist Streaming direkt von der SSD natürlich extrem wichtig. Alles, was zwischen dicht aufeinander folgenden Szenen nicht gestreamt bekommt, sondern vorrätig halten muss, geht bei Konsolen zu Lasten des Texturbudgets innerhalb einer Szene und damit der Optik beziehungsweise macht diese unmöglich. Aber so eine Architektur haben wir im PC nicht. Und: Verglichen mit einer X-Box haben die meisten PCs eine nur wenig schnellere SSD (verglichen mit der PS5 gar eine deutlich langsamere), aber ein wesentlich schneller GPU. Das heißt die Rechenleistung muss bei uns als nicht nur nicht direkt vom Laufwerk bedient werden, sie kann es in relativ gleichem Maße auch gar nicht. Egal ob mit oder ohne Direct Storage.
Puh, ich hätte nicht gedacht dass ich das mal einem Redakteur meiner Lieblings-PC-Zeitschrift sagen würde, aber "echt jetzt"? Die 10 Minuten zeigen was Sampler Feedback Streaming, zusammen mit DirectStorage, ermöglicht. Und das beschränkt sich nicht auf die Konsolen, die beiden Techniken kommen auch für den PC. Sollte also auch für "euch" interessant sein.

Und was soll das mit 16 GB VRAM auf der Xbox Series X, ohne System-RAM? Das stimmt so einfach nicht.

Der Speicher in der Xbox Series X ist in vielerlei Hinsicht außergewöhnlich. Microsoft verbaut 16 GByte GDDR6 in einer asynchronen Bestückung an 320 Datenleitungen: 6 × 2 GByte und 4 × 1 GByte. 10 GByte erreichen eine Übertragungsrate von 560 GByte/s und 4 GByte müssen sich mit 336 GByte/s begnügen. Die im Vorfeld gemunkelten 20 GByte RAM ließen sich an 320 Bit zwar realisieren, wären aber auch teurer. Spielen stehen insgesamt 13,5 GByte RAM zur Verfügung, 10 GByte davon als Grafikspeicher, 3,5 GByte als System-RAM. Das Betriebssystem der Xbox Series X reserviert sich 2,5 GByte.
 
Oben Unten