Windows 11: Kommt Direct Storage zum Launch und entlastet die CPU?

Das war mal so, stimmt schon. Wobei "ordentlich" Definitionssache ist, von Ultra auf High spart in der Regel ziemlich viel VRAM ein und optisch gibt es kaum Unterschiede.

Kommt darauf an. Bei meiner GTX 670 war das schon böse, da ging bei AC:S nur noch niedrig und das schon im Jahr 2015, während sich die HD 7900er Besitzer immer noch über hoch freuen konnten. Besonders Texturen kann man sehr gut sehen und die gehen ordentlich auf den VRAM.

Mit den neuen Generationen und technischen Entwicklungen wird das Thema aber vermutlich entschärft -> DLSS / FSR, besseres Streaming durch DirectStorage, weniger VRAM Verbrauch durch Sampler Feedback Streaming. Bis auf DLSS noch Zukunftsmusik, ist mir bewusst. :D

Im Prinzip ist es so wie mit dem Himmelreich, das uns für gute Taten, Verzicht, Zurückstecken und und das Akzeptieren von Ungerechtigkeit belohnen soll: wenn nichts kommt, dann ist es echt blöd.

Ich habe schon soviele Dinge gesehen, die meist relativ wenig gebracht haben. Wenn sie was gebracht haben, etwa die dynamische VRAM Verwaltung, dann werden sie eingepreist und man steht wieder da, wo man vorher war. Bisher hat man es am PC auch nicht geschafft den normalen RAM richtig effektiv anzuzapfen, ich zweifle daran, dass das ausgerechnet mit erheblich langsameren SSD Speicher funktionieren soll. Die Gerenderte Auflösung mit DLSS zu reduzieren bringt zwar etwas, aber wohl auch nicht soviel. Von meiner GTX 980Ti habe ich noch im Kopf, dass FC: New Dawn mit den Ultra Texturen und WQHD etwas unter 6GB benötigt hat, in 720p dann "nur" noch 5GB. Zweifellos weniger, aber wenn man ein Problem hat, dann wird es wohl so nicht gelöst werden.

Leute die ihre Karten lange behalten wollen, nach Möglichkeit 5 Jahre oder mehr, werden sich bei der RTX 3060Ti, 3070(Ti) und eventuell auch mit der RTX 3080Ti mit ziemlicher Sicherheit in den Arsch beißen. Mit Stalker 2 ist schon ein Spiel unterwegs, das alle Karten unter 6GB zum alten Eisen erklärt, fraglich in wie fern man mit 8GB dann noch auf hoch oder sehr hoch, geschweige denn Ultra kommt.
 
Im Prinzip ist es so wie mit dem Himmelreich, das uns für gute Taten, Verzicht, Zurückstecken und und das Akzeptieren von Ungerechtigkeit belohnen soll: wenn nichts kommt, dann ist es echt blöd.

Ich habe schon soviele Dinge gesehen, die meist relativ wenig gebracht haben. Wenn sie was gebracht haben, etwa die dynamische VRAM Verwaltung, dann werden sie eingepreist und man steht wieder da, wo man vorher war. Bisher hat man es am PC auch nicht geschafft den normalen RAM richtig effektiv anzuzapfen, ich zweifle daran, dass das ausgerechnet mit erheblich langsameren SSD Speicher funktionieren soll. Die Gerenderte Auflösung mit DLSS zu reduzieren bringt zwar etwas, aber wohl auch nicht soviel. Von meiner GTX 980Ti habe ich noch im Kopf, dass FC: New Dawn mit den Ultra Texturen und WQHD etwas unter 6GB benötigt hat, in 720p dann "nur" noch 5GB. Zweifellos weniger, aber wenn man ein Problem hat, dann wird es wohl so nicht gelöst werden.

Leute die ihre Karten lange behalten wollen, nach Möglichkeit 5 Jahre oder mehr, werden sich bei der RTX 3060Ti, 3070(Ti) und eventuell auch mit der RTX 3080Ti mit ziemlicher Sicherheit in den Arsch beißen. Mit Stalker 2 ist schon ein Spiel unterwegs, das alle Karten unter 6GB zum alten Eisen erklärt, fraglich in wie fern man mit 8GB dann noch auf hoch oder sehr hoch, geschweige denn Ultra kommt.
WQHD DLSS Quality reduziert bereits den VRAM Bedarf um ca. 700 MB, habe dazu auch Screenshots. Die anderen Modi reduzieren natürlich mehr. Mit DLSS Quality hat man also sozusagen aus 8 GB fast 9 GB gemacht und kaum Qualitätsverlust (DLSS 2.2 sieht richtig gut aus, kaum noch Ghosting).

Nach 5 Jahren oder mehr musste man bisher sowieso Details runterfahren wenn man 60 FPS halten wollte in State-of-the-Art Titeln...
 
Ist Direct Storage eine rein Software-seitige Geschichte oder ist dafür auch eine bestimmte Hardware nötig?

Damit es keine Leistung kostet, sollten entsprechende HW-Decoder auf der GPU vorhanden sein. Es sollte zwar möglich sein, alles auch als Shader-Code umzusetzen, aber die meisten Spiele-PCs sind durch ihre Shader- und nicht ihre CPU-Leistung limitiert. Würde man Aufgaben von der CPU auf die Shader verlagern, würde die Performance also sogar sinken.


Sorry aber ich verstehe nicht einmal warum du davon ausgehst das moderne Grafikkarten "genug" Speicher haben?
Wäre das tatsächlich der Fall, könnte man sich auch die ganzen Streamingsysteme in modernen Spielen sparen und alles direkt in den Framebuffer laden. Macht nur keiner. Warum wohl? :hmm:

Der GPU-Speicher wird in der Tat manchmal knapp, aber da hilft Direct Storage auch nicht weiter. VRAM enthält unmittelbar, nahezu ohne Latenz, und mit 400-1.000 GB/s zur Verfügung stehende Daten. Direct Storage hat eine relativ große Latenz für den Laufwerkszugriff als solchen und dann noch einmal für das Entpacken und erreicht selbst mit um Faktor 4-5 komprimierten Daten maximal 30-40 GB/s. Bei geringster Komprimierung sogar nur 7 GB/s – was die schnellsten SSDs halt liefern können. Bestenfalls kann man damit normalen System-RAM ersetzen, aber selbst der ist für die GPU in einem PCI-E-4.0-System mit 32 GB/s unkomprimiert zugänglich und natürlich können Texturen, etc. dort in komprimiertem Zustand abgelegt werden. Direct Storage kann also nur beim ersten Ladevorgang etwas bringen oder wenn der Hauptspeicher insgesamt zu klein ist, um alle innerhalb von ~30 Sekunden benötigten Daten zu fassen. (Längerfristige Wechsel der Spielwelt kann man entspannt im Hintergrund streamen.) Dazu sollten in allen heutigen Spielen 32 GiB reichen, in vielen 16 GiB. 8-GiB-Systeme könnten dagegen messbare Fortschritte verzeichnen, nur wird da niemand eine entsprechend starke/moderne Grafikkarte verbauen. (Einzige Ausnahme: Konsolen die haben zwar 16 GB, aber das sind 16 GB VRAM. Und jedes bisschen Speicher für weitere Aufgaben als Rendering muss da abgeknabbert werden.)
 
WQHD DLSS Quality reduziert bereits den VRAM Bedarf um ca. 700 MB, habe dazu auch Screenshots. Die anderen Modi reduzieren natürlich mehr. Mit DLSS Quality hat man also sozusagen aus 8 GB fast 9 GB gemacht und kaum Qualitätsverlust (DLSS 2.2 sieht richtig gut aus, kaum noch Ghosting).

8 statt 9 GB ist eben nur ein kleiner Unterschied. Wenn es kommt, dann meist relativ dicke. Da wären eben 16GB angesagt, um ordentlich in die Zukunft zu düsen. Da fehlt dann eben bei Nvidia einiges, bei AMD steht die geringe Raytracingleistung im Weg und wie ihre DLSS Alternative ankommen wird, steht noch in den Sternen. Morgen wissen wir dann wohl mehr und richtig deutlich wird es in 1-2 werden, da weiß man dann, wo die Reise hingeht.

Wirklich zukunftssicher ist nur die RTX 3090 und in Grenzen die RTX 3060.

Nach 5 Jahren oder mehr musste man bisher sowieso Details runterfahren wenn man 60 FPS halten wollte in State-of-the-Art Titeln...

Kommt eben immer darauf an welche Details. Bei meine GTX 670 muß ich in FC New Dawn beispielsweise fast alles abstellen, es passt schlich und ergreifend nicht in den VRAM und ich bin auf Full HD begrenzt. Von den FPS habe ich nicht das geringste Problem, ich hänge, wie schon mit meiner GTX 980Ti in WQHD@Ultra, konsequent im CPU Limit. Mit einer entsprechenden CPU würde ich vermutlich die 120FPS nach oben durchbrechen. Dafür sieht es einfach nur mies aus, da materialisieren sich Steine vor meinen Augen und auch sonst sieht es schlechter aus, als FC3. Mit 4GB RAM könnte ich auf "sehr hoch" zocken, von den 120FPS müßte ich mich dann verabschieden, aber was soll es, mir reichen um die 60FPS auch aus, mehr bekommt meine CPU auch nicht zu Stande.

Meine GTX 980Ti ist ein gutes Beispiel: die war 5 Jahre alt als sie mir abgeraucht ist und hat immer noch gut getaugt, damit wäre ich wohl noch zwei Jahre weiter gekommen. Mit 4GB VRAM sähe das etwas anders aus, umgekehrt hätten der Karte am Ende auch 8GB oder mehr gut getan.
 
Du läßt dir aber auch die Hintertür offen, dass die praktische Auswirkung nicht zu ermitteln ist. Wenn W11 den Support mitbringt, dann muss dennoch jedes Spiel angepaßt werden? Wo sitzt überhaupt der aktuelle Flaschenhals?
a) Ich lasse mir keinerlei Hintertüren offen, dass würden bestenfalls die Hersteller, die diese Technk propagieren aber es ist unwahrscheinlich, dass die das nötig haben, denn diese Streamingvorteile wurden in exakt der gleichen Weise auch für die beiden Konsolen so erklärt und weder AMD, Microsoft noch nVidia (oder etwa Intel) haben hier ein Interesse daran aufwändig den Markt "umzukrempeln" für Null Mehrwert.
b) "dass die praktische Auswirkung nicht zu ermitteln ist" ist eine seltenunsinnige Aussage, da auf einem Computer nahezu alles sekundengenau zu messen ist, im Extremfall gar bis hin zur Nanosekunde. Nicht umsonst gibt es Profiling-Tools, mit denen man die Hardware im Detail beobachtet, misst und optimiert.
c) Und abschließend auch noch ein kolossaler Logikfehler. Was hat es mit der aktuellen Diskussion zu tun, ob DirectStorage mit Windows 11 eingeführt wird (wenn das, was in den nächsten Tagen angekündigt wird, überhaupt schon ein derartiges bevorstehendes Release sein soll)?
DirectStorage ist ein weiteres LowLevel-API, das genau so optional ist wie die Verwendung von DX12 oder Vulkan, da muss überhaupt keine Software angepasst werden, denn Altsoftware arbeitet schlicht über das bisherige I/O-System weiter.
Und aktuell ist auch vollkomen unklar ob DirectStorage überhaupt eine Art "integraler Bestandteil" von Windows 11 sein wird. Dieses könnte das zwar standardmäßig mitbringen, das API könnte für Windows 10 jedoch genau so als simples Feature-Update geliefert werden und im Sinne einer zumindest etwas schnelleren Adaption kann man auch eher annehmen, dass Microsoft derartiges eher nicht als Vertriebsargument für Windows 11 der Vorversion vorenthalten wird.
 
Praktisch ist da nichts zu ermitteln, weil der ganze Artikel unter dem "könnte" Stern steht und es DirectStorage noch nicht gibt.

Und es werden laufend Standards erfunden und begraben. zB. SLI + CF + U.2 + ...
 
Alte Pipeline (hoher CPU Load durch einzelne Texture-Call-Verarbeitung, Dekomprimierung der Daten im RAM, verschieben der dekomprimierten Daten in den VRAM):
Anhang anzeigen 1367230

Neue Pipeline (Daten werden direkt und komprimiert in den RAM und danach VRAM verschoben, damit spart man 50% Bandbreite zwischen RAM-VRAM, Batch-Bearbeitung von Texture-Calls möglich):
Anhang anzeigen 1367231
Hier sieht man sehr schön, das DS nichts bringen wird! Denn es liegen auf der NVME bereits komprimierte Texturen, die die GPU schon heute benutzt und gar nicht erst decomprimiert werden müssen von der CPU.

Aha-Modus an: GPUs haben Hardwaredecomprimierer für Texturen. Und das schon seit 20 Jahren.

Mit anderen Worten jede GPU hat schon heute komprimierte Texturen in ihrem RAM! Und nutzt diese on the Fly.

Das einzige was DS bringt ist der IO Overhead. Die CPU sendet nur noch einen DMA Befehl und die Texturen werden gestreamt. Aber da die CPU ohnehin nichts macht, ist das auch egal.

Es ist wie mit allem im PC Bereich. Seit 20 Jahren kommt einfach nichts mehr neues. Und das alte wird immer wieder als neu verkauft. Da kann man drauf reinfallen oder staunend vor den bunten Werbeblättchen stehen.
 
Zuletzt bearbeitet von einem Moderator:
Praktisch ist da nichts zu ermitteln, weil der ganze Artikel unter dem "könnte" Stern steht und es DirectStorage noch nicht gibt.

Und es werden laufend Standards erfunden und begraben. zB. SLI + CF + U.2 + ...
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.

Hier sieht man sehr schön, das DS nichts bringen wird! Denn es liegen auf der NVME bereits komprimierte Texturen, die die GPU schon heute benutzt und gar nicht erst decomprimiert werden müssen von der CPU.

Aha-Modus an: GPUs haben Hardwaredecomprimierer für Texturen. Und das schon seit 20 Jahren.

Mit anderen Worten jede GPU hat schon heute komprimierte Texturen in ihrem RAM! Und nutzt diese on the Fly.

Das einzige was DS bringt ist der IO Overhead. Die CPU sendet nur noch einen DMA Befehl und die Texturen werden gestreamt. Aber da die CPU ohnehin nichts macht, ist das auch egal.

Es ist wie mit allem im PC Bereich. Seit 20 Jahren kommt einfach nichts mehr neues. Und das alte wird immer wieder als neu verkauft. Da kann man drauf reinfallen oder staunend vor den bunten Werbeblättchen stehen.
Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:

Your textures are compressed with dxtc/s3tc/bcn. These are a family of algorithms for different texture types. They are directly usable by graphics cards and are used to save on VRAM, but as a trade-off can't compress as well. So games typically recompress these textures to save even more storage space on your disk, often using zip/zlib/deflate. Deflate uncompresses with only a few hundred MB/s per core, which is slow compared to the 2.4GB/s of the SexBox SSD or the even faster PS5. This is what the x CPUs cores is all about. This decompression is normally done by the CPU on PCs, which decompresses into a buffer in memory which then gets copied into VRAM. Additionally deflate is a very old algorithm and newer stuff like lzma or zstd creates smaller files and/or is faster. PS5 has Rad's Oodle Kraken which is kinda like lzma, and XBox has zlib (=deflate). Further they use optimized texture encoders and pre-processing (RDO) of the texture data to get even more efficient compression by lzma/zlib, eg Xbox has something called BCPack and PS5 can use Oodle Texture. Also note that in the console case this hardware decompression can also be used for general data, as it's all on a single chip, while for PCs any decompression hardware will just be on the GPU.
 
Zuletzt bearbeitet von einem Moderator:
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.


Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:
Schon den Beitrag von PCGH-Torsten gelesen? :rolleyes:
 
Schon den Beitrag von PCGH-Torsten gelesen? :rolleyes:
Ja, und? Ich behaupte nirgends dass DirectStorage VRAM ersetzt, oder was meinst Du?

DirectStorage verschlankt die gesamte Loading-Pipeline und optimiert zusätzlich die NVME SSD -> RAM/VRAM Übertragung, reduziert den CPU Overhead durch Batch-Calls und ermöglicht eine Bandbreiten Erhöhung um ~ Faktor 2 durch Übertragung der Assets in komprimierter Form bis in den VRAM.

Sampler Feedback Streaming ist hier kein Thema im Thread, da sprechen wir dann von VRAM Einsparungspotenzial von bis zu 70%.


Konsolen die haben zwar 16 GB, aber das sind 16 GB VRAM.
Das stimmt so nicht, 16 GB insgesamt, davon 10 GB "schneller" und 6 GB "langsamer" RAM. Man kann also von maximal 10GB als VRAM ausgehen bei den Konsolen.
 
Das stimmt, es wurden viele Standards erfunden und schnell wieder begraben. Bei DirectX Erweiterungen gibt's davon aber nicht viele, Direct3D, DXR, DirectSound, DirectInput usw usf, alles da und wird benutzt. Irgendeine Datenverwaltung zum Streamen wird immer benötigt, ein Update welches NVME SSD's berücksichtigt ist eher überfällig als unnötig.


Gefährliches Halbwissen: soweit mir bekannt werden Texturen aktuell doppelt komprimiert auf der Festplatte gespeichert. BCn + Deflate/Zlib. Die Texturen werden bei der alten Pipeline komprimiert in den RAM geladen, dort entpackt die CPU einmal (Deflate/Zlib) und verschiebt die Texturen dann in den VRAM, dort wird dann noch mal entpackt bei Verwendung (BCn). Mit DirectStorage / RTX IO werden die Texturen aber komplett gepackt in den VRAM gelegt was ungefähr ein Verhältnis von 2:1 bezüglich Bandbreite ergibt.

Edit: hab dazu noch etwas gefunden was mein "Halbwissen" diesbezüglich bestätigt:

Na schön, mal selber ausprobieren, habe mal die Nvidia Texture Tools runtergeladen. Damit kann man texturen in das GPU Format konvertieren.


Es gibt verschiedene TextureFormate, die die GPU on the Fly decomprimieren kann.


Dann habe ich diese Texture als Basis genommen:
tex.jpg


Die Texture ist als JPG 888kb groß. Wie in dem obigen Artikel zu lesen, kann eine GPU keine Jpegs benutzen und braucht BC1-BC7 Formate.

Nach dem Umwandeln in die BC Formate mit dem Tool:
1624283720428.png


Habe ich diese Texturen nochmal gezipped mit dem zlib kompressor.

1624283774280.png


Was man sehr gut sieht, die GPU Texture Formate lassen sich gut zippen.
Aber auch nicht alle. BC1 wird von 699kb auf 577kb verkleinert. 17% weniger also.

Was erstaunt: Die Texture ist nach dem JPEG->BC1->ZIP kleiner als das JPEG. Das ist unverständlich. Läßt sich vl. damit erklären, das BC1 im Bitmap Informationen weg läßt.

Erkenntnis: Bitmaps lassen sich weiter komprimieren. Aber nur zu c.a. 17%.
Wenn sich durch DS die zip Texturen on the Fly nutzen lassen, wäre das ein Vorteil. Aber so wie ich DS verstanden habe, werden die Texturen im GPU Speicher immer ausgepackt in das BC Format.
Somit ergibt sich weder eine Platzersparnis im GPU-Ram, noch ein Geschwindigkeitsvorteil.

Fazit, das doppelte komprimieren von Texturen bringt etwas. Aber eine GPU kann keine doppelt komprimierten Texturen nutzen und liegen trotzdem einfach komprimiert im GPU-RAM.

Ich sehe immer noch keinen Vorteil für DS am PC!

Für Spielconsolen, wo sich GPU und CPU den selben RAM teilen, macht es durchaus Sinn! Denn hier kann die GPU nun die Texturen entpacken und im gleichen Speicher direkt nutzen. Am PC ist man immer limitiert mit dem GPU-Speicher.
 
Zuletzt bearbeitet von einem Moderator:
Somit ergibt sich weder eine Platzersparnis im GPU-Ram, noch ein Geschwindigkeitsvorteil.

Fazit, das doppelte komprimieren von Texturen bringt etwas. Aber eine GPU kann keine doppelt komprimierten Texturen nutzen und liegen trotzdem einfach komprimiert im GPU-RAM.

Ich sehe immer noch keinen Vorteil für DS am PC!
Der Geschwindigkeitsvorteil ist doch klar:
1. Fall - alte Pipeline - Textur wird doppelt gepackt in den RAM verschoben - dort 1 mal entpackt - dann "nur" noch einmal gepackt in den VRAM verschoben
2. Fall - neue Pipeline - Textur wird doppelt gepackt in den RAM / VRAM verschoben und dort entpackt.

Es wird also Bandbreite gespart zwischen RAM - VRAM (DS) bzw. SSD - VRAM (RTX IO). Und nicht zu knapp, in Deinem Screenshot sind ja auch 50% Ratio zu sehen. Danke für den anschaulichen Test!

Dazu kommt dann dass sowohl AMD als auch Nvidia bereits in der letzten Gen Dekompressions-Hardware verbaut hat. Wie oben zitiert scheint die CPU bei deflate/zlib/zip auf Single-Core und langsame Bearbeitung beschränkt zu sein, das wäre mit einer dedizierten Hardware auf den GPU's dann ja viel schneller (und somit von Vorteil beim ad-hoc streamen).

Siehe auch hier:

1624286601637.png


1624286594838.png
 
Der Geschwindigkeitsvorteil ist doch klar:
1. Fall - alte Pipeline - Textur wird doppelt gepackt in den RAM verschoben - dort 1 mal entpackt - dann "nur" noch einmal gepackt in den VRAM verschoben
2. Fall - neue Pipeline - Textur wird doppelt gepackt in den RAM / VRAM verschoben und dort entpackt.

Es wird also Bandbreite gespart zwischen RAM - VRAM (DS) bzw. SSD - VRAM (RTX IO). Und nicht zu knapp, in Deinem Screenshot sind ja auch 50% Ratio zu sehen. Danke für den anschaulichen Test!

Dazu kommt dann dass sowohl AMD als auch Nvidia bereits in der letzten Gen Dekompressions-Hardware verbaut hat. Wie oben zitiert scheint die CPU bei deflate/zlib/zip auf Single-Core und langsame Bearbeitung beschränkt zu sein, das wäre mit einer dedizierten Hardware auf den GPU's dann ja viel schneller (und somit von Vorteil beim ad-hoc streamen).

Siehe auch hier:

Anhang anzeigen 1367275

Anhang anzeigen 1367274
Fall1:
Die Texturen werden vor dem Spielbeginn in die GPU geladen.

Fall2:
Die Texturen werden während dem Spielens immer wieder nachgeladen.

Fall1, DS bringt nichts.
Fall2, kommt selten vor, da man Texture nachlader vermeiden möchte. Diese Objekte die erst nach 2 Sekunden eine Texture bekommen, kennt man ja von der PS4. (extrem langsame HD)

Fall1 wird die große Mehrheit der Spiele am PC bleiben. Da hier genug RAM vorhanden ist.

Ich lasse mich aber gerne überraschen.
 
Kommt windows 11 jetzt als update oder muss ich das ganz neu kaufen und komplett neu installieren?
Oder kann ich drauf pfeifen und das einfach auslassen?
 
Fall1:
Die Texturen werden vor dem Spielbeginn in die GPU geladen.

Fall2:
Die Texturen werden während dem Spielens immer wieder nachgeladen.

Fall1, DS bringt nichts.
Fall2, kommt selten vor, da man Texture nachlader vermeiden möchte. Diese Objekte die erst nach 2 Sekunden eine Texture bekommen, kennt man ja von der PS4. (extrem langsame HD)

Fall1 wird die große Mehrheit der Spiele am PC bleiben. Da hier genug RAM vorhanden ist.

Ich lasse mich aber gerne überraschen.
Falsch.

Fall1: Schnellere Ladezeiten ins Spiel oder beim "Schnellreisen". Immer dann wenn der gesamte Textur-Speicher ausgetauscht wird.

Fall2: Jedes Open-World-Game streamt Textur-Daten nach, das wird mit DS auch beschleunigt.

Für Fall2 kommt dann noch Sampler-Feedback-Streaming ins Spiel womit die benötigten Textur-Daten reduziert werden. Davon allerdings viele kleine anstatt weniger großer Dateien, somit ist eine Batch-Bearbeitung und CPU-Overhead Reduzierung wieder im Vorteil.
 
Falsch.

Fall1: Schnellere Ladezeiten ins Spiel oder beim "Schnellreisen". Immer dann wenn der gesamte Textur-Speicher ausgetauscht wird.

Fall2: Jedes Open-World-Game streamt Textur-Daten nach, das wird mit DS auch beschleunigt.

Für Fall2 kommt dann noch Sampler-Feedback-Streaming ins Spiel womit die benötigten Textur-Daten reduziert werden. Davon allerdings viele kleine anstatt weniger großer Dateien, somit ist eine Batch-Bearbeitung und CPU-Overhead Reduzierung wieder im Vorteil.

Na schön, DS bringt etwas beim Laden von doppelt komprimierten Texturen und diese werden dann in der GPU einmal ausgepackt. Bisher hat dies die CPU gemacht! Und nun die Frage aller Fragen... Meine CPU ist beim spielen gerade mal zu 15% ausgelastet... Wieso sollte die nicht weiterhin die Texturen auspacken? Während die GPU immer 100% Auslastung hat. Hat es nicht gerade den Vorteil, die CPU zu nutzen, da diese eh nichts tut?
 
Ja, und? Ich behaupte nirgends dass DirectStorage VRAM ersetzt, oder was meinst Du?

Ich vermute, er will auf meinen Hinweis hinaus, dass sich ein Komprimierung um Faktor 2 von der SSD bis zur GPU nur lohnt, wenn die Transferrate der SSD entweder über der Hälfte der zwischen GPU und System-RAM beträgt oder wenn der System-RAM die benötigten Daten nicht in entpackter Form fassen kann. Ersteres ist bei PCs nie, letzteres so gut wie nie der Fall. Also lohnt Direct Storage auch nicht während des Renderns und die kritisierten "few hundred" MB/s pro Kern Entpackleistung (die ich für die jeweiligen Formate und aktuelle CPUs weder bestätigen noch korrigieren kann) bedeuten für ein aktuelles Oberklassesystem auch immerhin um die 2-4 GB/s, also weniger als 10 Sekunden einmaliger Ladevorgang zu Beginn des Spiels.
 
Ich vermute, er will auf meinen Hinweis hinaus, dass sich ein Komprimierung um Faktor 2 von der SSD bis zur GPU nur lohnt, wenn die Transferrate der SSD entweder über der Hälfte der zwischen GPU und System-RAM beträgt oder wenn der System-RAM die benötigten Daten nicht in entpackter Form fassen kann. Ersteres ist bei PCs nie, letzteres so gut wie nie der Fall. Also lohnt Direct Storage auch nicht während des Renderns und die kritisierten "few hundred" MB/s pro Kern Entpackleistung (die ich für die jeweiligen Formate und aktuelle CPUs weder bestätigen noch korrigieren kann) bedeuten für ein aktuelles Oberklassesystem auch immerhin um die 2-4 GB/s, also weniger als 10 Sekunden einmaliger Ladevorgang zu Beginn des Spiels.
Also in meine 16 GB System-RAM passen bestimmt nicht alle Texturen eines Open-World-Titels. Was sagst Du denn hierzu?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das ist laut MS auch nur in Kombination DS + SFS möglich, mit der alten Pipeline wäre das Nachladen wohl zu langsam.
 
...
AMD braucht kein RTX I/O, können die nextGen-Konsolen und RDNA2 bereits. Es beschreibt lediglich die
Fähigkeit komprimierte Texturen in der GPU auszupacken.
= mehr oder weniger NV-Marketing Bla ...
Die Aussage zu RDNA2 ist falsch. RDNA2 verfügt über keinerlei derartige Funktionalität. Die Konsolen-SoCs verfügen über zusätzliche HW-Einheiten, die bspw. die Dekompression übernehmen. So hat die PS5 einen Custom-Flash-Controller und im I/O-Complex des SoCs befindet sich eine dedizierte Einheit für die HW-Dekompression, die auf ZLib und Kraken ausgelegt ist. Und auch bei der Xbox findet man als SoC-spezifische Erweiterung Microsoft zufolge HW-Crypto- und Dekompression-Einheiten, wobei letztere über 6 GiB/s ausgeben können sollen, d. h. das ist keine Funktionalität von RDNA2 selbst und entsprechend können die aktuellen GPUs auch nicht mit derartigem aufwarten.

Da nVidia die Implementation noch nicht im Detail erklärt hat, bliebe dir als einizger Rettungsanker für dein offensichtlich anvisiertes Ziel, dass nVidia hier bzgl. der Dekompression nichts direkt in Hardware unterstützt sondern das hier ein Shaderprogramm die Dekompression übernimmt. Übermäßig wahrscheinlich wird das vermutlich aber nicht sein, da die zu unterstütztende Kompression sich i. d. R. auf nur wenige Algorithmen beschränken wird und man mit einer HW-Einheit die gesamte GPU beträchtlich entlasten könnte, entsprechend würde ich vermute, dass sich hier eine HW-Einheite im/nahe beim Block der Media-Engine als Fixed-Function-Unit finden wird. nVidia war hier einfach schneller, AMD hatte das nicht im Scope für RDNA2 und für die Konsolen wurde es in individueller Art für Sony und Microsoft direkt im SoC implementiert.

Wie schon erklärt bleibt zu vermuten, dass AMD mit RDNA3 entsprechende Funktionalität nachreichen wird und abseits dessen steht so oder so vermutlich grundsätzlich die Möglichkeit im Raum ein paar Shader/ALUs für die Dekompression heranzuziehen, auch wenn das zweifellos der ineffizientere Weg wäre, aber damit könnte man selbst nachträglich noch RDNA2 halbwegs fit für DirectStorage machen.

@raPid-81: Danke für das Aufstöbern dieses informativen Videos.
 
Zuletzt bearbeitet:
Zurück