Special Nie wieder Ladezeiten? Direct Storage im ersten Test mit Radeon, Geforce und Arc

Da es aber wohl so ist, sollte der Effekt für uns PCler mehr als überschaubar sein und das Ganze ist damit ein Feature für Konsolenhersteller und Entwickler; die einen sparen Arbeitsspeicher, die anderen müssen kein Speichermgmt mehr betreiben.

Schade.

Liegt doch eher daran weil neue Spielkonzepte die mehr ermöglichen kaum da sind. Wenn du aber Spiele willst wo durch Zeitsprungfunktion oder Portale aus Gameplay in 1 Sekunde komplett neue Assets laden musst dann bekommst die bei einem 100-150GB Spiel nicht in 16-32GB RAM vorgeladen.

Anstatt irgendwann die Anforderungen an die Arbeitsspeichermenge immer weiter zu erhöhen ist es doch eher sinnvoll eh den Massenspeicher zu nutzen wo Spiele für Dauer ihrer Nutzung liegen.

Arbeitsspeicher ist halt flüchtig und müsste immer wieder zugeschaufelt werden mit Daten.
Würde auch z.B. Quick Resume Funktion von Xbox nicht gehen. Schreibst ja aktuellen Spielstatus auf die Festplatte und kannsz ohne zu Speichern von dort weiterzocken. Selbst wenn du das System ganz vom Strom nimmst.
Wäre aber möglich wenn im jeden Rechner halt NVMe drin wäre.

Sind Möglichkeiten die wohl eben erst am PC kommen wenn die Mindestanforderungen daran steigen.
 
Das dachte ich mir schon so oft bei so vielen Spielen. Ich meine, so viele Spiele sind auf der Platte iwie 5-10 GB groß, wie schwer kann's da sein alles in 32 oder mehr GB RAM zu laden?
Wenn man seine Routinen und Level in 4GB-Segmente gequetscht hat, damit sie auch noch auf dem allerältesten Gamer-Schrott laufen, ist es glaub ich ein ganz schöner Akt ... dann läuft es nämlich auf dem allerletzten GamerSchrott nicht mehr. Und die Entwickler leben ja von jeder verkauften Kopie..
 
Die Ram Disk bringt auch nur bessere Zugriffszeiten - das Spiel ist ja immer noch komprimiert. Was bedeutet Windows muss dennoch alles in 16MB(? oder so) Blöcken, vor dem Gebrauch, durch die Cpu wursteln.

Die Unreal Engine geht ja den weg immer die HQ Polygon Modelle und Texturen zu nutzen. Wenn dann die Spiele aufn Markt kommen sollte man die Vorteile sehen.
 
Wenn man seine Routinen und Level in 4GB-Segmente gequetscht hat, damit sie auch noch auf dem allerältesten Gamer-Schrott laufen, ist es glaub ich ein ganz schöner Akt ... dann läuft es nämlich auf dem allerletzten GamerSchrott nicht mehr. Und die Entwickler leben ja von jeder verkauften Kopie..
Najaaa, du tust ja als gäbe es keine anderen Skalierungsmethoden.

Stichwort Streaming. Will sagen, dasselbe Level kann mit verschiedenen Belegungen "spielbar" sein.
Aber ich versteh auch deinen Punkt, der kleinste gemeinsame Nenner definiert das Limit.
 
Absolut. Als jemand der manchmal das Eine und manchmal das Andere ist wär ich aber selbst nicht sicher, wer da die Hauptverantwortung trägt^^. Ich fühl mich jedenfalls an beiden Positionen in der Pflicht.
 
Bei dir ists ganz leicht, die GPU ist der absolute Flaschenhals bei dir. Die CPU ist tip top, 6 schnelle Kerne reichen selbst um neuste rtx4000er zu bespassen. SSD limitieren in aktuellen Spiel null, nur HDD sollte man vermeiden.
Bei dir wäre ein upgrade auf neuere gpu's sinnvoll.
Was du da beantwortest, habe ich überhaupt nicht gefragt.

Ich fragte nach der Limitierung beim Laden.
 
Bei dir ists ganz leicht, die GPU ist der absolute Flaschenhals bei dir. Die CPU ist tip top, 6 schnelle Kerne reichen selbst um neuste rtx4000er zu bespassen. SSD limitieren in aktuellen Spiel null, nur HDD sollte man vermeiden.
Bei dir wäre ein upgrade auf neuere gpu's sinnvoll.
Pauschal nicht zu beantworten. Da müsste mindestens noch das Spiel dazustehen und auch dann wärs nur ne Schätzung. Meistens dürften CPU und GPU aber ausreichen und die SATA Schnittstelle das Limit definieren. Für Ladezeiten, aber danach fragtest du ja.
 
@Galaxy90: Shader Compilation beim Laden hat nichts damit zu tun. Man könnte statt neu zu kompilieren zwar zwischengespeicherte, alte Ergebnisse in einem Bruchteil der Zeit laden. Aber dafür braucht man kein DS und es ist unwahrscheinlich, dass man gerade jetzt damit anfängt. Mit etwas Glück ist die CPU mit dem kompilieren aber etwas schneller fertig, wenn sie nicht mehr einige wenige Prozent ihrer Rechenleistung für das Entpacken aufwendet. Wenn man Pech hat ... wo landen jetzt noch einmal die geladenen Daten zuerst und wo werden Shader kompiliert?

Aber beim PC reduzieren sich die Zeiten doch auch stark durch RTX IO?

Tun sie das in realen Spielen? Mir ist noch keine Implementation bekannt. Aber wie bereits angedeutet: Es ist keine Kunst ein Spiel zu schreiben, dass es ohne DS langsamer als mit läuft. Man muss es einfach nur immer streamen und nie cachen lassen und schon wird es ohne DS schnarch langsam. Halt wie auf einer alten Konsole. Aber das ist dann in etwa so wie RT- mit Screen-Space-Reflektionen zu vergleichen – besser als der Worst Case abzuschneiden ist leicht. Die Kür ist es, besser auszusehen als alles zuvor dagewesene und trotzdem nicht schlechter zu laufen.

Ohoh, stell Dir vor was das für ein Akt wird, es wie Windows7 aussehen zu lassen, und wie lange das dauern wird^^

Und dann stell dir vor das nächste Update kommt und ... :-D

Joah, dann hatte ich DS wohl von Anfang an falsch verstanden.

Mein Verständnis war bisher, dass DS am PC dafür sorgt, dass die Dekompression vom Festspeicher in den RAM durch die GPU anstatt der CPU beschleunigt wird, nicht dass quasi direkt vom Festspeicher gestreamt wird.

Da es aber wohl so ist, sollte der Effekt für uns PCler mehr als überschaubar sein und das Ganze ist damit ein Feature für Konsolenhersteller und Entwickler; die einen sparen Arbeitsspeicher, die anderen müssen kein Speichermgmt mehr betreiben.

Schade.

Ich glaube es war auch ein Modus vorgesehen, in dem die GPU quasi als Co-Prozessor genutzt wird. Aber da der Löwenanteil aller zu entpackenden Daten ohnehin der Bildausgabe dient ist es sinnvoller, die Daten direkt in den VRAM zu packen. Spannend wird es, wenn der voll ist. Idealerweise werden von der GPU aktuell nicht mehr benötigte Daten im System-RAM gecached und beim nächsten Zugriff wäre es vollkommen egal, ob das System DS nutzt oder nicht. Es würde einfach entpacktes aus dem Arbeitsspeicher nachladen. Aber meine Befürchtung ist, dass sich Entwickler diese Mühe gar nicht mehr machen sobald sie ihre Konsolen-Engine copy-pasten können.
 
Oh, in diesem Bereich fehlte mir bisher viel Wissen. Kurze Ladezeiten nannte man früher Nintendo Gamecube.

IBM "Gecko" + ATI "Flipper" + 40MB RAM aber flott + Matsushita 1,5 GB Disk.

Leise und kühl war das alles auch noch und die Welten schienen mir damals groß genug.
 

OS: DirectStorage games will work on both Windows 10 and Windows 11, but there are additional optimizations in the IO stack available to Windows 11 users, so that is our recommended choice for the best improvements. Games running on both Windows 10 and Windows 11 will see gains from an efficient GPU decompression implementation, as the key component to this feature is moving the workload from the CPU to the GPU rather than changes to the OS itself.

 
Bin gespannt wieviele Jahre es noch dauert, bis ich einen effektiven Nutzen davon wahrnehmen kann / könnte - ich tippe auf 3.

Sehe keinen Anlass jetzt schon darüber aufgeregt zu sein.
 
Wir haben uns das spannende Feature anhand eines speziellen Testprogramms angesehen, das der Anbieter Compusemble kostenlos bereitstellt (der Download ist in den Kommentaren zu finden).
FYI, das Programm gibt es offiziell von Microsoft.
 
Ab 2025 ist dann eh Win11 angesagt und dann gibts das auch dazu. Bis dahin reichen zwei nvme und paar Sata SSDs unter Win10.
 
Noch ist Arbeitsspeicher ne Ecke schneller als NVMe SSDs:

DDR3-2133 = 17,0 GB/s
DDR4-3200 = 25,6 GB/s
DDR5-7200 = 57,6 GB/s

PCIe 4.0 SSD = 7-8 GB/s

Ich glaube es gibt schon PCIe 5.0 Prototypen welche 10 GB/s geschafft haben.

Langsam nähern sich die SSDs den Ram Geschwindigkeiten. Dann gibt es auch nicht mehr so schnell Probleme mit der Kapazität.
 
Zurück