Ein ×16-Slot ist bei den verfügbaren Adaptern unabhängig von der Performance nötig, womit derartige Lösungen für Gamer in Mainstream-Plattformen komplett sinnlos sind.
Wer sich einne Gaming-PC mit 5900X/5950X zusammen baut, hat u.U. auch den Wunsch, mehr wie 2 (oder max. 3) M.2 SSDs einzubauen. und zwar nicht als QLC, womit man derzeit auf 2TB je SSD beschränkt ist. Da der zweite PCIe-Slot wohl mit x8 angebunden ist, würde das mind. zwei weitere SSDs zulassen.
Genauso wie bei den SATA SSDs habe ich nicht vor, im nächsten PC meine bisher genutzten M.2 SSD wegzuwerfen. Da würde ich lieber meine 5 TB an SATA SSDs in Rente schicken und durch NVMe (mit TLC) ersetzen.
Meinem Wissen nach sind auch Spiele mit Archivdateien in der Lage, einzelne Brocken daraus zu grabben, sodass weiterhin nicht-sequentielle Zugriffe vorliegen.
Wenn nicht, wollen es die Spielentwickler nicht. Nicht nur seek sondern auch Memory Mapped Files gibt es selbst unter Windows seit Jahrzehnten (mind. seit NTFS). Seit SSDs ist es auch egal, ob die Daten theoretisch fragmentiert auf dem Speichermedium liegen.
Bei direkter Integration durch AMD und Intel könnte es vielleicht etwas günstiger werden, aber zu 300 Euro Aufpreis müsstest du alle Käufer, schon überreden, es sich dein "so viel M.2 wie sonst SATA"-Vorschlag für die Hersteller rechnet.
Den Aufpreis werde ich wohl bei der nächsten Plattform freiwillig zahlen. Weniger auf Grund der PCIe Lanes wie für einen in meinen Augen zeitgemäße Ram-Anbindung mit 4 Kanälen. Ich würde, falls nötig, meinen i9-9900K jedenfalls nicht durch einen 5950X ersetzen, sondern durch einen 3960X oder noch lieber einen 5960X (oder gerne auch TR 5955X mit 16 Kernen). Die passenden x16 Slots für eine M.2 Erweiterungskarte gibt es dann einfach mit dazu.
Also muss beim Ladevorgang erstmal extrahiert werden was die CPU nebenher neben dem inhaltlichen laden/Datenverarbeiten macht. Das geht alles nicht mit mehreren GB/s.
Technisch ist das kein Problem, wenn das Spiel mehr wie einen CPU-Kern nutzen darf und damit ein Kern für I/O übrig sein könnte.
Da ich nichts neueres finde. hier mal ein alter SingleCore ZLib Benchmark auf i7-6700k
Lzturbo library: world's fastest compression library + Lzturbo vs. fastest and popular compressors - Method 1 - compress better, more than 2x faster, decompress 3x faster than Snappy. - Method 1 - compress better and faster, decompress up to 1.8x faster than Lz4. - Method 1 - decompress ~7x!
sites.google.com
Entpacken mit 2-4 GB/s war schon mit der CPU kein Problem, und da Spieleentwickler ihre statischen Daten auch noch kennen, können sie diese entsprechend vorher packen (oder hat auch nicht). Auch DirectX wird wohl komprimierte Texturen können und einfache RLE-Dekodierung (z.B. für 3D-Daten) geht mit Sicherheit noch schneller. Bei Daten, die im VRam landen, könnte man das Entpacken auch der GPU überlassen (wenn die nicht chronisch überlastet wäre).
Selbst BTRFS und aktivierter Kompression kommt auf durchaus braucbare Werte bis zu 2,5 GByte/s (und bitte nicht nur die Werte des steinalten FX-6200 beachten, darunter stehen auch Werte mit einem R7 3700X
Ein ×16-Slot ist bei den verfügbaren Adaptern unabhängig von der Performance nötig, womit derartige Lösungen für Gamer in Mainstream-Plattformen komplett sinnlos sind.
Wer sich einne Gaming-PC mit 5900X/5950X zusammen baut, hat u.U. auch den Wunsch, mehr wie 2 (oder max. 3) M.2 SSDs einzubauen. und zwar nicht als QLC, womit man derzeit auf 2TB je SSD beschränkt ist. Da der zweite PCIe-Slot wohl mit x8 angebunden ist, würde das mind. zwei weitere SSDs zulassen.
Genauso wie bei den SATA SSDs habe ich nicht vor, im nächsten PC meine bisher genutzten M.2 SSD wegzuwerfen. Da würde ich lieber meine 5 TB an SATA SSDs in Rente schicken und durch NVMe (mit TLC) ersetzen.
Meinem Wissen nach sind auch Spiele mit Archivdateien in der Lage, einzelne Brocken daraus zu grabben, sodass weiterhin nicht-sequentielle Zugriffe vorliegen.
Wenn nicht, wollen es die Spielentwickler nicht. Nicht nur seek sondern auch Memory Mapped Files gibt es selbst unter Windows seit Jahrzehnten (mind. seit NTFS). Seit SSDs ist es auch egal, ob die Daten theoretisch fragmentiert auf dem Speichermedium liegen.
Bei direkter Integration durch AMD und Intel könnte es vielleicht etwas günstiger werden, aber zu 300 Euro Aufpreis müsstest du alle Käufer, schon überreden, es sich dein "so viel M.2 wie sonst SATA"-Vorschlag für die Hersteller rechnet.
Den Aufpreis werde ich wohl bei der nächsten Plattform freiwillig zahlen. Weniger auf Grund der PCIe Lanes wie für einen in meinen Augen zeitgemäße Ram-Anbindung mit 4 Kanälen. Ich würde, falls nötig, meinen i9-9900K jedenfalls nicht durch einen 5950X ersetzen, sondern durch einen 3960X oder noch lieber einen 5960X (oder gerne auch TR 5955X mit 16 Kernen). Die passenden x16 Slots für eine M.2 Erweiterungskarte gibt es dann einfach mit dazu.
Also muss beim Ladevorgang erstmal extrahiert werden was die CPU nebenher neben dem inhaltlichen laden/Datenverarbeiten macht. Das geht alles nicht mit mehreren GB/s.
Technisch ist das kein Problem, wenn das Spiel mehr wie einen CPU-Kern nutzen darf und damit ein Kern für I/O übrig sein könnte.
Da ich nichts neueres finde. hier mal ein alter SingleCore ZLib Benchmark auf i7-6700k
Lzturbo library: world's fastest compression library + Lzturbo vs. fastest and popular compressors - Method 1 - compress better, more than 2x faster, decompress 3x faster than Snappy. - Method 1 - compress better and faster, decompress up to 1.8x faster than Lz4. - Method 1 - decompress ~7x!
sites.google.com
Entpacken mit 2-4 GB/s war schon mit der CPU kein Problem, und da Spieleentwickler ihre statischen Daten auch noch kennen, können sie diese entsprechend vorher packen (oder hat auch nicht). Auch DirectX wird wohl komprimierte Texturen können und einfache RLE-Dekodierung (z.B. für 3D-Daten) geht mit Sicherheit noch schneller. Bei Daten, die im VRam landen, könnte man das Entpacken auch der GPU überlassen (wenn die nicht chronisch überlastet wäre).
Selbst BTRFS und aktivierter Kompression kommt auf durchaus braucbare Werte bis zu 2,5 GByte/s (und bitte nicht nur die Werte des steinalten FX-6200 beachten, darunter stehen auch Werte mit einem R7 3700X
Die Frage für mich ist eher, was Spiele mit so vielen Danten auf einmal wollen, dass sie trotz optimierter Ablage der Daten abseits vom Startvorgang überhaupt so lange laden müssen. natürlich ist die Implemeniterung von preloading aufwändiger wie das Laden der Daten, wenn man sie benötigt. Aber Spiele benötigen solche Daten ja nicht erst seit gestern.
h t t p s://www.reddit.com/r/btrfs/comments/hyra46/benchmark_of_btrfs_decompression/
(nein, ich will hier KEINE Vorschau des gesamten Postings haben, wie kann man den Mist deaktivieren?)
Die Frage für mich ist eher, was Spiele mit so vielen Danten auf einmal wollen, dass sie trotz optimierter Ablage der Daten abseits vom Startvorgang überhaupt so lange laden müssen. Natürlich ist die Implementierung von Preloading aufwändiger wie das Laden der Daten, wenn man sie benötigt. Aber Spiele benötigen sowas ja nicht erst seit gestern.