News Direct Storage: 17 Prozent schnellere GPU-Dekomprimierung mit neuem Nvidia-Treiber

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Direct Storage: 17 Prozent schnellere GPU-Dekomprimierung mit neuem Nvidia-Treiber

Nach einem Test von Compusemble steigert der Geforce 535.05 Beta-Treiber die GPU-Dekomprimierung auf PCI-Express-5.0-SSDs um etwa 17 Prozent. Bei einer SSD um PCI Express 4.0 steigert der gleiche Treiber den Durchsatz der Datendurchsatz um zwei Prozent. Die 5.0-SSD, eine Crucial T700, ist im gleichen Test circa ein Viertel schneller als eine nicht genannte 4.0-SSD. Eine solche Entwicklung könnte der "Durchbruch" für PCI-Express-5.0-SSDs werden, die bislang nur wenig Leistungsunterschiede aufweisen sowie spärlich verfügbar und teuer sind.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Direct Storage: 17 Prozent schnellere GPU-Dekomprimierung mit neuem Nvidia-Treiber
 
Gab es außer Forspoken überhaupt angekündigte Spiele, die Gebrauch machen werden von DirectStorage?
 
Gab es außer Forspoken überhaupt angekündigte Spiele, die Gebrauch machen werden von DirectStorage?
Ist die Technik da, wird sie auch genutzt werden. Bis die Verbreitung größer ist, gibt es vielleicht auch offene Standards und die Hardware dazu wird dann auch entsprechend verfügbarer sein. Auf jeden Fall ist jetzt noch nicht die Zeit, sich panisch für DirectStorage zu rüsten. Bis handfeste Vorteile die Regel sind, wird es noch dauern und bis man es braucht sowieso.
 
Ist die Technik da, wird sie auch genutzt werden.

Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.

Bis handfeste Vorteile die Regel sind, wird es noch dauern und bis man es braucht sowieso.

Die Frage ist, ob es die wirklich gibt. Bei Forspoken war es ja nur ein winziger Vorteil bei den Ladezeiten. Dafür hat man sich den an anderer Stelle mit geringerer Leistung erkauft. Bei den Konsolen kann man es noch machen, um den geringen RAM zu kompensieren. Auf dem PC hat man die Option auf mehr RAM. Mit 32GB RAM könnten diese Vorteile dann platzen.
 
Gab es außer Forspoken überhaupt angekündigte Spiele, die Gebrauch machen werden von DirectStorage?
nope...aber ich gehe davon aus, dass das kommenden Ratchet & Clank das mitbringen wird, bezweifle aber stark das es nen merkbaren Unterschied zwischen Gen3 und Gen5 geben wird.
 
Ich vermute sogar das selbst ein normale (SATA) SSD keine Probleme damit haben sollt.
Direct Storage ist und bleibt eigentlich eher in Konsolen ding.
 
Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.
Muss man dabei so groß optimieren? Es gibt dann eine Schnittstelle, die man nutzen kann und die vielleicht sogar schon einen Fallback mitbringt. Und Daten vom Massenspeicher in den Grafikspeicher zu holen ist ja auch keine spezielle Aktion, die nur in wenigen Fällen benötigt wird. Vermutlich werden die einschlägigen Engines den Entwicklern komplett abnehmen.
Die Frage ist, ob es die wirklich gibt. Bei Forspoken war es ja nur ein winziger Vorteil bei den Ladezeiten. Dafür hat man sich den an anderer Stelle mit geringerer Leistung erkauft. Bei den Konsolen kann man es noch machen, um den geringen RAM zu kompensieren. Auf dem PC hat man die Option auf mehr RAM. Mit 32GB RAM könnten diese Vorteile dann platzen.
Mit mehr RAM kann man das nur bedingt erschlagen. Einmal muss der ganze Kram sowieso vom Massenspeicher geholt werden, das würde dann auch lange dauern und ganze Spiele passen oft gerade unkomprimiert nicht in den RAM, ohne dass der extrem groß ist. Das heißt widerum Ladebildschirme oder Streaming im Hintergrund. Das erste geht mit DirectStorage schneller, was ja schon angenehm sein kann, im zweiten Fall wird die CPU entlastet. Bleibt nur noch die Frage, wie groß die relative Last für CPU und GPU wären, aber wenn sich das effizient auf GPUs rechnen lässt, ist klar, wo man die nötige Rechenleistung günstiger bekommt.
Ich vermute sogar das selbst ein normale (SATA) SSD keine Probleme damit haben sollt.
Direct Storage ist und bleibt eigentlich eher in Konsolen ding.
Natürlich nicht. Es geht ja um die Entlastung der CPU. Man könnte nur argumentieren, dass DirectStorage bei einer SATA SSD wenig bringt, weil die Datenrate so niedrig ist, dass die nötige Rechenleistung für die Dekompression keine große Rolle spielt. Ich glaube das allerdings nicht so recht. Spätestens, wenn die Bandbreite voll ausgenutzt wird, kommt da schon einiges zusammen. Wenn das zusätzlich zum Spielgeschehen passieren soll, braucht man da schon eine sehr starke CPU.
 
Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.
Die "Faulheit" ist wohl einer der kleineren Hürden bei der Softwareentwicklung. In allererster Linie ist es immer noch das Produktmanagement das bestimmt, wieviel Zeit in welches Features investiert wird... ursächlich jedoch die Geschäftsführung, die mit wenig Arbeitsressourcen möglichst viel Geld generieren möchte.
 
Es ist doch von vorn bis hinten so. Einerseits scheinen viele Entwickler einfach unmotiviert das bestmögliche herauszuholen, dann greift dein Punkt. Die Geschäftsführung bis Publisher drückt auf die Entwickler und letztlich sind da noch die gierigen Spieler, die immer nur "kauf ich mal im Sale" von sich geben, statt einfach das was ihnen eventuell gefällt zum Vollpreis zu erwerben. Also wo will man jetzt anfangen was zu ändern? Egal wo man ansetzt, die Menschen an der Stelle wollen nichts ändern.
 
Kann ich überhaupt nicht unterschreiben, aber vielleicht ist das auch nur meine lokal bedingte Wahrnehmung: Jeden Kollegen in der Entwicklung, den ich kenne, ist motiviert bestmögliche Ergebnisse abzuliefern. In 99% der Fälle kommt aus dem Produktmanagement, dem Sales (indirekt die Kunden) und dem Board of Management der Druck, dass man in kürzester Zeit ein vollfunktionsfähiges Feature umsetzt. Möchte ich jedoch das Feature wirklich perfektionieren und super ausliefern, erhalte ich nicht die Zeit dazu. Ich muss mein Selbststudiums-Stundenanteil darauf investieren, damit meine Ansprüche dem gerade so gerecht werden und das reicht eig. trotzdem nicht. Stattdessen lautet die Mentalität hier als auch sonst wo: Erstmal was machen, fixen und verbessern kann man auch nach dem Release.
 
Zuletzt bearbeitet:
Bevor mir PC Tests von Rachet & Clank Rift Apart nicht das Gegenteil bewiesen haben, glaube ich das nicht.

Dass dieses Spiel nur dank der schnellen SSD diese Rifts darstellen konnte, ist laut einem Spieleprogrammierer falsch. Das war nur Marketing.
Coding Secrets - Did Sony Lie about SSD? PS3 could run PS5 Ratchet & Clank Gameplay
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Compusemble entdeckte mit dem eigenen Avocado-Benchmark im Vergleich des vorherigen Geforce 535.03-Treibers mit dem 535.50-Beta-Treiber eine Leistungssteigerung bei der GPU-Kompression. Der neueste Geforce 535.98-Treiber erhöht die Ladezeiten auf der PCI-Express-5.0-SSD Crucial T700 um 17 Prozent.
Na ich hoffe doch es hat die Ladezeiten nicht erhöht sondern reduziert.
 
Die Frage ist, ob es die wirklich gibt. Bei Forspoken war es ja nur ein winziger Vorteil bei den Ladezeiten. Dafür hat man sich den an anderer Stelle mit geringerer Leistung erkauft.
Nein, das ist nicht korrekt und hat PCGH auch selbst klargestellt.

Direct Storage kostet GPU-Leistung?​

Nein, dieser mittlerweile weltbekannte Verdacht aus unserem Hands-on-Video zu Direct Storage in Forspoken hielt umfassenden Messungen nicht stand. Unsere ersten Benchmark-Stichproben haben nur scheinbar gezeigt, dass Direct Storage etwas GPU-Leistung abzwackt, was zunächst nicht unlogisch klingt, da die GPU zur Dekomprimierung genutzt werden sollte. Bei weiteren Messungen stellte sich dann heraus, dass dieses Ergebnis eine andere Ursache hatte: Wir protokollierten den gesamten integrierten Benchmark in Forspoken mithilfe unseres primären Mess-Tools CapFrameX. Dabei werden im integrierten Benchmark auch die schwarzen, mit hohen Bildraten dargestellten Ladebildschirme erfasst. Die Krux: Mit einer schnell ladenden NVME-SSD fallen diese Hoch-Fps-Phasen kürzer aus als mit einer relativ trägen SATA-SSD. So kam es zu dem viel diskutierten Ergebnis, dass Direct Storage anscheinend die Leistung senkt. Selbstverständlich war das mit einer Probe noch nicht in Stein gemeißelt, doch die Nachricht verbreitete sich wie ein Lauffeuer.

Viele Kolleginnen und Kollegen stellten daraufhin eigene Tests an und kamen ohne separates Fps-Logging zum Ergebnis, dass die These, Direct Storage koste GPU-Leistung, nicht haltbar ist. Schließlich brachte uns auch der Austausch mit unserer versierten Community im Forum auf unseren Fauxpas. Lange Rede, kurzer Sinn: Fehler passieren und nicht jede Annahme erweist sich als korrekt. Unter dem Strich hat die Sache aber etwas Gutes, denn Recherche ist ein Prozess, aus dem nicht nur wir, sondern auch andere Tester gelernt haben - nicht trotz, sondern wegen unserer schnellen Veröffentlichung. Zur journalistischen Sorgfalt gehört es aber auch, falsche Behauptungen als solche hinterher richtigzustellen, was wir mit einem Hinweis im Artikel und in der Videobeschreibung nachgetragen haben.
 
Dass dieses Spiel nur dank der schnellen SSD diese Rifts darstellen konnte, ist laut einem Spieleprogrammierer falsch. Das war nur Marketing.
Coding Secrets - Did Sony Lie about SSD? PS3 could run PS5 Ratchet & Clank Gameplay
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Der Link funktioniert nicht... aber ist der Spieleentwickler wirklich Spieleentwickler und was noch interessanter ist: War er an der Entwicklung von R&C beteiligt?
 
Nein, das ist nicht korrekt und hat PCGH auch selbst klargestellt.

Bleibt aber, das es bis auf kleine Vorteile beim Laden keine Vorteile gab.
Das ist noch zu mager.
Ja, ich glaube Diablo 4 oder RE4.
Ich denke das Thema wird erst noch richtig interessant, so ab nächsten Jahr vielleicht, auch mit Blick auf kommende große Spiele mit der UE5
 
Ja, ich glaube Diablo 4 oder RE4.
Diablo 4 bringt (mindestens) seit den Betas entsprechende Bibliotheken mit, daher liegt der Verdacht nahe. Aber Resi, hast du dazu 'ne Quelle?

Diablo 4_Direkte Festplatte.png

MfG
Raff
 
Muss man dabei so groß optimieren? Es gibt dann eine Schnittstelle, die man nutzen kann und die vielleicht sogar schon einen Fallback mitbringt. Und Daten vom Massenspeicher in den Grafikspeicher zu holen ist ja auch keine spezielle Aktion, die nur in wenigen Fällen benötigt wird. Vermutlich werden die einschlägigen Engines den Entwicklern komplett abnehmen.

Das muß sichj dann von selbst erledigen. Wenn es mit Arbeit verbunden ist, dann wird es meist nicht gemacht.

Mit mehr RAM kann man das nur bedingt erschlagen. Einmal muss der ganze Kram sowieso vom Massenspeicher geholt werden, das würde dann auch lange dauern und ganze Spiele passen oft gerade unkomprimiert nicht in den RAM, ohne dass der extrem groß ist. Das heißt widerum Ladebildschirme oder Streaming im Hintergrund. Das erste geht mit DirectStorage schneller, was ja schon angenehm sein kann, im zweiten Fall wird die CPU entlastet. Bleibt nur noch die Frage, wie groß die relative Last für CPU und GPU wären, aber wenn sich das effizient auf GPUs rechnen lässt, ist klar, wo man die nötige Rechenleistung günstiger bekommt.

Natürlich nicht. Es geht ja um die Entlastung der CPU. Man könnte nur argumentieren, dass DirectStorage bei einer SATA SSD wenig bringt, weil die Datenrate so niedrig ist, dass die nötige Rechenleistung für die Dekompression keine große Rolle spielt. Ich glaube das allerdings nicht so recht. Spätestens, wenn die Bandbreite voll ausgenutzt wird, kommt da schon einiges zusammen. Wenn das zusätzlich zum Spielgeschehen passieren soll, braucht man da schon eine sehr starke CPU.

Die Liste, von tollen Technologien, die entweder viel Versprochen und wenig gehalten haben oder die nicht umgesetzt worden sind, ist sehr, sehr, lang. Direct Storage ist auf dem Weg sich da einzureihen. Wäre ja nicht das erstmal das sowas vergeigt wurde (Multi GPU und DX 12, hust).

Die "Faulheit" ist wohl einer der kleineren Hürden bei der Softwareentwicklung.

Es ist einer der größten Übel. "Ich muß meinen Code nicht dokumentieren, ich kenn mich da ja aus", "es läuft, was will ich mehr", "das ist unnötig". Solche Sätze sorgen für unoptimierten Mist, weil die Leute einfach keinen Bock haben, mehr zu arbeiten. Die Weisheit, eine Aufgabe einer faulen Person zu geben, da diese die einfachste Lösung findet, hat ihre Grenzen.

In allererster Linie ist es immer noch das Produktmanagement das bestimmt, wieviel Zeit in welches Features investiert wird... ursächlich jedoch die Geschäftsführung, die mit wenig Arbeitsressourcen möglichst viel Geld generieren möchte.

Die sind halt eben auch faul. Wozu Geld für "unnötiges" verschwenden? Das ist es, was da dahinter steht. Mit Pech darf man das zigfache des gesparten wieder draufzahlen, weil man seinen eigenen Krempel per Reverseengineering wieder entschlüsseln darf. Es gibt da unendlich viele Beispiele "es konnte ja keiner wissen, dass man das nach ein paar Jahrzehnten wieder braucht. Es gibt Leute, die auf sowas spezialisiert sind und denen geht die Arbeit nie aus.

Kann ich überhaupt nicht unterschreiben, aber vielleicht ist das auch nur meine lokal bedingte Wahrnehmung: Jeden Kollegen in der Entwicklung, den ich kenne, ist motiviert bestmögliche Ergebnisse abzuliefern.

Da klebst du entweder auf der Insel der Seligen oder du hast einen Chef, der darauf wert legt. Ansonsten schleicht sich das sehr schnell ein, vorallem, da das Verhalten belohnt wird. Das ist ja das teuflische.

In 99% der Fälle kommt aus dem Produktmanagement, dem Sales (indirekt die Kunden) und dem Board of Management der Druck, dass man in kürzester Zeit ein vollfunktionsfähiges Feature umsetzt.

Das ist immer so und der Programmierer möchte dem nachkommen. Faulheit vereinfacht das und damit sind wir wieder beim Problem.

Möchte ich jedoch das Feature wirklich perfektionieren und super ausliefern, erhalte ich nicht die Zeit dazu. Ich muss mein Selbststudiums-Stundenanteil darauf investieren, damit meine Ansprüche dem gerade so gerecht werden und das reicht eig. trotzdem nicht. Stattdessen lautet die Mentalität hier als auch sonst wo: Erstmal was machen, fixen und verbessern kann man auch nach dem Release.

Das ist immer so. Der Kunde möchte seine Software haben und zwar möglichst schon Gestern. Klar, sonst hätte er sie auch nicht in Auftrag gegeben. Hinzu kommt, dass der Auftrag, für neue Software usw. meist schon ewig vor sich hergeschoben wurde, das ganze also dringend ist. Rechtzeitige Auftragsvergabe ist selten.

Dass du dich dann selbst ausbeutest ist natürlich auch ein Lösung des Problems.

Nein, das ist nicht korrekt und hat PCGH auch selbst klargestellt.

Dann hat sich das auch geklärt.
 
Zurück