News Direct Storage: 17 Prozent schnellere GPU-Dekomprimierung mit neuem Nvidia-Treiber

Das muß sichj dann von selbst erledigen. Wenn es mit Arbeit verbunden ist, dann wird es meist nicht gemacht.
In den meisten Fällen bringt es im Moment vermutlich auch nicht viel. Von daher schadet es in den Fällen auch nicht, wenn es nicht gemacht wird. In den Fällen, in denen es was bringt, die vermutlich eher mehr als weniger werden, werden sich Entwickler das aber schon mal überlegen und ich denke schon, dass die Implementierung über die Zeit einfacher wird.
Die Liste, von tollen Technologien, die entweder viel Versprochen und wenig gehalten haben oder die nicht umgesetzt worden sind, ist sehr, sehr, lang. Direct Storage ist auf dem Weg sich da einzureihen. Wäre ja nicht das erstmal das sowas vergeigt wurde (Multi GPU und DX 12, hust).
Naja, stimmt schon, dass oft mehr Wind drum gemacht wird, als angebracht gewesen wäre, Wunder passieren da eigentlich nie, was aber auch von Anfang an klar sein sollte, dafür sind zu viele Ineffizienzen schon aus dem Weg geräumt. Ist halt Marketing, man muss da die Erwartungshaltung schon entsprechend zügeln. Und ja, Multi-GPU für Gaming ist vorerst gescheitert, aber DX12 und Vulkan haben doch schon was gebracht. Natürlich wird weiterhin CPU-Leistung gebraucht, die Vorteile betreffen ja wirklich nur das Rendering, was ja schon stark von Multicore-CPUs profitiert hat.
 
Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.
Faulheit der Entwickler oder faulheit über die echten Gründe etwas tiefer nachzudenken und lieber die Faulheit bei den Entwicklern zu suchen?

Als ich noch mehr entwickelt habe wurde natürlich viel optimiert - genau wie heute.
Aber schon damals - es war eine Zeit wo Spiele noch auf eine DVD passten und auch kein 100 GB Day 1 Patch eigentlich die Installation vom Optischen Medium obsolet machte - hat man nach prioritäten optimieren müssen. 70-100h Wochen waren keine Seltenheit und dann überlegt man halt welche Änderungen notwendiger sind als andere.
Bugfixes waren notwendig. Flaschenhälse entfernen auch. Was nicht nowendig ist: Dinge zu optimieren die mit flotterer Hardware dann sowieso besser laufen. Denn bei der damals rasenden Entwicklung war spätestens 2 Jahre später das "Problem" von selbst erledigt

Die heutigen Probleme wie riesige Spiele, riesige Patches und auch deshalb lange Ladezeiten sind auch ein Resultat davon. Mich nervt es zwar als Spieler auch, aber letzten Endes ist es ein Problem das sich anscheinend selbst abschafft
 
Der neueste Geforce 535.98-Treiber erhöht die Ladezeiten auf der PCI-Express-5.0-SSD Crucial T700 um 17 Prozent.

Ähem, also ist das Teil dann langsamer??? Und wie heißt der Benchmark denn nun: AVOVADO oder AVOCADO?

Bitte, liebe Redakteure, lest vorm Veröffentlichen noch mal Korrektur! Auch in der Print-Ausgabe finde ich immer wieder derartige Fail´s.
 
Faulheit der Entwickler oder faulheit über die echten Gründe etwas tiefer nachzudenken und lieber die Faulheit bei den Entwicklern zu suchen?

Als ich noch mehr entwickelt habe wurde natürlich viel optimiert - genau wie heute.
Aber schon damals - es war eine Zeit wo Spiele noch auf eine DVD passten und auch kein 100 GB Day 1 Patch eigentlich die Installation vom Optischen Medium obsolet machte - hat man nach prioritäten optimieren müssen. 70-100h Wochen waren keine Seltenheit und dann überlegt man halt welche Änderungen notwendiger sind als andere.
Bugfixes waren notwendig. Flaschenhälse entfernen auch. Was nicht nowendig ist: Dinge zu optimieren die mit flotterer Hardware dann sowieso besser laufen. Denn bei der damals rasenden Entwicklung war spätestens 2 Jahre später das "Problem" von selbst erledigt

Die heutigen Probleme wie riesige Spiele, riesige Patches und auch deshalb lange Ladezeiten sind auch ein Resultat davon. Mich nervt es zwar als Spieler auch, aber letzten Endes ist es ein Problem das sich anscheinend selbst abschafft

Ich meine weniger Spiele, sondern die Entwicklung allgemein. Wenn man seinen Code nicht (gut) dokumentiert, dann hat jeder, der damit arbeiten muß, eine absolut üble Zeit. Geld wird dann auch noch massiv verbrannt.

Wenn man bei der Entwicklung irgendwas hinrotzt, dann führt das zu Problemen. Natürlich kann man immer irgendwelche Ausreden finden, aber Tatsache ist eben, dieser Pfusch geschieht aus Faulheit. Den Pfusch schönzureden und das Problem zu verharmlosen, ebnet dem Pfusch den Weg.
 
Wozu? Sehe da für PC kaum ein Sinn dahinter.
Gibt da so eine Sache am PC, die heißt RAM. Erheblich schneller als jede SSD. RAM sollte viel mehr genutzt werden. Gibt genug, die haben bereits 32GB. Sicherlich haben einige schon 64GB und einige wenige vermutlich 128GB RAM.
 
Ich meine weniger Spiele, sondern die Entwicklung allgemein. Wenn man seinen Code nicht (gut) dokumentiert, dann hat jeder, der damit arbeiten muß, eine absolut üble Zeit. Geld wird dann auch noch massiv verbrannt.
ach so.
Ja mangelnde Dokumentation ist ein Graus, stimme zu.
Wenn man bei der Entwicklung irgendwas hinrotzt, dann führt das zu Problemen. Natürlich kann man immer irgendwelche Ausreden finden, aber Tatsache ist eben, dieser Pfusch geschieht aus Faulheit. Den Pfusch schönzureden und das Problem zu verharmlosen, ebnet dem Pfusch den Weg.
In Zeiten wo solche Summen für Spieleentwicklungen aufgewendet werden ist das natürlich richtig, dass hier das bisschen mehr Geld wohl nicht verkehrt gewesen wäre.
Allerdings weisen Spielemagazine nie auf sowas hin, daher ists kein negativer Punkt an dem Entwickler arbeiten müssten, nicht wahr?

Spiele/Weltenstreaming ist so eine Sache, das kann man shcon hinpfuschen oder sauber machen, aber wenn du es richtig gut machen möchtest, müsstest du wohl heutzutage das Problem eh auslagern.
Beispiel Doom Eternal (sowohl positiv als auch negativ).
Stichwort Oodle (http://www.radgametools.com/oodle.htm) und andere Tools. Etwa Ladezeiten beim Level:
Stirbst du, bist du auch auf einer 08/15 Festplatte via Quickload sofort wieder im Level.
Das ist schon ziemlich cool gewesen, denn gestorben ist man im richtigen Schwierigkeitsgrad (es soll durchaus herausfordernd sein, man will sich danach ja wie ein Held fühlen) schon öfter. Hätte es Ladezeiten gegeben wie noch vor ein paar Jahren hätte ich das Spiel wohl entweder nie durchgespielt oder auf einem Schwierigkeitsgrad der mich nicht oft laden lässt, dann hätte ich aber die Challenge nicht gehabt und das Spiel wär nicht gut angekommen bei mir.

Negativ ist aber: Es war gerade Doom Eternal, das mit minimalstne Änderungen 30GB Patches laden ließ.
Was auch der Grund war, warum ich es erst lange nach Release gespielt habe, im Haus habe ich nur nur 2 Mbit
 
Der neueste Geforce 535.98-Treiber erhöht die Ladezeiten auf der PCI-Express-5.0-SSD Crucial T700 um 17 Prozent.

Ähem, also ist das Teil dann langsamer??? Und wie heißt der Benchmark denn nun: AVOVADO oder AVOCADO?

Bitte, liebe Redakteure, lest vorm Veröffentlichen noch mal Korrektur! Auch in der Print-Ausgabe finde ich immer wieder derartige Fail´s.
Gefixt. :-)

MfG
Raff
 
Wozu? Sehe da für PC kaum ein Sinn dahinter.
Gibt da so eine Sache am PC, die heißt RAM. Erheblich schneller als jede SSD. RAM sollte viel mehr genutzt werden. Gibt genug, die haben bereits 32GB. Sicherlich haben einige schon 64GB und einige wenige vermutlich 128GB RAM.
So viel schneller ist Ram gar nicht mehr gegenüber der Dekompression von DirectStorage und zudem ist der RAM auch ratz fatz voll, wenn dein PC nicht weiß, welche Daten genau er vorhalten soll. Nehmen wir an du bis im Raum mit 5 Portalen... dann muss dein PC 5 Welten in den RAM laden. Das dauert natürlich und dein RAM ist voll. Mit direct Storage lädt dein PC vielleicht nur halb so schnell von der Platte, aber dafür ist es egal wieviele Portale der Raum hat.
 
Die machen Überstunden ohne Ende. Das Problem ist der Zeitaufwand.
Das Problem sind unausgewogene Zeitpläne und das entweder zu wenig Programmierer eingestellt sind, oder das denen nicht die nötige Zeit gegeben wird.

Auf das Endprodukt, das als unfertiges Spiel released wird, ist die Aussage mit der Faulheit durchaus nachvollziehbar und haltbar. Nur bezieht sich das nicht auf den einzelnen Programmierer, sondern auf den gesamten, beteiligten Trupp in seiner Gesamtheit. Der Fehler ist da natürlich bei den Verantwortlichen zu suchen (Normalfall).
 
So viel schneller ist Ram gar nicht mehr gegenüber der Dekompression von DirectStorage und zudem ist der RAM auch ratz fatz voll, wenn dein PC nicht weiß, welche Daten genau er vorhalten soll. Nehmen wir an du bis im Raum mit 5 Portalen... dann muss dein PC 5 Welten in den RAM laden. Das dauert natürlich und dein RAM ist voll. Mit direct Storage lädt dein PC vielleicht nur halb so schnell von der Platte, aber dafür ist es egal wieviele Portale der Raum hat.
Naja das gesammte Spiel ist 44 Gb Groß, bedeutet selbst mit entpackten Texturen und shader fällt da garnicht so viel an.
Ich würde vermuten das 32Gib locker reichen um das Game ohne Direct Storage flüssige zu spielen von einer Sata SSD.
Ich meine das ding läuft ja auch auf einem 16Gib 3700 mit 6700 als GPU ohne Probleme.
Was denkst du erst wie das laufen müsste wenn man 32Gib Ram und 16Gib VRAM hat. Ganz zu schweigen von einem 5600 als CPU.

Aber wir werden es sehen denke ich.
 
Gefühlt werden Spiele aber auch immer schlechter optimiert. Vor 10-15 Jahren konnte man sich das nicht erlauben. Da hatte der Durchschnitts Dude 1 GB RAM oder so. Heute sind die Mengen so "explodiert" die meisten haben 16 GB (zumindest die halbwegs mit PC Wissen auf der Höhe sind wie hier im Forum oder aus meinem Freundeskreis.)

Wofür optimieren um RAM etc zu sparen? Der Kram ist ja eh da.

Das gleiche Frag ich mich bei Smartphones. Da hat ja bald jedes Mittelklasse Samsung Smartphone mehr RAM als ein Bürorechner. Wofür brauch man das alles. Wenn man heute einen Entwickler vor die Aufgabe stellen würde mir der Technik von '69 die Mondlandung zu schaffen der würde wahrscheinlich sagen das ist technisch gar nicht möglich.
 
Naja das gesammte Spiel ist 44 Gb Groß, bedeutet selbst mit entpackten Texturen und shader fällt da garnicht so viel an.
Ich würde vermuten das 32Gib locker reichen um das Game ohne Direct Storage flüssige zu spielen von einer Sata SSD.
Ich meine das ding läuft ja auch auf einem 16Gib 3700 mit 6700 als GPU ohne Probleme.
Was denkst du erst wie das laufen müsste wenn man 32Gib Ram und 16Gib VRAM hat. Ganz zu schweigen von einem 5600 als CPU.

Aber wir werden es sehen denke ich.
Ich rede nicht von R&C sondern generell. Die Zukunft ist DirectStorage und nicht 256gb Ram als Hauptspeicher in naher Zukunft. AAA Spiele sind im Schnitt 100 GB groß... Texturen können entpackt um ein vielfaches größer sein.

Zudem sind Konsolen Leaderplattformen... Wenn der PC anders gebaut ist als ne Konsole, dann wird schlecht optimiert. Was ich sagen will... Du kannst 1TB RAM im PC haben, aber wenn die Entwickler den nicht nutzen weil nicht sämtliche Szenarien in den RAM geladen werden, dann bringt dir das gar nichts. Sieht man ja, dass viel RAM nichts bringt, wenn du nur 8GB VRAM hast.
 
Gefühlt werden Spiele aber auch immer schlechter optimiert. Vor 10-15 Jahren konnte man sich das nicht erlauben.
Damals war das sogar eine Vollkatastrophe, weil man nicht mal jedem zumuten konnte, da noch 100GB neue Patches innerhalb der ersten Woche nach Veröffentlichung neu herunterzuladen.
Nein, da musste man noch erst auf die neue PC Games/Action/Hardware warten, um überhaupt Spieleupdates und Treiberupdates zu bekommen.
Da spielte man auch noch auf LAN's mit Freunden Diskjockey, um Spiele wie Counterstrike und Co von 1.0 in zahlreichen akrobatischen Showeinlagen auf eine ganz bestimmte Version zu pimpen, die dann auch noch richtig deutsch oder englisch sein musste.
Und oh wehe dem, der die "falsche" Spiele-cd hatte, wovon man nicht oder nur auf die falsche Version oder Spielesprache patchen konnte.
Alleine aus diesem Grund mussten wir schon nahezu jedes Spiel aus Tauschbörsen illegal besorgen, damit auch wirklich jeder dann eine zueinander kompatible Spieleversion herrichten konnte, damit man sich bei Command and Conquer etc. überhaupt sehen und verbinden konnte.
Die letzte LAN meines Lebens war dagegen richtig "lahm".
Rechner aufbauen, evtl. mal ein Spiel bei Steam nachladen, bei der fetten Leitung des Kumpels staunend kurz warten, fertig.
Das machen sich die Spielehersteller nun voll zu Nutzen.
Halbfertige Betas frühzeitig ausrollen, um Termine der Investoren und Publisher einzuhalten, und um schon mal Geld zu bekommen, die Käufer zudem als gratis Tester missbrauchen ähm engagieren (spart auch hier wieder Entwicklungsgelder), der Rest kommt halt später.
Unfertige Spiele sind zudem in deren Augen die besten Kopierschutzmechanismen, weil die das Spiel länger "unspielbar" machen als der beste teuer zu zahlende Kopierschutz, der am Ende auch nur wieder zu Problemen wie Stotterern und Frameeinbrüche sorgen kann, was Spiele "unoptimiert" erscheinen lässt.
Man kann es drehen und wenden wie man will: die Leute im Management sehen einfach nicht den Vorteil, den man durch abgelieferte Qualität erzielen kann, denn Quantität ist kurzfristig und mittelfristig immer die schnellere und kostengünstigere Variante, um schnell viel Geld zu scheffeln und Bilanzen zu frisieren.
Das ist dann auch der Grund, warum einige Spielefirmen dann irgendwann später den Geist aufgeben.
Gollum, Gollum! Ich denke ihr versteht den kleinen spaßigen Querverweis.
 
Zudem sind Konsolen Leaderplattformen... Wenn der PC anders gebaut ist als ne Konsole, dann wird schlecht optimiert. Was ich sagen will... Du kannst 1TB RAM im PC haben, aber wenn die Entwickler den nicht nutzen weil nicht sämtliche Szenarien in den RAM geladen werden, dann bringt dir das gar nichts.
Leider ist genau das, das Problem. Was echt schade ist. Weil im Prinzip hätte man als PC Spieler vermutlich nicht mal Sata SSD für ein flüssiges Spielen gebraucht. Aber weil Entwickler ja angst vor RAM nutzung haben wird kaum was vorgeladen, und man muss alles immer aus den platten ziehen.


Aber nochmals Direct Storage ist ja nur ich dekomprimiere Daten auf der GPU und schiebe sie dann in den RAM nicht mehr nicht weniger. Bedeutet mit einer schnellen CPU brauche ich das Garnicht.
 
Richtig gute Spiele haben sowieso keine Absatzprobleme und würden auch keinen Kopierschutz benötigen. Egal was für eine Technik drin verwendet wird um die Texturen zu laden. Siehe z. B. Minecraft. Da hat sich Nvidia quasi drangekoppelt mit Minecraft RTX um da noch Umsatz für sich rauszuholen, 10 Jahre nach erscheinen des Spiels.
 
Zurück