Knuddelsucht
Komplett-PC-Käufer(in)
Das wäre eine Technik für Jedi Survivor. Alles was dort die CPU entlastet ist Gold Wert
In den meisten Fällen bringt es im Moment vermutlich auch nicht viel. Von daher schadet es in den Fällen auch nicht, wenn es nicht gemacht wird. In den Fällen, in denen es was bringt, die vermutlich eher mehr als weniger werden, werden sich Entwickler das aber schon mal überlegen und ich denke schon, dass die Implementierung über die Zeit einfacher wird.Das muß sichj dann von selbst erledigen. Wenn es mit Arbeit verbunden ist, dann wird es meist nicht gemacht.
Naja, stimmt schon, dass oft mehr Wind drum gemacht wird, als angebracht gewesen wäre, Wunder passieren da eigentlich nie, was aber auch von Anfang an klar sein sollte, dafür sind zu viele Ineffizienzen schon aus dem Weg geräumt. Ist halt Marketing, man muss da die Erwartungshaltung schon entsprechend zügeln. Und ja, Multi-GPU für Gaming ist vorerst gescheitert, aber DX12 und Vulkan haben doch schon was gebracht. Natürlich wird weiterhin CPU-Leistung gebraucht, die Vorteile betreffen ja wirklich nur das Rendering, was ja schon stark von Multicore-CPUs profitiert hat.Die Liste, von tollen Technologien, die entweder viel Versprochen und wenig gehalten haben oder die nicht umgesetzt worden sind, ist sehr, sehr, lang. Direct Storage ist auf dem Weg sich da einzureihen. Wäre ja nicht das erstmal das sowas vergeigt wurde (Multi GPU und DX 12, hust).
Die machen Überstunden ohne Ende. Das Problem ist der Zeitaufwand.Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.
Faulheit der Entwickler oder faulheit über die echten Gründe etwas tiefer nachzudenken und lieber die Faulheit bei den Entwicklern zu suchen?Es gibt unzählige Beispiele, bei denen das nicht so ist. Eigentlich hat quasi alles, bei dem man groß optimieren muß, ein riesiges Problem mit der Faulheit der Programmierer.
Faulheit der Entwickler oder faulheit über die echten Gründe etwas tiefer nachzudenken und lieber die Faulheit bei den Entwicklern zu suchen?
Als ich noch mehr entwickelt habe wurde natürlich viel optimiert - genau wie heute.
Aber schon damals - es war eine Zeit wo Spiele noch auf eine DVD passten und auch kein 100 GB Day 1 Patch eigentlich die Installation vom Optischen Medium obsolet machte - hat man nach prioritäten optimieren müssen. 70-100h Wochen waren keine Seltenheit und dann überlegt man halt welche Änderungen notwendiger sind als andere.
Bugfixes waren notwendig. Flaschenhälse entfernen auch. Was nicht nowendig ist: Dinge zu optimieren die mit flotterer Hardware dann sowieso besser laufen. Denn bei der damals rasenden Entwicklung war spätestens 2 Jahre später das "Problem" von selbst erledigt
Die heutigen Probleme wie riesige Spiele, riesige Patches und auch deshalb lange Ladezeiten sind auch ein Resultat davon. Mich nervt es zwar als Spieler auch, aber letzten Endes ist es ein Problem das sich anscheinend selbst abschafft
ach so.Ich meine weniger Spiele, sondern die Entwicklung allgemein. Wenn man seinen Code nicht (gut) dokumentiert, dann hat jeder, der damit arbeiten muß, eine absolut üble Zeit. Geld wird dann auch noch massiv verbrannt.
In Zeiten wo solche Summen für Spieleentwicklungen aufgewendet werden ist das natürlich richtig, dass hier das bisschen mehr Geld wohl nicht verkehrt gewesen wäre.Wenn man bei der Entwicklung irgendwas hinrotzt, dann führt das zu Problemen. Natürlich kann man immer irgendwelche Ausreden finden, aber Tatsache ist eben, dieser Pfusch geschieht aus Faulheit. Den Pfusch schönzureden und das Problem zu verharmlosen, ebnet dem Pfusch den Weg.
Gefixt.Der neueste Geforce 535.98-Treiber erhöht die Ladezeiten auf der PCI-Express-5.0-SSD Crucial T700 um 17 Prozent.
Ähem, also ist das Teil dann langsamer??? Und wie heißt der Benchmark denn nun: AVOVADO oder AVOCADO?
Bitte, liebe Redakteure, lest vorm Veröffentlichen noch mal Korrektur! Auch in der Print-Ausgabe finde ich immer wieder derartige Fail´s.
So viel schneller ist Ram gar nicht mehr gegenüber der Dekompression von DirectStorage und zudem ist der RAM auch ratz fatz voll, wenn dein PC nicht weiß, welche Daten genau er vorhalten soll. Nehmen wir an du bis im Raum mit 5 Portalen... dann muss dein PC 5 Welten in den RAM laden. Das dauert natürlich und dein RAM ist voll. Mit direct Storage lädt dein PC vielleicht nur halb so schnell von der Platte, aber dafür ist es egal wieviele Portale der Raum hat.Wozu? Sehe da für PC kaum ein Sinn dahinter.
Gibt da so eine Sache am PC, die heißt RAM. Erheblich schneller als jede SSD. RAM sollte viel mehr genutzt werden. Gibt genug, die haben bereits 32GB. Sicherlich haben einige schon 64GB und einige wenige vermutlich 128GB RAM.
Wollte das nur herausstellen, weil du in deinem Kommentar auf diesen Aspekt nicht mehr eingegangen bist.Habe ich ja auch nicht abgestritten, aber seine Aussage dass das Leistung kosten würde ist halt schlicht falsch.
Ist ja jetzt auch wumpe, mir ging es ausschließlich um den Aspekt der Falschinformation, daher habe ich das im Zitat auch fettgedruckt herausgestellt.Wollte das nur herausstellen, weil du in deinem Kommentar auf diesen Aspekt nicht mehr eingegangen bist.
Das Problem sind unausgewogene Zeitpläne und das entweder zu wenig Programmierer eingestellt sind, oder das denen nicht die nötige Zeit gegeben wird.Die machen Überstunden ohne Ende. Das Problem ist der Zeitaufwand.
Naja das gesammte Spiel ist 44 Gb Groß, bedeutet selbst mit entpackten Texturen und shader fällt da garnicht so viel an.So viel schneller ist Ram gar nicht mehr gegenüber der Dekompression von DirectStorage und zudem ist der RAM auch ratz fatz voll, wenn dein PC nicht weiß, welche Daten genau er vorhalten soll. Nehmen wir an du bis im Raum mit 5 Portalen... dann muss dein PC 5 Welten in den RAM laden. Das dauert natürlich und dein RAM ist voll. Mit direct Storage lädt dein PC vielleicht nur halb so schnell von der Platte, aber dafür ist es egal wieviele Portale der Raum hat.
Ist ja jetzt auch wumpe, mir ging es ausschließlich um den Aspekt der Falschinformation
, daher habe ich das im Zitat auch fettgedruckt herausgestellt.
Ich rede nicht von R&C sondern generell. Die Zukunft ist DirectStorage und nicht 256gb Ram als Hauptspeicher in naher Zukunft. AAA Spiele sind im Schnitt 100 GB groß... Texturen können entpackt um ein vielfaches größer sein.Naja das gesammte Spiel ist 44 Gb Groß, bedeutet selbst mit entpackten Texturen und shader fällt da garnicht so viel an.
Ich würde vermuten das 32Gib locker reichen um das Game ohne Direct Storage flüssige zu spielen von einer Sata SSD.
Ich meine das ding läuft ja auch auf einem 16Gib 3700 mit 6700 als GPU ohne Probleme.
Was denkst du erst wie das laufen müsste wenn man 32Gib Ram und 16Gib VRAM hat. Ganz zu schweigen von einem 5600 als CPU.
Aber wir werden es sehen denke ich.
Damals war das sogar eine Vollkatastrophe, weil man nicht mal jedem zumuten konnte, da noch 100GB neue Patches innerhalb der ersten Woche nach Veröffentlichung neu herunterzuladen.Gefühlt werden Spiele aber auch immer schlechter optimiert. Vor 10-15 Jahren konnte man sich das nicht erlauben.
Leider ist genau das, das Problem. Was echt schade ist. Weil im Prinzip hätte man als PC Spieler vermutlich nicht mal Sata SSD für ein flüssiges Spielen gebraucht. Aber weil Entwickler ja angst vor RAM nutzung haben wird kaum was vorgeladen, und man muss alles immer aus den platten ziehen.Zudem sind Konsolen Leaderplattformen... Wenn der PC anders gebaut ist als ne Konsole, dann wird schlecht optimiert. Was ich sagen will... Du kannst 1TB RAM im PC haben, aber wenn die Entwickler den nicht nutzen weil nicht sämtliche Szenarien in den RAM geladen werden, dann bringt dir das gar nichts.