Inflation bei Videospeicher: Schlampige Optimierung der Konsolenversionen schuld?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Inflation bei Videospeicher: Schlampige Optimierung der Konsolenversionen schuld?

Eine Theorie, geäußert im Forum von Overclock.net, könnte eine Erklärung bieten für die fast inflationäre Zunahme der Belegung des Videospeichers in PC-Spielen, bestes Beispiel Watch Dogs oder Mordors Schatten. Scheinbar nutzen die Spieleentwickler den Videospeicher als Zwischenspeicher für das Auslagern aller Arten von Daten und nicht nur für Texturen. Mangelnde Optimierung und Portierung von Konsolentechniken könnten die Ursache sein.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Inflation bei Videospeicher: Schlampige Optimierung der Konsolenversionen schuld?
 
Also zumindest die Grafik der betroffenen Spiele lässt nun wirklich nicht auf 6GiB VRAM Verbrauch schließen. Insofern ist die Theorie interessant, aber waren so große Entwicklerstudios wirklich dermaßen dämlich, das nicht zu umgehen? Klingt nach einem einfachen Eingriff:huh:
 
Hört sich plausibel an.

6GB VRAM bei Mordors Schatten? Welche Textruen rechtfertigen denn das? ^^ kann eigentlich nur so sein, dass da noch ein bisschen mehr mit einfließt.
 
Für die Konsolen wird halt primär entwickelt und optimiert und deren Hardware Specs werden halt recht schnell auch zu Mindestanforderungen am PC. War bei der letzten Generation auch nicht anders, man denke nur daran wie GTA4 auf nem schnellen Dual Core lief und wie schnell sich plötzlich Quadcores durchsetzten. Und das 2 gig VRAM bald zu wenig sein werden, habe ich auch schon vor nem Jahr gesagt.
 
Oder ist das gewollt?!?:huh:
Beispiel. Nvidia bestellt bei Ubisoft eine größe Stückzahl an Watch Dogs Keys um diese als Bundle mit neuen GPUs, die mehr VRAM besitzen, zu verscherbeln.
Dafür soll das Spiel den mehr VRAM auch relevant machen.
Und die 3 GB haben sowieso nicht gereicht.
Jetzt verkaufen die Leutchen ihre 3GB GPUs und kaufen welche mit 4GB.
Nächstes Jahr kommen neue Maxwells mit 6 GB und das ganze fängt von vorne an.

PS. Ich lach mit tot wenn jetzt COD AW auch noch 4GB braucht.
 
Wahnsinn was für "voll" pros hier ihre Kommentare zum Thema bring, sowas wie dämlich und Tölpel aber 6GB+ Vram verbrauch lässt sich anders ja schon gar nicht mehr erklären und bei Titanfall haben die Entwickler ja auch die Videos in den Vram geladen.

Für die Konsolen wird halt primär entwickelt und optimiert und deren Hardware Specs werden halt recht schnell auch zu Mindestanforderungen am PC.

also 8 low Power Kerne mit 1,6ghz und 8(6)gb ram ohne dedizierten Grafik speicher.
 
Zuletzt bearbeitet:
Eigentlich war das ja abzusehen, weshalb ich nicht verstehe, warum Nvidia immer noch beim Speicher so sehr knausert. Gut, die sind jetzt auch mal bei 4 GiByte angekommen, aber AMDs Konter auf Maxwell wird sicher 6 bis 8 GiByte auffahren und dann hoffentlich auch erst mal für die Speicheranforderungen für Ultradetails und Auflösungen jenseits von FHD reichen.
 
Was für eine selten d... Theorie.
Keinerlei Ahnung von nix?

Was liegt im Arbeitsspeicher?
Was im Grafikspeicher? :daumen2:

Deine Aussage stimmt nicht.
Im Grunde ist der GDDR5 Speicher einfach ein Speicherchip wie auch DDR3 bei RAM.
Was im Speicher gespeichert oder abgelegt wird, ist ja dem Speicherhip egal.
Nur weil er auf einer GPU ist, muss er keine Texturen etc. speichern, siehe CUDA und Co.
Kannst ja auch sosntiges mit dem Teil machen.
 
Ich sag dazu jetzt nix, habe ich mir ja letztesmal schon die bösen Kommentare angehört als ich von schlechter Optimierung im "Mordors Schatten belegt mit Ultra Texturen 6GB Grafikspeicher" geredet habe. Ich denke die Theorie an sich ist nicht abwegig und sollte jetzt einfach nur noch einen Nachweis bringen um offiziell anprangern zu können. Für mich rechtfertigen 5-10% schönere Texturen jedenfalls keine 200% belegten Grafikspeicher aber ok. :D
 
"Reicht der verfügbare Videospeicher nicht aus, werden die Daten jedoch nicht in den Arbeitsspeicher geschrieben. Die Daten landen auf den wesentlich langsameren Festplatten und Solid State Drives. Dies äußert sich wiederum in starken Nachladerucklern."
Testet das doch einfach mal! Schnappt euch nen RamDisk-Tool, schmeißt die RamDisk an und definiert die RamDisk als Auslagerungsdatei. Hat man dann plötzlich extreme Performancegewinne, dann sollte der Schuldige doch eigentlich gefunden sein! :daumen:
 
Zuletzt bearbeitet:
Angenommen, es würde zutreffen, was würde sich dann ändern?

Dass plötzlich Spielhersteller massenhaft Geld in Optimierungen stecken, damit Besitzer speicherschwacher Karten alles auf höchsten Einstellungen spielen können?

Das ist doch nie passiert. Das Geflenne war doch immer groß, wenn die eigene gar nicht mal so alte Grafikkarte nicht mehr hinterher kam, damals z.B., als der Sprung von 256 MB auf 512 MB stattfand, oder dann auf 1 GB, dann auf 2 GB, usw...

Hat sich da jemand über schlechte Konsolenports beklagt?

Es ist nunmal so wie es ist: mit 4GB ist man bereits jetzt nicht mehr gerüstet für immer mehr aktuelle Spiele, wenn man auf allerhöchste Qualität Wert legt.

Abhilfe schafft, die Regler ein wenig nach links zu schieben.

Testet das doch einfach mal! Schnappt euch nen RamDisk-Tool, legt die RamDisk an und schmeißt definiert die RamDisk als Auslagerungsdatei. Hat man dann plötzlich extreme Performancegewinne, dann sollte der Schuldige doch eigentlich gefunden sein! :daumen:

Eigentlich nicht unbedingt, denn Spiele können auch eigene temporäre Dateien anlegen, die halt nicht unbedingt so ohne weiteres auf eine RAM-Disk verlagert werden können.
 
Zuletzt bearbeitet:
Hat sich da jemand über schlechte Konsolenports beklagt?
JA.
STÄNDIG.
Früher.
Jetzt rauscht es an mir vorbei ... . ;)

Das ist doch nie passiert. Das Geflenne war doch immer groß, wenn die eigene gar nicht mal so alte Grafikkarte nicht mehr hinterher kam, damals z.B., als der Sprung von 256 MB auf 512 MB stattfand, oder dann auf 1 GB, dann auf 2 GB, usw...
Das ist so einfach, wie es falsch ist.
Die Übertragungsrate des VRAMs hat wesentlich größeren Einfluß auf die Spielbarkeit.
Meine HD 4850 (512 MB VRAM) hat sogar Crysis auf mittleren Details relativ schnell berechnen können, bis zu ihrem Ableben. :(

Die Faulheit der Programmierer ist meist nicht mal der Grund für den Speichrrausch.
Meist heißt es schnell, schnell, wir müssen Weihnachten fertig sein.

Was waren das noch für Zeiten, als ein Spiel auf drei Disketten ging:


Start.jpg .

Und der Unterschied zwischen High und Ultra ist meist optisch winzig, rechentechnisch aber gigantisch
 
Und trotzdem ist neben der Speichergeschwindigkeit kontinuierlich auch der Speicherausbau gestiegen.

Mehr Speichergebrauch ist auf jeden Fall kein Indiz für faule Programmierer oder ressourcenverschleudernde Grafiker oder ein Weihnachtsgeschäft, vor allem für Spiele, die im Sommer erscheinen.

Es sei denn, man nimmt 16-Bit Spiele, die damals auf meinetwegen drei Disketten passten, als Vorbild. Nur war die Grafik damals entsprechend grausig.

Und bestimmt sind die Spielehersteller damals auch schon kritisiert worden, weil richtig gut programmierte Spiele verdammt noch mal auf eine Diskette zu passen hatten, und nicht auf verschwenderische drei.
 
naja kommt ein neuer Hersteller von Speicherchip an den Grafikkarten markt, die Hersteller kaufen dort ein, die Grafikkarten werden dann trotz Fehler verkauft. bestes beispiel die Blackscreen/Bluescreenproblematik in den letzten Generationen. Und das passiert bei AMD UND Nvidia ich musste mich Monate lang belesen bevor ich eine fehlerfreie Karte bestellte und das ist keine Nvidia aber dennoch stärker als die GTX980.
 
Naja alle ich sag mal 2-3 Jahre ne neue Grafikkarte kaufen mit mehr VRAM, ist halt "effizienter" als alle 2-3 Jahre mal 4 GB Ram nachzurüsten :D
 
Zurück