Inflation bei Videospeicher: Schlampige Optimierung der Konsolenversionen schuld?

Das geht ganz einfach, indem der Programmierer sagt "Lade Datei X in Speicher Y".
Die Speicherverwaltung ist Bestandteil einer jeder Anwendungen, wenn da die Programmierer pfuschen, wird mehr Speicher beansprucht als eigentlich nötig ist (Stichwort: Speicherleck/memory leak).

Nein so einfach geht das nicht vorallem bei Intel cpu´s ,
denn dann müsste das über die northbridge laufen aber das speichermanagment beherrscht Intel noch nicht,
als das sich die cpu über die nb bedienen kann bzw. das die cpu auf den dedizierten gpu speicher zugreifen kann.
 
Hab's mal korrigiert.:D
Hihi stimmt, allerdings waren das mitunter Steckmodule. Grafikkarten wo ich das selbst mal benutzt hatte waren damals Matrox Karten.. die Millenium und die Mystique. Gab ja auch Soundkarten wo Speicher zusätzlich verwendet werden konnte/musste Soundblaster 32 z.B. (Vesa Local Bus *hust*) good old times:ugly: btw ist das dann nicht "SRam" SoundRam:schief:
 
Zuletzt bearbeitet:
Nein so einfach geht das nicht vorallem bei Intel cpu´s ,
denn dann müsste das über die northbridge laufen aber das speichermanagment beherrscht Intel noch nicht,
als das sich die cpu über die nb bedienen kann bzw. das die cpu auf den dedizierten gpu speicher zugreifen kann.
Gut, AMD war der erste der den Speicherkontroller IN die CPU verfrachtet hat (seit K8 Architektur), aber seit der Nehalem Architektur bei Intel hat sich das auch geändert z.B. im ersten Core i7 (Bloomfield 2008)... warum Northbridge??
 
Gut, AMD war der erste der den Speicherkontroller IN die CPU verfrachtet hat (seit K8 Architektur), aber seit der Nehalem Architektur bei Intel hat sich das auch geändert z.B. im ersten Core i7 (Bloomfield 2008)... warum Northbridge??
Soweit ich weiß, läuft Mordors Schatten auch noch auf einem Q6600 und der hat noch eine Northbridge. Was theoretisch mit neuerer Technik geht, kann vorliegend praktisch also noch nicht implementiert sein.

Bzw. wenn man den Gedanken fortsetzt, müsste das Game mit einem alten Q6600 beser laufen als mit einem i7, weil es mit der alten CPU viele Daten in den Ram (statt VRam) schreiben müsste und somit die PC Architektur besser ausnutzt. :schief:
 
Zudem wird der Speicher der GPU weitestgehend dynamisch durch Direct3D verwaltet - ob sich eine Textur gerade im VRAM oder RAM befindet, ist im allgemeinen gar nicht in der Kontrolle des Spiels.
Deswegen ist:
PCGH schrieb:
Reicht der verfügbare Videospeicher nicht aus, werden die Daten jedoch nicht in den Arbeitsspeicher geschrieben. Die Daten landen auf den wesentlich langsameren Festplatten und Solid State Drives. Dies äußert sich wiederum in starken Nachladerucklern.
Auch Unsinn. Der Fallback bei vollem VRAM ist der CPU-Ram, nicht der Festspeicher. Nur hat der im Vergleich halt immer noch eine sehr niedrige Bandbreite.

@Topic: Bitte entweder selbst einen Dump des VRams machen und die Vermutung beweisen/wiederlegen oder solche unsinnigen Ideen nicht noch weiter verbreiten bitte.
 
Bei Konsolenspielen wird afaik einiges an Berechnungen von der eher schwachbrüstigen CPU auf die GPU verlagert um jene zu entlasten soweit es geht. Möglicherweise wurde dies in der PC Fassung beibehalten, all zu viel dürfte dies aber wohl nicht den VRAM belasten. Der Hauptgrund dürften wohl immer noch "Ultra" Texturen sein, schließlich werden nur wenige, dazu optimierte Berechnungen auf die GPU verlagert.
 
Auf den ersten Blick scheint die Theorie schlüssig. Ich denke jedoch, dass sie das etwas zu einfach sieht. Außerdem darf man dabei auch nicht vergessen, dass höher aufgelöste Texturen, Kantenglättung durch Multisampling, größere Weitsicht etc. Auch Speicher frisst.
 
Diese Theorie kann nur von jemandem stammen der noch nie mit OpenGL oder DirectX entwickeln musste. Was für einen Aufwand es da macht Daten auf der GPU abzulegen ist Wahnsinn wenn man bedenkt das RAM anfordern selbst in hardwarenahen Sprachen Standardbefehle sind. Zudem können die meisten GPUs Daten nur in Feldern ablegen, die dann auch nur sehr primitive Datentypen enthalten dürfen, einzelne Objekte sind sehr aufwändig, Baumstrukturen unmöglich. Außerdem müssen die Daten bevor sie an die GPU gesendet werden können im RAM liegen, ein direkter Stream von der Festplatte ist nicht möglich. Im Übrigen, PCGH, auch ein "guter" PC-Port legt außer Texturen noch andere Dinge im VRAM ab, z.B. Geometriedateien oder Shader.

Ich die Theorie aber im Grundsatz für richtig, auch wenn die Begründung falsch ist. Mit 8Gb VRAM auf den neuen Konsolen kann man sich aufwändiges Streamen schon mal sparen und einfach alle Texturen und Objekte einfach zu Levelbeginn in den VRAM laden. Der arme PC, der die Ubisoft Portierung davon ertragen muss, muss dann ständig Daten über den PCIe Bus schaufeln, da er Teile der Texturen und Objekte in den RAM auslagern musste. Das kostet nunmal Zeit.
 
Ich kläre euch mal auf, was da im VRam liegt.:daumen:

15% ist von dem Spiel.
Auf den restlichen 85% vom Grafikspeicher werden eure Daten von der NSA gesammelt, die dann per Lichtsignal über den Monitor gesendet und von einem Satelliten empfangen werden.:lol::ugly:
 
Eine Theorie, geäußert im Forum von Overclock.net, könnte dahingehend aufschlussreich sein, wenngleich sie einen Nachweis schuldig bleiben muss, denn die Hauptschuld wird den Spieleentwicklern und den Konsolenversionen zugeschoben.
Durch diesen Satz torpediert sich eigentlich die ganze News. Von den anderen technischen Aspekten mal abgesehen: Geht das überhaupt? Die CPU kann ja in den VRAM schreiben, allerdings ist zu bezweifeln, dass dort sämtiche Daten landen dürfen und es ist wohl kaum der Fall, dass der VRAM als Arbeitsspeicher für die CPU dienen kann (damit wären wohl Konzepte wie AMDs hUMA bereits jetzt schlicht unnötig).
Dachte ihr würdet euch auf einem (vor allem technischen) gewissen Niveau bewegen, aber hauptsache mal in den sozialen Medien zusätzlich zum Link einen reißerischen Kommentar posten...
 
Wenn an dem so ist sollte das auf alle Fälle in spätere Spielebewertungen mit einfließen. Diejenigen die nicht den Rucksack voll mit GraRAM haben müssen wieder drunter leiden ... :daumen2:
 
Es macht aufjedenfall Sinn, den VRAM als "SSD" für die Rohtexturen zu "missbrauchen" Damit würden Nachladeruckler, ausgelöst durch ständiges Nachladen der Texturen von langsamen Fstplatten etc., weitestgehend entfallen.

Problem wird nur, wenn der Rohdatensatz und Arbeitssatz im VRAM die Grenzen sprengen. Da die Rohdaten als erstes im VRAM sind, müssen dann wohl zwangsweise die "Arbeitsdaten" in den RAM ausgelagert werden, es sei denn, man hat eine "Fallback-Strategie" entwickelt, dass die Rohdaten in den RAM kommen statt der Arbeitsdaten. In beiden Fällen bliebe ein hoher VRAM-"Verbrauch" erhalten.

Meine Theorie dazu :D
 
Ich kläre euch mal auf, was da im VRam liegt.:daumen:

15% ist von dem Spiel.
Auf den restlichen 85% vom Grafikspeicher werden eure Daten von der NSA gesammelt, die dann per Lichtsignal über den Monitor gesendet und von einem Satelliten empfangen werden.:lol::ugly:

Trotz allem noch plausibler als das, was im Artikel steht. ;)
 
Der Gedanke mit den im VRAM geparkten Daten kam mir auch schon mal vor ein paar Monaten, wenn auch mehr im Halbsuff, weil die Idee Daten im VRAM zu parken eigentlich ziemlich dämlich ist. Zumindest fällt es anhand jüngst erschienener Titel (Shadow of Mordor ... lol, hinter welcher Textur versteckt sich den da bitte der 6 Gig Verbrauch bei so mauer Grafik?!) schwer nachzuvollziehen, warum der Verbrauch auf einmal ohne erkennbaren Sprung bei der Optik so rasant angestiegen ist.
 
@PCGH

You don't say? Ich hab das schon seit geraumer Zeit gesagt, dass schlampige Umsetzungen/fehlende Optimierungen diese Inflation hervorrufen (Titanfall, WatchDogs, etc. pp).
Scheiß Last-Gen Konsolen, die schon heute nichtmal 1080p schaffen und Ubisoft das 30fps Gefrickel als super cineastisches Erlebnis verkaufen möchte...
 
Wenn die Spiele wirklich auf Moderne HW Setzen würden, dann würden 80 % der Leute bei PCGH am Weinen sein. Wenn es dann heißt du brauchst ein i7 4770 K und mehr wie 8 gb ram und mehr wie 2 gb Vram, was meinste was das bei euch eine Ruckel Party geben würde. Das wäre vom allerfeinsten :D
 
Vor allem ubisoft und cineastisch... Dachte 21:9 seitenverhältnis ist auch super cineastisch... Frage mich dann nur warum ubisoft sich weigert den Support dafür in ihre Spiele zu implementieren?!? Typisch noobisoft
 
Zurück