Inflation bei Videospeicher: Schlampige Optimierung der Konsolenversionen schuld?

Wie sich das zur Programmierung bis heute gerechnet hat weiß ich nicht aber der neue Systemspeicher, DDR4- Standard verspricht zukünftig/bald schnellere Geschwindigkeiten.
Wenn mich nicht alles täuscht sind wir jetzt schon bei DDR4- 3300 MHz., da gibt es diese Argument nicht mehr, daß Systemspeicher zu langsam sei.
MfG.
wolflux
 
Na dann liebe PCGH, macht doch mal die Probe aufs Exempel. Die Theorie erscheint erstmal in gewisser Weise plausibel aber das klingt alles so einfach umschrieben, dass ich da wenig drauf geben würde.
 
Aber DDR 4 ist immernoch langsamer als GDDR 5 außerdem denke ich, dass auch der Grafikspeicher weiterentwickelt wird in Richtung GDDR 6 :)
 
naja kommt ein neuer Hersteller von Speicherchip an den Grafikkarten markt, die Hersteller kaufen dort ein, die Grafikkarten werden dann trotz Fehler verkauft. bestes beispiel die Blackscreen/Bluescreenproblematik in den letzten Generationen. Und das passiert bei AMD UND Nvidia ich musste mich Monate lang belesen bevor ich eine fehlerfreie Karte bestellte und das ist keine Nvidia aber dennoch stärker als die GTX980.

Dann schiess mal los was du da hast weil ne HD 5870 ist nicht schneller :D mir fällt nur die 295x2 ein die schneller wäre aktuell.
 
Das Problem ist: Der Speicher ist begrenzt. Wenn 1GB VRAM für "Nicht-Texturen" weggenommen werden, dann passen die Texturen hinterher nicht in den VRAM (Wofür er ja eigentlich vorgesehen ist).

Es ist alleine schon darum unverständlich, da GPUs mit 6GB+ VRAM noch keine Massenware sind.

Darum finde ich es unverantwortlich eine Schlechte Portierung zu machen, nur um sich Arbeit zu sparen...

Es könnte natürlich auch sein, das die Spielindustrie das mit Absicht macht, um die Käufe für neue Hardware anzukurbeln. Womöglich haben die sich sogar abgesprochen (Ähnlich den Absprachen bei der Öl- und Autoindustrie).

Aber wir werden schon sehen wie sich das Entwickeln wird.
Vermutlich wird das aber auch jetzt nur hochgepuscht und in 6 Monaten erinnert sich dann keiner mehr daran.

Mal sehen ;)
 
sollen sie doch den ram der gpu pushen, mir auch egal wen für mittel @ 768 3gb verlangt werden,
gebe ich dem a10 eben 4gb frei
 
Zuletzt bearbeitet:
Wie sich das zur Programmierung bis heute gerechnet hat weiß ich nicht aber der neue Systemspeicher, DDR4- Standard verspricht zukünftig/bald schnellere Geschwindigkeiten.
Wenn mich nicht alles täuscht sind wir jetzt schon bei DDR4- 3300 MHz., da gibt es diese Argument nicht mehr, daß Systemspeicher zu langsam sei.
MfG.
wolflux

Doch gibt es.


Dein DDR4-3300 RAM Müsste ca. auf 50 GB/s kommen.
Der GDDR5 Speicher einer GTX 970 läuft mit 7000 Mhz und ist mit 224 GB/s angebunden.
 
Stattdessen haben manche Spiele absolut gar kein Problem damit, auch mal Grafikkarten mit sechs oder gar acht GByte Videospeicher an das Limit zu bringen.

Kein Problem auch mal 6 oder 8 GB ans Limit zu bringen? Das steht nun völlig im Gegensatz zu dem was in fast jeder Print-Ausgabe steht. Dort wird regelmäßig nur auf Watch Dogs als Extrembeispiel verwiesen...
 
Kein Problem auch mal 6 oder 8 GB ans Limit zu bringen? Das steht nun völlig im Gegensatz zu dem was in fast jeder Print-Ausgabe steht. Dort wird regelmäßig nur auf Watch Dogs als Extrembeispiel verwiesen...

In meinen Augen ist das Vergangenheit, die Entwicklung war bei der Vorstellung von z.B.: der PS4 bereits abzusehen.
Wir werden uns an den steigenden VRam Hunger gewöhnen müssen.
 
wie soll das technisch gehen, das cpu relevant in den ram der gpu geschrieben wird:ugly:

die apu mal außen vor
Das geht ganz einfach, indem der Programmierer sagt "Lade Datei X in Speicher Y".
Die Speicherverwaltung ist Bestandteil einer jeder Anwendungen, wenn da die Programmierer pfuschen, wird mehr Speicher beansprucht als eigentlich nötig ist (Stichwort: Speicherleck/memory leak).
 
Tja, jetzt ist nur die Frage ob dieses Problem in Zukunft dadurch gemindert werden kann dass die Spiele ihre Daten in den RAM auslagern und nicht auf die HDD, bzw. Auslagerungsdatei.

Aber dieses Problem besteht auf jeden Fall, ansonsten wären die Anforderungen nicht so extrem für High/Ultra-Settings gestiegen.
 
Sommerloch noch nicht vorbei? Es gibt noch mehr spannende Theorien, z.B. über Chemtrails und den Erzengel Michael.
 
Es ist ja nun mal so, dass es alle lange Zeit gewohnt waren, mit durchschnittlicher Hardware auf maxultrahöhergehtnicht zu spielen.
Bedanken konnte man sich da bei den alten Konsolen, die das mit ihren maximal 5min Schlauchleveln und Detailmatsch ermöglichten.
Jetzt kommt ein Mittelerde daher, in dem man ALLES auf ultra/hoch stellen kann und lediglich die Texturen über das Mehr an VRam entscheiden. Sprich: alles hoch/ultra und Texturen auf hoch/mittel sind mit 4 respektive 2-3GB-Karten machbar.
Man kann also förmlich nachweisen, dass bei diesem Spiel die Texturen die Schuld tragen.
Warum sollte ein Spiel mit veränderter Textureinstellung wie hier, den Speicher für Code missbrauchen, der da nichts zu suchen hat, statt für die - extra per dlc-Link installierten - HD-Texturen?! Wo ergibt das einen Sinn?!

Ich finde es durchaus ok, dass man für ultra auch mal wieder etwas "bessere" oder "besser ausgewählte" Hardware benötigt und sich damit noch ein wenig Extrasahne erkauft, so wie es früher war. Ansonsten wären solche Anschaffungen auch witzlos.
Die schlampigen Portierungen gibt es, keine Frage. Aber ausgerechnet Mittelerde:MS gehört nicht dazu, denn das läuft butterweich und bisher bugfrei.
 
Bei Overclock.net und hier im Thread sieht man, wie wenig Ahnung die Leute von der Technik haben...

Im Gegensatz zu den Konsolen, wo der Speicher unified ist, d.h. es keinen Unterschied zwischen Speicher für die CPU und GPU gibt und jedes Byte gleichermaßen für beide nutzbar ist, sind es auf dem PC fundamental unterschiedliche Speicherarten.

D.h. auf dem PC kann die CPU auf VRAM i.d.R. gar nicht direkt zugreifen. Und es ist relativ mühselig, Daten in den GPU Speicher zu laden (das geht nur über entsprechende Direct3D Befehle). Zudem wird der Speicher der GPU weitestgehend dynamisch durch Direct3D verwaltet - ob sich eine Textur gerade im VRAM oder RAM befindet, ist im allgemeinen gar nicht in der Kontrolle des Spiels.

Warum sollte man sich die Mühe machen, Daten, die für die GPU ohnehin völlig irrelevant sind, überhaupt in das VRAM zu laden, mit all dem Umstand, den das bedeutet? Arbeit sparen tut man sich dadurch jedenfalls nicht.

Was die meisten übersehen ist, dass der sichtbare Ertrag mit höherem Aufwand immer mehr abnimmt. Das ist auch bei Texturen nicht anders. Zwischen 256, 512 und auch 1024k Texturen sieht man einen deutlichen Unterschied. Zu 2048k Texturen, die 4x so viel Speicher als 1024k Texturen einnehmen, ist der Unterschied schon nur noch dann sichtbar, wenn sich der Spieler im Spiel praktisch unmittelbar vor dem Objekt befindet, auf dem diese Textur pappt.

Das ist der Hauptgrund, warum "Ultra"-Texturen so viel mehr Speicher brauchen und scheinbar so wenig bessere Qualität liefern. Dazu kommen noch andere Dinge, wie z.B. das die gefühlte Qualität sehr viel stärker durch Shader-Effekte (Regen, Reflektion etc.) bestimmt wird, als durch die Textur.
 
Zuletzt bearbeitet:
Zurück