Geforce RTX 3070 8 GB im Test: Spezial-Benchmarks visualisieren Speichermangel

@Grestorn
Ich nehme auch an das "Shared" das Systemram bezeichnet. Weiß es aber nicht genau.

@Methusalem

Wenn der Programmierer 100 rote Punkte in der Mitte vom Bildschirm darstellen möchte, der Grafikkarten-Speicher aber nur für 50 rote Punkte in der Mitte vom Bildschirm ausreicht, weil der User kein Geld hat, ... dann fliegen 50 rote Punkte ins Systemram, und der Speichermanager lässt das System einbrechen weil es versucht alle Punkte wenn sie gebraucht werden ins VRAM zu kopieren.

Und wenn der Programmierer geschickt ist, dann fängt er das ab, und lässt 50 rote Punkte verschwinden. Er bescheißt Dich als um 50 rote Punkte.

Die Frage ist: Siehst Du es dass 50 rote Punkte fehlen oder nicht?
Ist es Dir das Geld für die 50 roten Punkte wert, das Du eine Graka kaufst die auch alle Punkte darstellen kann oder nicht?

Das ist der rote Punkt um den es hier geht.
Dedicated memory represents memory that is exclusively reserved for use by the GPU and is managed by VidMm. On discrete GPUs this is your VRAM. On integrated GPUs, this is the amount of system memory that is reserved for graphics. (Note that most integrated GPUs typically use shared memory because it is more efficient).
Shared memory represents system memory that can be used by the GPU. Shared memory can be used by the CPU when needed or as “video memory” for the GPU when needed.

 
Ja, es kann sein, dass dann ausgelagert wird, aber diese Auslagerung bleibt immer noch "sichtbar" für das Programm, d.h., die Auslagerung wird immer noch vom Programm verwaltet, nicht vom BS.

Auch der "Beschiss" wird also vom Programm verwaltet, nicht vom BS.

Und ja, natürlich ist mir das das Geld wert.
 
Ich nehme auch an das "Shared" das Systemram bezeichnet. Weiß es aber nicht genau. Und ich weiß auch nicht ob das ein Programmierer kann oder nicht kann^^

Naja, wir reden von "Shared GPU memory" :)

Der Hauptspeicher ist eine ganz andere Kategorie.

"Shared GPU memory" ist m.E. Speicher, der in der GPU liegt, aber eben auch ins Hauptram ausgelagert werden kann, wenn momentan nicht von der GPU Hardware auf den Speicher zugegriffen wird.

Aber so bald CUDA Code auf diesen Speicher zugreift, also die GPU Zugriff braucht, muss dieser Speicher in das VRAM der GPU kopiert werden.
Dedicated memory represents memory that is exclusively reserved for use by the GPU and is managed by VidMm. On discrete GPUs this is your VRAM. On integrated GPUs, this is the amount of system memory that is reserved for graphics. (Note that most integrated GPUs typically use shared memory because it is more efficient).
Shared memory represents system memory that can be used by the GPU. Shared memory can be used by the CPU when needed or as “video memory” for the GPU when needed.

Danke. Das bestätigt aber letztlich nur meine Aussage, dass dedicated VRAM der physische Speicher ist, und dessen Belegung eben auch die Belegung des physischen VRAMs wiedergibt.
 
@Grestorn

Diesmal hab ich noch was in #180 dazueditiert.
Ich brauch manchmal etwas Zeit um meine Gedanken auszuformulieren.

Das dedicated VRAM der Speicher der Graka ist, hab ich auch nie angezweifelt.
Ja, es kann sein, dass dann ausgelagert wird, aber diese Auslagerung bleibt immer noch "sichtbar" für das Programm, d.h., die Auslagerung wird immer noch vom Programm verwaltet, nicht vom BS.

Auch der "Beschiss" wird also vom Programm verwaltet, nicht vom BS.

Und ja, natürlich ist mir das das Geld wert.

Es wird am ehesten eine Mischung aus beidem sein. Wenn das Programm beim Start abfragt: Wieviel VRAM ist da. Und die Graka sagt: Ich habe 8GB. Aber schon 2GB davon vom Displaymanager mit Icons, Wallpaper und sonstwas belegt sind, dann arbeitet das Programm mit den 8GB. Wer weiß wie intelligent da die Abfragen sind.
Und irgendwo wird dann doch ne Grenze sein, weil sonst ja die Programme nicht anfangen würden zu ruckeln, wenn sie denn so allwissend sind^^
Aber komischerweise (jedenfalls aufs VRAM bezogen) kann man das VRAM ganz einfach überladen.
Ich drehe in GTA5 alles hoch was ich finde, und kann dann auf einer 12GB Graka kurz 16GB VRAM-Belegung sehen, bevor das Game abschmiert. Auf der 24GB-Graka läuft es dann bei 20GB angezeigter Belegung. Wie geht denn das, wenn das Programm alles im Griff hat?
 
Zuletzt bearbeitet:
Also kurz:

MSI Afterburner zeigt an, wieviel echter physisches VRAM gerade belegt bzw. frei ist. Also auch das, was Windows als "Dedicated GPU RAM" angibt.

In CUDA kann man aber nur virtuellen VRAM allokieren. D.h. die Methode, einfach per CUDA RAM zu allokieren, um den für ein Spiel physich nutzbare VRAM einzugrenzen, ist nicht so einfach, wie NVidia ja auch schrieb, man muss zugleich dafür sorgen, dass dieser Speicher auch physisch in der GPU liegt, in dem man dafür sorgt, das permanent auf den Speicher von der GPU aus zugegriffen wird.

Was aber auch die Messung wieder verfälscht.

Für den Rest der Diskussion, also wie wichtig die größe des physischen VRAMs für heutige und zukünftige Spiele ist, ist das weitestgehend irrelevant.

Auch hat das keine Bedeutung für die Diskussion, in wie weit die von MSI angegebene "VRAM-Auslatung" tatsächlich eine Relevanz hat.
 
Also kurz:

MSI Afterburner zeigt an, wieviel echter physisches VRAM gerade belegt bzw. frei ist. Also auch das, was Windows als "Dedicated GPU RAM" angibt.

In CUDA kann man aber nur virtuellen VRAM allokieren. D.h. die Methode, einfach per CUDA RAM zu allokieren, um den für ein Spiel physich nutzbare VRAM einzugrenzen, ist nicht so einfach, wie NVidia ja auch schrieb, man muss zugleich dafür sorgen, dass dieser Speicher auch physisch in der GPU liegt, in dem man dafür sorgt, das permanent auf den Speicher von der GPU aus zugegriffen wird.

Was aber auch die Messung wieder verfälscht.

Für den Rest der Diskussion, also wie wichtig die größe des physischen VRAMs für heutige und zukünftige Spiele ist, ist das weitestgehend irrelevant.

Auch hat das keine Bedeutung für die Diskussion, in wie weit die von MSI angegebene "VRAM-Auslatung" tatsächlich eine Relevanz hat.

Wenn Du möchtest kann Dir Afterburner auch gleichzeitig die Menge an Shared RAM anzeigen.
Und das sogar getrennt nach System (also VRAM-Usage komplett) und laufender Anwendung (nur den Commit vom Game das im Vollbild läuft).

Das lässt doch schon viele Schlüsse zu.
Man könnte meinen: Je größer der Wert des "Shared" VRAMs wird, desto mehr könnte an VRAM fehlen. (Was zu prüfen wäre).
Das kann ich nur vermuten, aber eventuell hat es hiermit zu tun:

Garbage Collection

Also doch etwas, was das BS macht, und nicht das Programm. Das düfte ja nicht passieren, wenn das Programm die volle Kontrolle hat.
 
Im Endeffekt ganz grob so, im Falle einer dezidierten Grafikkarte:

- wenn eine Software VRAM benötigt legt der Speichermanager den primär in den VRAM
- wenn der VRAM nicht ausreicht legt er den Überschuss in den RAM
 
Hmm also für mich sind die Frametimes alles, ob ich jetzt 70 oder 80 Fps habe juckt mich nicht. Stocker aber machen die Immersion kaputt. zum Thema HZD, die Frametimes bei Igor im Artikel bestätigen da Raffs Aussage.

Für mich stellt sich hier nur die Frage ob solche Spiele in großer Zahl in Zukunft kommen werden oder ob es eben Ausnahmen bleiben.
Performante gut bis sehr gut aussehende Spiele, wie CoD und BF, kommen mit 8 GB scheinbar in jeder Auflösung gut klar.
Billige Konsolen Ports wie HZD dann eben nicht mal im Ansatz.
 
Oder das
Im Endeffekt ganz grob so, im Falle einer dezidierten Grafikkarte:

- wenn eine Software VRAM benötigt legt der Speichermanager den primär in den VRAM
- wenn der VRAM nicht ausreicht legt er den Überschuss in den RAM

Sieht ein Programm eine nicht zu erfüllende Speicherzuweisung, reduziert es diese solange, bis es passt.

Oder, falls nicht optimal programmiert, steigt aus.

Ganz einfaches Beispiel.
 
Man könnte meinen: Je größer der Wert des "Shared" VRAMs wird, desto mehr könnte an VRAM fehlen. (Was zu prüfen wäre).
Nur, wenn ein Spiel tatsächlich "virtuellen" VRAM allokiert und die Verwaltung komplett DX oder Vulkan überlassen würde.

Und ja, das wäre ein Indikator für die gesamte Speichermenge, die ein Spiel im VRAM gerne verwalten würde. Aber es ist weiter kein Indikator dafür, wie gut oder schlecht es mit weniger physischem Speicher klar kommt.

Also, wenn ein Spiel 20 GB shared VRAM allokiert, kann es u.U. immer noch besser mit 8GB physischem VRAM klarkommen, als ein anderes, das zwar nur 8 GB shared VRAM allokiert, auf diese 8GB aber ständig voll zugreift. Wenn dann aber nur 7 GB physisches VRAM verfürgbar ist (weil z.B. andere Apps auch VRAM allokiert haben und nutzen) würde das dazu führen, dass 1 GB ständig aus der GPU raus und reinkopiert werden müssen.

Ist also ein Indikator aber kann eine Messung der Frametimes im Spiel und Vergleiche der Optik in Videos nicht ersetzen.
 
Zuletzt bearbeitet von einem Moderator:
Natürlich hat ein BS Einfluss auf das Geschehen, aber man kann versuchen, den möglichst gering zu halten.

Man muss nicht ins RAM auslagern oder ins Pagefile.

Die am wenigsten ungünstige Variante ist allerdings die, ins Sys-RAM auszulagern.
 
Performante gut bis sehr gut aussehende Spiele, wie CoD und BF, kommen mit 8 GB scheinbar in jeder Auflösung gut klar.
Billige Konsolen Ports wie HZD dann eben nicht mal im Ansatz.

Wobei die tolle Performance von COD und BF dem sehr sehr aggresivem LOD geschuldet ist.
Da wünschte ich mir gerne ein paar FPS weniger, dafür kein so übel sichtbares LOD. Kann auch gerne VRAM kosten.
 
sind User zur Stelle, die dem jeweiligen Spiel schlechte Optimierung oder technische Bugs vorwerfen.
Ok, ich wusste nicht, dass Crysis Remastered gut optimiert ist, danke für die Aufklärung.
Das nächste mal frage ich einfach dich, du scheinst dich hier besonders auszukennen.

Dabei haben diese User weder das Spiel mitentwickelt, noch sind sie für gewöhnlich Game Entwickler oder "vom Fach". So wirklich beurteilen, ob und in wie weit ein Game schlecht optimiert oder verbuggt ist, können sie eigentlich gar nicht wirklich fundiert.
Aber beurteilen welcher V-ram reicht und welcher nicht, können sie schon?
Ich würde sagen: Nein, sie können weder das eine, noch das andere.

Abertausende Gamer spielen dieses Spiel auf dem PC. Jeder, der sich eine neue GPU kaufen möchte, um eben unter anderem ein HZD zu spielen, der möchte gerade wegen des VRAM Hungers wissen, welche VRAM-Ausstattung er für seine GPU bei seiner Auflösung braucht.
Ja und ich sagte doch schon, dass es nicht am Speicher liegt.
In wie weit gibt die dein Erfahrung das Wissen, dass der VRAM Verbrauch von HZD aus einem Bug resultiert? Ich hätte das gerne von dir klipp und klar belegt.
Ich habe dir den Link zu den Percentilen geliefert. Zu einer 6GB RX5600XT.
 
Das macht ja alles zum individuellen Erlebnis: Wer mehr Speicherpool besitzt, erhält bessere BQ.
das war doch mit matschigen und scharfen Texturen auch nicht anders.
das ist jetzt doch nicht anders wenn man in Wildlands, Witcher oder anderen Open World Spielen den Vegetationsregler hochstellt. Nur dass es jetzt halt ein Regler ist, der die Vegetation ein und ausschaltet in vielen Fällen, was super offensichtlich ist.

In Zukunft ist der Unterschied zwischen einem Mischwald mit 8 Baumsorten und 4 Baumsorten. Man wird sagen, das ist egal, aber es sind 8 Büsche statt 4, 12 Ziegelvariationen im Dorf statt 4. 36 Pflastersteine statt 16 und so weiter mit jedem Fitzel an Detail. Über alle Details wird sich das addieren und man wird sagen das sieht auch auf den ersten Blick besser aus.
 
Zurück