Geforce RTX 3070 8 GB im Test: Spezial-Benchmarks visualisieren Speichermangel

Du hast die Betonung in der Aussage nicht verstanden. Theoretisch muss der angeforderte Speicher nicht genutzt werden... aber es wird in den meisten Fällen einen triftigen Grund geben, wieso Titel X VRAM-Menge Y anfordert, anstelle von Y/2 (halbe Menge) oder weniger. Das lag Sicherlich nicht an Lust und Laune eines Entwicklers.

Bestimmte Daten müssen immer ins VRAM. Insbesondere Render-Buffer und andere Daten, die permanent gebraucht werden. Die werden fest allokiert.

Und dann gibt es einen dynamischen Puffer für Daten, die je nach Verhalten des Spielers gebraucht werden. Also in welche Richtung er schaut, welche Gegend er besucht usw.

Letzteren kann man ganz flexibel allokieren. Man kann einen großen Block allokieren und darin selber verwalten (wie es z.B. die ID3 Engine in Doom Eternal oder Wolfenstein macht) oder man kann den allokierten Speicherblock wachsen lassen, während der Spieler herumläuft und neue Elemente nachgeladen werden müssen.

Bei einem Spiel, das gleich einen großen Block holt, wirst Du schlagartig eine große Zahl im Afterburner als "gebraucht" sehen, ganz egal wie stark dieser Block tatsächlich gefüllt ist. Bei einem dynamisch wachsenden Block, wird die Zahl langsam immer größer bis zu einer gewissen Prozentsatz der Maximalgröße des VRAMs.

Die Frage für die Größe des Puffers ist: Wieviele Daten habe ich überhaupt, die da jemals rein können, und nach welcher Strategie verwerfe ich die Daten wieder. Manche Spiele, insbesondere Schlauchspiele, haben nur vergleichsweise wenig Daten, denn im nächsten Level werden eh ganz andere Daten nachgeladen und alles vom alten Level komplett verworfen.

Andere, speziell OpenWorld Spiele, die mit Streaming arbeiten, haben viele Daten, die so gut wie jedes VRAM mehrfach füllen könnten (hat ja einen Grund, warum manche Spiele auf der Platte 80GB und mehr schlucken!).

Dann hast Du immer ein Potential für Nachladeeffekte, denn auch wenn Du erstmalig in einen neuen Bereich der Welt kommst, sind die Daten auf jeden Fall nachzuladen, ganz egal wie groß Dein VRAM ist. Es hängt dann von der Güte des Streamings ab, ob man das überhaupt merkt oder nicht (SSDs, viel Hautspeicher und PCIE4 helfen da auch!).

Nur wenn Du eben weniger Platz im VRAM hast, kommt es schneller vor, dass auch Daten eher wieder verworfen werden müssen, wo in einer anderen Karte, mit mehr VRAM noch mehr Daten vorgehalten werden könnten.

Das heißt, es ist nur reine Statistik: EINMAL muss IMMER nachgeladen werden. Das Ruckeln - wenn es denn überhaupt eines erzeugt - wäre also immer gegeben. Nur die Wahrscheinlichkeit, dass es darüber hinaus noch weiteres Ruckeln gibt, wenn man zwischen Gebieten der OpenWorld hin und herwechselt, ist bei weniger VRAM etwas höher. Das kann man merken oder nicht. Das kann man im 1% Percentil evtl. stärker oder schwächer nachweisen. Eben Statistik.

Aber genau hier liegt der Hund doch begraben. Dieses Wenn ist mir eine zu große Eventualität in Anbetracht dessen, dass bald relativ potente Konsolen erscheinen, und somit auch leistungshungrigere Spiele, welche aus Erfahrung heraus, nicht für den PC optimiert sein werden.

Die Frage ist, ob man ein absolut gewisses "hab ich definitiv nicht" gegen ein eventuell mal auftretendes "könnte mal passieren" eintauschen will. Ist eine Frage der Bewertung. Auch wie schlimm man dieses statistisch etwas häufigere Ruckeln, das man u.U. kaum fühlt, bewertet, siehe oben. Ich hab nur das Gefühl, dass diese Ungewissheit manche Leute stärker stört als sich einmal mit der Gewissheit abzufinden, ein bestimmtes Feature generell nicht zu haben.

Ich halte das in weiten Bereichen für ziemlich irrational.

Ob ihr für den sehr tendenziösen Tests in Zukunft noch Samples von Nvidia erhaltet?

Tendentiös ist der Artikel definitiv nicht. Er ist enorm hilfreich und ich Danke Raff dafür. Man kann sich alle Reviews anschauen und jeder beleuchtet die Sache aus einem anderen Blickwinkel. Das ist ja das gute daran. Mir hat Igors Review extrem gut gefallen, eben auch wegen seiner intensiven Beleuchtung der Framtime-Varianz, die von der PCGH vermutlich erst im Print-Magazin in der Form dargestellt werden wird.

Es ist auch absolut ok, den Finger in die Wunde zu legen, dass NVidia das VRAM so knapp kalkuliert. Das ist die Aufgabe eines Magazins und einer Seite wie PCGH.

Nur sollte man das ganz auch immer ins Verhältnis setzen. M.E. hat Raff das schon getan (mit klarer Gewichtung seiner Priorität freilich), es ist nur auch an dem Leser das für sich intelligent einzuordnen und zu werten.
 
Zuletzt bearbeitet von einem Moderator:
Tjia ich habe mich bei der letzten Generation schon gefragt warum die dicken Karten so wenig VRAM haben. Also wenn ich etwas rendern möchte zusätzlich zum zocken und alles nur ohne Profit daraus zu schlagen ist die Karte mir durch den VRAM zu schwach. 360° in Adobe Premiere einfach mal in der Vorschau durchlaufen lassen und staunen wie schnell das ruckelt, egal auf welcher Qualität.
Speicher knauser kaufe ich nicht egal was da für ein Chip verbaut ist.
 
Lieber Grestorn,

Nur wenn Du eben weniger Platz im VRAM hast, kommt es schneller vor, dass die Daten wieder verworfen werden müssen, wo in einer anderen Karte, mit mehr VRAM noch mehr Daten vorgehalten werden könnten.

Das heißt, es ist nur reine Statistik: EINMAL muss IMMER nachgeladen werden. Das Ruckeln - wenn es denn überhaupt eines erzeugt - wäre also gegeben. Nur die Wahrscheinlichkeit, dass es darüber hinaus noch weiteres Ruckeln gibt, wenn man in wechselnde Gebiete kommt, ist bei weniger VRAM etwas höher. Das kann man merken oder nicht. Das kann man im 1% Percentil stärler oder schwächer merken. Eben Statistik.

es ist keine Statistik. Das Ruckeln und eingeschränkte Bildqualität sind nämlich genau das Resultat von zu wenig VRAM. Es ist spürbar, es ist sichtbar, es ist messbar.

Nur ganz hartgesottene Realitätsverweigerer wollen das nicht zur Kenntnis nehmen.
 
Hmm also für mich sind die Frametimes alles, ob ich jetzt 70 oder 80 Fps habe juckt mich nicht. Stocker aber machen die Immersion kaputt. zum Thema HZD, die Frametimes bei Igor im Artikel bestätigen da Raffs Aussage.

Ob ich 70 oder 80 fps habe, interessiert mich auch nicht. Aber ob ich 50 oder nur 45 habe schon, und ob ich Features abschalten muss, damit ich näher an die 60 rankomme, auch. Eben GERADE wenn ich mit UHD als Ziel spiele.

Du hast schon Recht: Mehr Speicher verspricht eine "glättere" Frametime-Verteilung und weniger rot und gelb in Igors Frametime-Varianz Balken. In einigen wenigen Spielen heute (und potentiell mehr in der Zukunft). Das ist schön.

Mehr Leistung und DLSS verspricht eine insgesamt permanente niedrigere Frametime in allen Spielen von Anfang an, also viel Dunkelgrün bei Igor.

Um mich zum 1000. zu wiederholen: Eine Frage der Gewichtung, wenn ich nicht beides haben kann. Man sollte sich nur hüten, das eine zum heiligen Gral hochzustilisieren, wie das hier in meinen Augen manchmal geschieht.

es ist keine Statistik. Das Ruckeln und eingeschränkte Bildqualität sind nämlich genau das Resultat von zu wenig VRAM. Es ist spürbar, es ist sichtbar, es ist messbar.

Wie oft Ausreißer in der Frametime auftreten können, ist eine rein statistische Aussage. Und ja, das ist fühl- und messbar.

Es ist aber dennoch lediglich Statistik. Also z.B. "beim Laufen durch den Level hat man mit 12 GB innerhalb 1 Minute im Schnitt 4 fühlbare Ruckler, mit 8 GB hat man im Schnitt 8 fühlbare Ruckler". Das ist eine statistische Aussage.

"Frametime-Varianz" ist eine rein statistische Größe übrigens.
 
Zuletzt bearbeitet von einem Moderator:
@Grestorn: Es ist auch mir bewusst, dass jede endliche Ressource akkurat verwaltet werden muss. Wer nur dazuschöffelt ohne auch mal irgendwo etwas zu leeren wird bei einem kontinuierlichen Fluss immer irgendwo das Ende der Fahnenstange erreichen. Aber auch das in Hinterkopf behaltend, entschärft die Situation nicht! Die Wichtigkeit von Messergebnissen darf jedoch, wie du auch geschrieben hast, jeder selbst für sich entscheiden.
 
Danke für den ehrlichen Test ohne Marketing, wie toll 8GB doch sein. Sollen sich doch bitte die "Klimaretter", über die gewollte Obsoleszenz bei Konsumentenprodukten auslassen. Das wäre doch mal was oder?

Außerdem sollte die RTX 3070 auch auf Corona getestet werden, und bei positivem Test "Mundschutz" tragen müssen und natürlich zu Hause eingesperrt sein (bei Flucht der RTX 3070 droht dann Erschießung). Vielleicht sollte auch eine Mauer um die RTX 3070 errichtet werden, aber ich habe gehört, dass niemand vorhat, eine Mauer zu errichten. Ich gehe davon aus, dass ungefähr 2 Prozent von allen Karten einen positiven "Coronatest" haben werden. Das wird teuer... wenn der "Mundschutz" noch beigelegt werden muss... zum Glück muss niemand dafür die Haftung übernehmen...
 
Zuletzt bearbeitet:
Was ist dir denn lieber: Wenige Ruckler beim bspw. Levelwechsel, oder häufige, um Speichermangel auszugleichen?

Weniger Ruckler natürlich.

Und was ist besser, ein Grafik-Feature ausschalten zu müssen (oder nicht nutzen zu können, weil die Leistung fehlt) oder es nutzen zu können?

In diesem Thread klingt es immer so, als gäbe es *nur* die Frage nach dem Speicher und dessen Folgen. Wie schlimm nun diese statistisch hüfigeren Ruckler in einigen Spielen ist, nun das soll sich jeder selber beantworten. Er muss nur immer alle Seiten anschauen und nicht nur die eine.
 
Es ist ganz offensichtlich das 8 GB heute schon knapp sind bei der Geschwindigkeit. Glauben hier ernsthaft leute das das in einem Jahr besser aussieht? Die neuen Konsolen kommen, die neue Generation bricht gerade an .
8 GB ist einfach nur Sch.... mal wieder.
 
Mal noch eine kleine Rechnung zum "Nachdenken": NVIDIA deklariert die 3090 explizit als die erste 8K taugliche Grafikkarte..... Sie besitzt gegenüber der 3080 nur rund 15% mehr Compute-Leistung. 8K hat gegenüber 4K dagegen die vierfache Pixelmenge...also 400%. Letzteres wird wohl nicht den Unterschied ausmachen. Wenn man sich entsprechende Benchmarks ansieht, limitierte einfach oftmals nur der VRAM.... zwischen "spielbar" und gar nicht spielbar. Die Menge an VRAM ist bei der 3070 einfach nicht angemessen zur Compute-Leistung und wird eingesetzt um nach oben hin entsprechend abzuriegeln. Wenn es nicht so wäre, könnte man dem Käufer über den Verkauf entsprechender Modelle selbst die Wahl lassen und die doppelte Menge mühelos anbieten. Es gibt bisher keine "logischen" Argumente, die hier FÜR diese Entscheidung sprechen.... wirtschaftliche sind dagegen zunächst einmal direkt ersichtlich.
 
Na ja die 12,5 Gb benutzbaren Speicher der Konsolen für GPU und CPU sagen da aber mal was ganz anderes.
Den deren GPU hat nicht mal 8Gb eher so 6Gb dürften es tatsächlich sein den der Code ist ja nicht kleiner.

Wie groß ist den der Sprung bei den Konsolen die Xbox one X hatte schon 12 Gb Gesamtspeicher konnte davon 9Gb benutzen.
Also 3,5 GB mehr für CPU und GPU die Spiele können also gar nicht so stark ansteigen. Weil sonst die Settings Unterschiede bei
den Konsolen zu groß sind, logisch oder? Es sind also ca. 2Gb mehr Vram bei den Konsolen und da alles auf den Dingern auch laufen
muss, sollte klar sein wo es hinführt. Es gibt keine großen Vram Sprünge mehr, die Zeiten sind lange vorbei.

Und außerdem wird Ampere noch nicht mal zu 100% unterstütz in Features. Übrigens die 8Gb sind zu wenig hörte man schon bei der 2080 ständig. Waren sie aber nicht, Nvidia scheint sehr genau zu wissen was reichen wird.

Diese Diskussion über zu wenigen Vram sind doch hier ständig und dann kommen irgend welche extrem Beispiele.
Ich wette jetzt schon das Optimierung auf Ampere auch noch eine Rolle spielen wird. Den Features sind noch gar nicht unterstützt
wie direkter Speicherzugriff über PCI-E.

Es sind 10+3,5GB. Aus der Erfahrung wissen wir, dass man beim PC immer mit etwas Reserve rechnen sollte. Ergo denke ich 12GB wären gut. 10GB sollten aber eigentlich selbst in 4k (ohne SSAA und MSAA) reichen. 8GB könnten knapp sein.
 
@Grestorn: Es geht um ein angemessenes Verhältnis von mehreren Ressourcenarten auf deiner Grafikkarte... Mal beispielsweise eine 1060GTX mit 3GB gegenüber der 6GB Variante in Action gesehen? Was war wohl vernünftig nutzbar gewesen.... hmmmm..... und nun kommt ein nagelneues Produkt für 500€+ und wir können schon am Release-Tag sehen, dass es Situationen gibt, wo das Teil ins straucheln kommt....... hmmmm........Produkt gut!
 
J
Es sind 10+3,5GB. Aus der Erfahrung wissen wir, dass man beim PC immer mit etwas Reserve rechnen sollte. Ergo denke ich 12GB wären gut. 10GB sollten aber eigentlich selbst in 4k (ohne SSAA und MSAA) reichen. 8GB könnten knapp sein.
Ja, 12 GB wären wahrscheinlich okay.

Persönlich wären mir natürlich 32 GB und mehr wesentlich angenehmer. ;)
 
@Grestorn: Es geht um ein angemessenes Verhältnis von mehreren Ressourcenarten auf deiner Grafikkarte... Mal beispielsweise eine 1060GTX mit 3GB gegenüber der 6GB Variante in Action gesehen? Was war wohl vernünftig nutzbar gewesen.... hmmmm..... und nun kommt ein nagelneues Produkt für 500€+ und wir können schon am Release-Tag sehen, dass es Situationen gibt, wo das Teil ins straucheln kommt....... hmmmm........Produkt gut!

Zunächst sehe ich nicht, dass die 3070 ernsthaft eine Konkurenz zu einer 6800XT ist. Die 6800XT gewinnt hands down. Und wird vermutlich auch ein gutes Stück teurer sein - wenn nicht, dann Chapeau an AMD. (Und ein wenig Kopfschütteln, mir war nicht klar, dass die es so dicke haben oder irgend einen Grund zur Verzweiflung hätten).

Die 6800XT ist die Konkurenzkarte zur 3080. Wir reden also davon, ob die 10 GB der 3080 mittelfristig (kurzfristig sind sie es auf jeden Fall nicht) zu wenig sind, und ob die 16 GB der 6800XT einen fühlbaren Vorteil bringen, die das Fehlen von DLSS und die leicht schwächere RT Leistung ausgleichen können.

Diese zwei Fragen muss einfach jeder für sich beantworten. Und entsprechend für die Modelle eine (oder mehrere Stufen) darunter eben entsprechend.
 
Hehe, "schlechte Spieleauswahl". Das sind ganz bewusst (wie im Text geschrieben) genau die Sachen, bei denen wacklige Hardware umfällt – und Komponenten mit einem Puffer stehenbleiben.

MfG
Raff
Moin Moin Raff !

Mensch, kannst nicht mal euren eigenen Beitrag zur Kenntnis nehmen ?!?


Wenn die von nVidia (und deren Reviewer) sagen, dass 8 GB ausreichend sind, dann wird das schon passen tun ...
(Ironie OFF) ;-)

MfG Föhn.
 
Hmm also für mich sind die Frametimes alles, ob ich jetzt 70 oder 80 Fps habe juckt mich nicht. Stocker aber machen die Immersion kaputt. zum Thema HZD, die Frametimes bei Igor im Artikel bestätigen da Raffs Aussage.
Für mich ist die Bildqualität alles, und wenn ich durch mehr Vram auch mehr Bildqualität generieren kann, dann nehme ich das mit und bezahle das auch.
Und wenn hier alle noch und nöcher auf FPS und Frametimes rumreiten ... Ploppende Objekte und sichtbares Textursteeaming empfinde ich als mindestens ebendso grausam.
 
Warum sollte ich das nicht können?
Simples Beispiel: Ich kann im Treiber auf hohe Texturfilterqualität stellen, ohne befürchten zu müssen das dadurch Nachteile entstehen.

Genau so simpel: Renderauflösung hochstellen. Oder andersrum: Ich kann immer das beste AA auswählen, ohne mir Gedanken und Vram machen zu müssen.

Das Vram geht mir dabei als letztes aus, und der Unterschied ist sofort sichtbar.


Wenn ich Ultra Texturen einstelle, kommen auch Ultra Texturen raus, und kein Kompromiss, den mir die Gameengine ohne mein Wissen aufzwingt.

Klammert euch nur schön weiter an die Frametimes :-)
 
Zuletzt bearbeitet:
Zurück