Geforce RTX 3070 8 GB im Test: Spezial-Benchmarks visualisieren Speichermangel

Schöner Test.

Aber das fand ich am interessantesten.^^

"Kommt es zu Speichermangel, kann ergo auch die Geforce RTX 3070 schneller Daten über die PCI-E-Schnittstelle aus dem Hauptspeicher anfordern als jede RTX-20-Grafikkarte."

Scheinbar optimieren jetzt einige Hersteller ihre Hardware schon für PCIe 4.0. Auch Igor erwähnte das mal in eines seiner Videos. Zum Start von den z570 Boards und den M.2 SSD mit Pcie 4.0 hies es mal anders. Ich weiß nur nicht genau ob das Raff mit den Zitat da oben auch so meinte. Heist schließlich nur "PCI-E-Schnittstelle". :-P

Da müsste man mal prüfen wie stark son 3080er GDDR6X Speicher die M.2 SSD unter PCIe 4.0 beansprucht wenn da fleißig ausgelagert wird.^^
Ist allerdings für die schlecht bzw stark der Nachteil die wo noch PCI Express 3 haben und keine PCIE 4.0.Da bricht dann die Leistung wohl stärker ein.Da wären also alle die dann ne RTX 3070 oder sowas kaufen also am ende die gearschten.Finde ich nicht so gut,was da Nvida macht.Damit schießt man so manche Gamer einfach ab.
 
Wenn das VRAM ausreicht für eine gegebene Anwendung (Spiel), bringt mehr VRAM nämlich gar nichts mehr.
Aber genau hier liegt der Hund doch begraben. Dieses Wenn ist mir eine zu große Eventualität in Anbetracht dessen, dass bald relativ potente Konsolen erscheinen, und somit auch leistungshungrigere Spiele, welche aus Erfahrung heraus, nicht für den PC optimiert sein werden.

Ich verdiene mein Geld mit zu viel Mühe, als dass ich ne Karte kaufe, mit der ich für die Zukunft mehr Hoffnung als Gewissheit brauche.
 
Es wird eine Übergangsperiode geben, in der Spiele sowohl für PS4 als auch PS5 erscheinen und daher sowohl 6GB als auch 12GB Speicherbedarf navigieren können.

Da sich bei der Spiele-Entwicklung immer mehr Scanlibraries wie Quixel durchsetzen, wird es für die Entwickler kaum ein Problem sein beliebige Mengen VRAM zu verbrauchen. Sony hat diesen Trend ja erkannt und sorgt genau aus diesem Grund dafür, dass es einen Hardwarekompression zwischen SSD und RAM gibt. Der PC wird das nicht brauchen, da hat man den Hauptspeicher als Buffer im Zweifelsfall.

Ob ein Spiel jedoch 8GB oder 16GB braucht, liegt allein am Entwickler. Die Unterschiede werden in Zukunft weniger in der Schärfe der Textur liegen wie in der Vergangenheit, sondern mehr in der Diversität der Dinge auf dem Schirm. Ein rein theoretisches Beispiel wäre ein Fußboden der bedeckt ist mit einzelnen Seiten eines Buches. Die 16GB Variante benutzt 100 verschiedene Seiten auf dem Fußboden und die 8GB Variante nur 60. Man wird nicht gleich merken, dass sich die Seiten öfter wiederholen bei weniger Speicher. Sowas wird sich auch auf Sachen wie die Vegetation oder andere Micro-Details in der Spielwelt auswirken. Das ist auch etwas das man mit DLSS nicht ausgleichen kann. Es wird diesen Druck geben die Karten mit mehr Spiecher auszustatten und Nvidia wird sich dem beugen müssen.

Die ganze Aktion die Karten unbedingt vor AMD in den Markt zu peitschen und dann selbst nach einem Monat nicht liefern zu können war jedoch sehr schädlich.
 
das wird so nicht Funktionieren.
Man kann schlicht nicht die level inhalte dynamisch anpassen
man kann nur die qualität der darstellung anpassen.
Quasi man lädt die daten lnagsamer nach bis alter vram geleert wird und diese dann mit neuen nachgeladen ist.
Das geht dynamisch in bestimmten mengen bis man irgendwann zu ruckler kommt oder zu hänger
Sehr schön in shadow of the tomb raider zu sehen oder neueste HZD
Ob vram zugewiesen ist und nicht gebraucht wird hängt primär an der api
DX12 bestimmt das der Spielentwickler in dx11 windows
Einzig die Verweildauer der Daten im vram kann bestimmt werden.
Bis die texturen nicht mehr genutzt werden und vom treiber entfernt und mit neuen Daten nachgeladen werden vom Hauptspeicher.
damals zu Urzeiten directx9 musste jedes level komplett in den vram passen
Streaming kam erst mit de ps1 und später auf dem PC 2009 und directx11
zwar konnte man an den hauptspeicher daten auslagern war aber nie einen gute idee.

darum meine these
es wird für eine bestimmte Auflösung hin ein spiel designet aktuell ist das 512bit auf 96dpi und 1080p grob im schnitt
Dafür reichen 2gb vram aus (achja durch höhere Auflösungen steigen lediglich die pixel nicht die texturemenge oder vram bedarf an)
Ein frame muss vorgeladen werden also 2gb ein frame wird bearbeitet und ausgegeben im schnitt auch um die 1-2gb
Und eins wird vorbereitet was wieder 1 frame ist auch etwa 2gb

hier ist entscheidend
Bandbreite damit die Daten schnell geladen und entladen werden chiptakt und zuletzt vram buffer.
Denn je mehr man hat desto mehr frames können im buffer bleiben
Und das bestimmen die game engines mit dx12 vulkan mit dx11 ist man an der api gebunden.

direct storage wird noch Spannend werden ob es das vram problem lösen wird wird sich zeigen.
aktuell kann ich jeden high end gamer nur raten zu warten was amd hat und dann auf nvidia Anpassungen ihrer high end gpu 2021 bringt.
8g vram reichen aktuell aus bis 1440p wenn games darauf designet wurden , das sind ausnahmen
Eng wird es mit 6gb und ab 2022 unspielbar
ideal sind aktuell 12gb vram und amd wird q1 2021 mit n23 bringen (rx6700 6600)
Einen n22 gibt es schlicht nicht.
Aber namen sind egal heute wissen wir mehr über die sku die kommen.

Aber der artikel beschreibt sehr schön das mehr vram immer besser ist und es heute schon techniken gibt die die bildraten stabil halten obwohl der vram zu gering ist.
Die auflösung spielt hier nur eine geringe bedeutung zu außer die engine passt die bittiefe an der auflösung an. dann zählt die auflösung
Allerdings sind dann 1080p und 4k optisch nicht vergleichbar da unterschiedliche Qualität.
Ideal wäre es aber wenn eine engine die polygondichte erhöht bzw gittermodell und gleichzeitig die bittiefe der tapete
Nur wäre das ein cpu und gpu fresser schlechthin.
Und jeder würde über miese performance meckern. dann lieber kleinere basis Auflösung hochskallieren.
Und genau das wird auch in allen games so gemacht natives bild ungleich berechnetes bild.
Die Ausgabe ist allein die Sache des scalers am gpu HDMI displayport oder dvi-d Anschluss
 
@Prozessorarchitektur
Man kann sehr wohl Level inhalte dynamisch anpassen denn genau das macht ein LoD z.B. . Wieviel Ram vorbelegt wird und wann auch geleert wird muss heute unter Vulcan und DX 12 der Entwickler steuern und da merkt man ganz schnell wenn da geschludert wurde. Was ja mit close to the Metal der grosse Vorteil für die Programierer zu DX 11 ist. Gleichzeitig dem Programierer aber auch sehr viel mehr Verantwortung abverlangt da sauber zu arbeiten. Unter DX 11 hat die Api vieles von Haus aus geregelt was jetzt beim Programierer liegt.

Streaming gab es auch schon zu IBM 286er Zeiten am PC. Wenn auch in sehr viel kleinerem Maße. Man stelle sich damals nur das erste die Siedler Spiel vor, wenn der Spieler sich über die Karte bewegt und es kein Datenstreaming gegeben hätte. Alle paar Meter eine kurze Gedenkpause zum Texturen ect. nachladen da die (V)Ramgrösse doch seher beschaulich zu heute war.

Nun zum Buffer. Im bestenfalle hält der den letzten frame noch solange vor falls dessen Daten doch noch mal gebraucht werden sollten oder klar ist das dem nicht so ist. Während bei der aktuellen Framausgabe dabei schon auf Verdacht die Daten mit der höchsten Wahrscheinlichkeit gebraucht zu werden im Hintergrund geholt werden,

Allerdings sind dann 1080p und 4k optisch nicht vergleichbar da unterschiedliche Qualität.
Was macht denn da den primären Unterschied? Erstmal doch das es schon 4 mal mehr Bildpunkte gibt ist doch hier der grundlegende Aspekt.

Ideal wäre es aber wenn eine engine die polygondichte erhöht bzw gittermodell und gleichzeitig die bittiefe der tapete
Texturen können unter UHD mit 4 mal so vielen Bildpunkten ausgestattet werden wodurch die optische Qualität der Texturen gesteigert werden kann. Dies muss aber nicht zwangsweise passieren denn wenn die entsprechenden Texturen dann nicht auch hochauflösend vorhanden sind dann kann das auch schon mal richtig schei... aussehen. Eine 8 oder 10 Bit Farbtiefe kann man unter FHD wie auch unter UHD nutzen.

Wieviele Polygone wo zum Einsatz kommen hat primär auch erstmal nichts mit der Auflösung per se zu tun. Denn aus wievielen Dreiecken etwas moduliert wird bleibt erst mal Vorgabe der Grafikprogramierer. Da kann unter FHD etwas aus genausovielen Polygonen bestehen wie unter UHD . Die Anzahl der Polygone sieht man ja nicht direkt nur die Qualität der darauf gelegten Texturen machen den primär sichtbaren optischen Schmaus oder Graus Unterschied aus.
Bei dem altbekannten Begriff der hässlichen Treppchenbildung jedoch wird die Anzahl der Polygone weil hiern nun optisch direkt sichtbar der primär entscheidende Faktor. Verliert aber mit steigender Auflösung etwas an Bedeutung.
Man hat ja gerade zu UHD Anfangszeiten viele optisch schlimme Erlebnisse gehabt wenn ein Spiel oder anderer nicht nativer UHD Inhalt zum Einsatz kam.
 
Zuletzt bearbeitet:
Sehr schöner Artikel (neben dem Launch-Test, natürlich), weil er endlich klar belegbare Frametime-Daten anführt für das bisher bei mir einfach subjektive Gefühl, dass 8 GB (meine GTX1080) auch jetzt schon manchmal nicht reichen. Wenn man gerne auf hohen Auflösungen spielt, und sich (manchmal) über die Prioritäten moderner Spieleengines ärgert (FPS vor Texturqualität).
Die 3070 und auch die 3080 sind wirklich tolle Karten, Respekt NVidia! Aber 8 und auch 10 GB sind für eine bevorstehende Neuanschaffung bei mir einfach alleine deshalb nicht sinnvoll, weil ich z.B. nur einmal alle 4 Jahre bereit bin, so viel Kohle hinzublättern. Insofern bin ich für solide mit Fakten begründete Zukunftsprognosen wie in Raff`s Artikel sehr dankbar - genau dafür liebe ich die PCGH!
Mein vorläufiges Fazit: ich warte mal auf die Konkurrenzangebote von AMD, oder auf eine gerüchteweise erscheinende 3080ti 12GB.
 
Das sind ganz bewusst (wie im Text geschrieben) genau die Sachen, bei denen wacklige Hardware umfällt – und Komponenten mit einem Puffer stehenbleiben.

MfG
Raff
Ob ihr für den sehr tendenziösen Tests in Zukunft noch Samples von Nvidia erhaltet?
8GB mögen hier und da für krasse Settings zu wenig sein, aber mit Crysis Remastered, Zero Dawn und Wolfenstein mit sinnfreier V-ram Einstellung, habt ihrs ganz schön übertrieben, selbiges wäre auch schon zu 2080 Release mit dem ein oder anderen Spiel, möglich gewesen.

Crysis Remastered (vollkommen verbuggt) als Spezialbenchmark zu bringen wertet euch als Institution für Spielebenchmarks ab.
Solche Spiele gab es schon vor 2 oder 3 Jahren,
 
Zuletzt bearbeitet:
Ob ihr für den sehr tendenziösen Tests in Zukunft noch Samples von Nvidia erhaltet?
8GB mögen hier und da für krasse Settings zu wenig sein, aber mit Crysis Remastered, Zero Dawn und Wolfenstein mit sinnfreier V-ram Einstellung, habt ihrs ganz schön übertrieben, selbiges wäre auch schon zu 2080 Release mit dem ein oder anderen Spiel, möglich gewesen.

Crysis Remastered als Spezialbenchmark zu bringen wertet euch als Institution für Spielebenchmarks ab.
Solche Spiele gab es schon vor 2 oder 3 Jahren,
Was hat denn das mit tendenziös zu tun, wenn ein Magazin aufzeigt, in welchen Fällen 8GB VRAM nicht mehr reichen und welchen Einfluss zu wenig VRAM z.B. auf die Frametimes haben kann? Ich für meinen Teil finde sowas nicht tendenziös sondern informativ!
 
Zuletzt bearbeitet:
Was hat denn das mit tendenziös zu tun, wenn ein Magazin aufzeigt, in welchen Fällen 8GB VRAM nicht mehr reichen? Ich für meinen Teil finde sowas nicht tendenziös sondern informativ!
Das Problem: Hier wird das Gegenteil gezeigt. Also abseits von 5K DSR, verbuggten Games und Maximalem Textur-Pool Budget +RT und Crysis Remastered arbeitet die Karte ausgezeichnet, trotz "nur" 8GB Speicher.
Die Sollbruchstelle wird weitestgehend widerlegt. Kurios.

Mal davon abgesehen, dass in Horizon Zero Dawn nicht der Speicher das Problem ist, sondern das Spiel verbuggt ist.

Die meisten anderen Reviewer sehen das weit entspannter und fokussieren sich nicht in der Art und Weise auf den Speicher in Sonderfällen. Minecraft RTX ist eine Beta Software, in der mit mehreren Chunks selbst 16GB knapp werden. Eine Sollbruchstelle wird hier nicht belegt, das ist schon vielmehr Panikmache, aber es gibt ja andere, neutralere Reviews.

Hier werden die Percentile auch analysiert.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Das Problem: Hier wird das Gegenteil gezeigt. Also abseits von 5K DSR, verbuggten Games und Maximalem Textur-Pool Budget +RT und Crysis Remastered arbeitet die Karte ausgezeichnet, trotz "nur" 8GB Speicher.
Die Sollbruchstelle wird weitestgehend widerlegt. Kurios.
Ach so. Du bist einer von denen, die bei Tests gerne Schönwetter Benchmarks hätten anstatt dass auch Worst Case Szenarien aufgezeigt werden.
Ich für meinen Teil bevorzuge jedenfalls Worst Case, damit ich weiß was schlimmstenfalls auf mich zukommt.
Mal davon abgesehen, dass in Horizon Zero Dawn nicht der Speicher das Problem ist, sondern das Spiel verbuggt ist.
Hast du dazu mal eine Analyse die das in der Form aufzeigt?
Und selbst wenn. Das Spiel ist wie es ist und wer es spielen möchte, muss sich im Klaren darüber sein, dass es VRAM hungrig ist.
 
Zuletzt bearbeitet:
Vor 2 Jahren hab ich für die 8GB einer Radeon 570 im Ganzen unter 160€ bezahlt. Auch wenn diese GDDR5 besaß dürfte inzwischen der Preis für normalen GDDR6 dem recht nahe kommen. Es wäre daher mit Sicherheit kein Problem gewesen den Board-Partnern die Möglichkeit freizustellen 16GB-Modelle einer 3070 auf den Markt zu bringen. In der Vergangenkeit war dies ohne Weiteres möglich und "erlaubt".
Ich bin mir sicher, dass das 16GB-Modell weitaus attraktiver bei versierten Gamern geworden wäre und man einen solchen "Speicherkrüppel" wie hier gerne in der Ecke hätte liegen lassen würde. An die hier ansässigen fanboys: WIESO gibt uns euer "heilige" Anbieter nicht eine Wahl? Wieso dürfen wohl wir als Käufer nicht entscheiden, was uns mehr zusagt, anstelle ein idiotisches Statement abzulassen, dass 8GB doch völlig ausreichend sind.
Das Problem: Hier wird das Gegenteil gezeigt. Also abseits von 5K DSR, verbuggten Games und Maximalem Textur-Pool Budget +RT und Crysis Remastered arbeitet die Karte ausgezeichnet, trotz "nur" 8GB Speicher.
Die Sollbruchstelle wird weitestgehend widerlegt. Kurios.

Mal davon abgesehen, dass in Horizon Zero Dawn nicht der Speicher das Problem ist, sondern das Spiel verbuggt ist.

Die meisten anderen Reviewer sehen das weit entspannter und fokussieren sich nicht in der Art und Weise auf den Speicher in Sonderfällen. Minecraft RTX ist eine Beta Software, in der mit mehreren Chunks selbst 16GB knapp werden. Eine Sollbruchstelle wird hier nicht belegt, das ist schon vielmehr Panikmache, aber es gibt ja andere, neutralere Reviews.
Und was machst du mit deinen tollen Speicherkrüppel, wenn noch mehr Entwickler sich entscheiden "unperformant" zu programmieren? Alles auslassen oder mit 500€+ Traumpreis die Regler bereits nach links drehen für mit die wichtigsten Grafikoptionen(Texturdetails,(Schatten)-Auflösung). Wohlwissend, dass der Grafikchip selbst keinerlei Limit in dem Moment darstellt...

Wieso wird mit hoher Wahrscheinlichkeit es dem Konkurrenten möglich sein, mehr der nicht im Nachhinein aufrüstbaren Ressource VRAM uns anzubieten?
 
Zuletzt bearbeitet:
Ach so. Du bist einer von denen, die bei Tests gerne Schönwetter Benchmarks hätten anstatt dass auch Worst Case Szenarien aufgezeigt werden.
Nein, ganz und gar nicht, ich ordne die Ergebnisse lediglich ein.
Worst Case Szenarien sind das wohl, jedoch mit verbuggter und Beta Software, das sollte man mit dazuschreiben.

Ich für meinen Teil bevorzuge jedenfalls Worst Case, damit ich weiß was schlimmstenfalls auf mich zukommt.
Diesen Worstcase gab es auch schon vor 2 Jahren.
Hast du dazu mal eine Analyse die das in der Form aufzeigt?
Tausch ne 3070 gegen ne 2060 mit 6GB und habe die gleichen Ruckler.=)
Eigene Erfahrung. Ansonsten siehe oben die Frametimevarianzen der 6GB 5600XT bei Igors Lab.
 
Manchmal kann ich die Argumente bezüglich Games und deren technische Qualität nicht nachvollziehen.
Wann immer ein Game kommt, dass viel Leistung braucht, oder viel RAM oder viel VRAM benötigt, sind User zur Stelle, die dem jeweiligen Spiel schlechte Optimierung oder technische Bugs vorwerfen. Dabei haben diese User weder das Spiel mitentwickelt, noch sind sie für gewöhnlich Game Entwickler oder "vom Fach". So wirklich beurteilen, ob und in wie weit ein Game schlecht optimiert oder verbuggt ist, können sie eigentlich gar nicht wirklich fundiert.
Wenn es dann um Hardware Tests und Benchmarks geht, dann drängen diese User grundsätzlich darauf, solche Games außen vor zu lassen, damit Grafikkarte YX nach Möglichkeit besser dasteht. Aber Games sind nun mal wie sind. Es gibt diese Spiel die einen großen Ressourcen Hunger haben. Und auch wenn man sie bei Tests ausklammert, sind sie immer noch da. Horizon Zero Dawn hat sich auf auf dem PC sehr gut verkauft. Abertausende Gamer spielen dieses Spiel auf dem PC. Jeder, der sich eine neue GPU kaufen möchte, um eben unter anderem ein HZD zu spielen, der möchte gerade wegen des VRAM Hungers wissen, welche VRAM-Ausstattung er für seine GPU bei seiner Auflösung braucht. Deswegen gehört ein HZD zu Testsessions ohne Zweifel dazu. Tests sollen und müssen auch mal den Worstcase aufzeigen, und nicht fordernde Games ausklammern.
Nein, ganz und gar nicht, ich ordne die Ergebnisse lediglich ein.
Doch, ganz offensichtlich.

Worst Case Szenarien sind das wohl, jedoch mit verbuggter und Beta Software, das sollte man mit dazuschreiben.
Was hat das für eine Relevanz für die Leute, die solche Spiele spielen möchten?

Eigene Erfahrung. Ansonsten siehe oben die Frametimevarianzen der 6GB 5600XT bei Igors Lab.
In wie weit gibt die dein Erfahrung das Wissen, dass der VRAM Verbrauch von HZD aus einem Bug resultiert? Ich hätte das gerne von dir klipp und klar belegt. Du wirfst hier verschiedenen Games Bugs vor. Wo kann ich Nachlesen, dass das alles aus Bugs resultiert?
 
Zuletzt bearbeitet:
Alleine schon rein allgemein betrachtet, gibt es fast immer einen "best"case , wie auch einen "worst case". Um eine Spanne abzudecken gehören beide dazu. Auch kann man nicht von jedem Studio erwarten, dass es die höchste fachliche Kompetenz, Zeit und finanzielle Möglichkeiten für eine Optimierung von Software bis aufs Maximum besitzt.

Im Falle dieser Diskussion hier, bleibt es aber nicht bei einem "worst case" und in Zukunft wird daraus sogar der "average case".
 
Auch kann man nicht von jedem Studio erwarten, dass es die höchste fachliche Kompetenz, Zeit und finanzielle Möglichkeiten für eine Optimierung von Software bis aufs Maximum zu besitzt.
Das ist richtig. So kann man, um nur ein Beispiel zur nennen, von Piranha Bytes nicht unbedingt erwarten, dass sie technisch hochglanzpolierte und perfekt optimierte Games produzieren. Das muss man dann schon ein wenig in Relation setzen.

Im Falle dieser Diskussion hier, bleibt es aber nicht bei einem "worst case" und in Zukunft wird daraus sogar der "average case".

Davon gehe ich auch aus.
 
Nein. Ist es nicht. Wurde oft genug erklärt warum.

Ich kann ja verstehen, dass man beim RAM-Bedarf anderer Meinung ist, das ist auch ok. Wie gesagt, eine Frage der Prioritäten. Wenn einem RAM wichtiger ist als alles andere, gut, jedem seine Entscheidung.

Aber es wird dennoch nicht richtiger, dass allokiertes RAM das gleiche ist, wie benötigtes RAM. Das stimmt nicht beim Hauptspeicher und es stimmt noch viel weniger bei VRAM.

Und wie man an Dir und BxBender sieht, geht es einfach nicht, ohne persönlich zu werden, wenn andere Leute eine andere Meinung haben, als man selber.

Zur Allokationsfrage:

Mit zu wenig RAM ruckelt's, mit mehr nicht.

Noch Fragen?
 
Des weiteren kann man dafür nur dankbar sein, dass PCGH sich überhaupt traut solche "kritischen" Artikel herauszubringe. Viele andere Quellen kuschen dagegen aus Angst zukünftig evtl. nicht mit Testsamples beliefert zu werden und setzen lieber auf die Strategie nur die Glanzpunkte in den Vordergrund zu stellen.
 
Des weiteren kann man dafür nur dankbar sein, dass PCGH sich überhaupt traut solche "kritischen" Artikel herauszubringe. Viele andere Quellen kuschen dagegen aus Angst zukünftig evtl. nicht mit Testsamples beliefert zu werden und setzen lieber auf die Strategie nur die Glanzpunkte in den Vordergrund zu stellen.
Da droht ja schon jemand:
Ob ihr für den sehr tendenziösen Tests in Zukunft noch Samples von Nvidia erhaltet?

Mir stellt sich eher die Frage, ob nVidia in Zukunft überhaupt noch eine Rolle spielt.
 
Zurück