Geforce RTX 3070: Geleakter "Reviewer's Guide" erklärt, warum 8 GB ausreichen

Naja, ich habe da mit meiner 970 damals andere Erfahrungen gemacht :D
komisch, hatte das gleiche Erlebnis mit meiner 770 2GB. Fast so als würde Nvidia schon über ein Jahrzehnt am Speicher sparen und viele Chips mit mehreren Speicherausstattungen bringen, von denen sich die niedrige Variante mittelfristig immer als Griff ins Klo herausstellt? Also Fake News das, oder?
 
Ich schließe mich den anderen an eine 8GB Karte werde ich nicht für 500 € kaufen. Da ist doch der Speichermangel in 1-2 Jahren vorprogrammiert. Ich denke aber 12 oder 16 GB reichen. 20-24 GB ist nix für meinen Geldbeutel.
 
Ich weiß nicht was du mit deinem Rechner machst, aber ich krieg 10GB spielend voll wenn genug da ist. Der Dank sind dann super smoothe Frametimes und kein Ruckeln mehr in den Übergängen.
Ich versteh auch solche Leute nicht, ich hab die 8GB der 2080 und die 11GB der 2080ti auch jedesmal voll bekommen beim zocken.
Das war mit dem ein oder anderen Spiel nicht mal schwer, einfach Ultra Settings und schon war der VRam an der Kotzgrenze.
Bin echt gespannt auf die AMD Karten bald, unter 12 bzw. 16GB kommt mir keine Karte mehr ins Haus, punkt.
 
Ich versteh auch solche Leute nicht, ich hab die 8GB der 2080 und die 11GB der 2080ti auch jedesmal voll bekommen beim zocken.
Das war mit dem ein oder anderen Spiel nicht mal schwer, einfach Ultra Settings und schon war der VRam an der Kotzgrenze.
Bin echt gespannt auf die AMD Karten bald, unter 12 bzw. 16GB kommt mir keine Karte mehr ins Haus, punkt.

Ich frag mich eher wie Ihr das ständig schafft ?
Leider ist meine 1080ti schon verkauft, aber ich war meisten bei 4-6GB bei Triple AAA auf Ultra aber hab halt nur WQHD was auch momentan total ausreicht ? 80FPS+++
Assassin's Creed® Odyssey2020-9-21-20-2-1.jpg
 
Man muß schon ziemlich stark eingeschränkt im Urteilsvermögen sein, wenn man nvidias "geiz ist geil" Strategie beim vram noch verteidigen will. Gefühlt seit Jahrzehnten die gleiche Leier. "Reicht" und nachher am Heulen... immer das gleiche. Boring :D
 
Wenn ich mit der Oculus Quest per link zocke sind schonmal fast 4gb für die Oculus runtime und Steamvr weg, aber klar 8gb reichen in 2020 noch fuer irgendwas...
 
Ich frag mich eher wie Ihr das ständig schafft ?
Leider ist meine 1080ti schon verkauft, aber ich war meisten bei 4-6GB bei Triple AAA auf Ultra aber hab halt nur WQHD was auch momentan total ausreicht ? 80FPS+++
Anhang anzeigen 1339823
So schaut es aus. Ich spiele grad RDR2 in 4K/Ultra (Nur Schatten reduziert).

Da lande ich bei knapp 5900MB, und an der Grenze verweilt er auch. Ich kenne kein einziges Spiel wo er mal halbwegs vollgelaufen ist. Daher kann ich diese Diskussionen wg den 10GB der 3080 auch nicht verstehen. Der Artikel dagegen ergibt durchaus Sinn u deckt sich auch mit meinen Erfahrungen.

Also klärt uns evtl. Unwissenden doch mal auf, wie schafft "ihr" das bitte?
 
Also wenn es mir so gehen würde das andere wesentlich mehr V Ram Nutzung bei einem Spiel hätten,
würde ich erstmal im NVIDIA Panel nachsehen ob da in den Einstellungen eine Begrenzung Global gesetzt ist die Auswirkungen auf diese Nutzung haben könnte.

Ich hab RDR2 schon lang nicht mehr gestartet, aber als 5900MB waren es wahrscheinlich.
mal schauen...

Edit: gehtt grad nicht, ich bekomme nur noch Fehler betreffend Rockstar Launcher. :wall:

Edit2: 1 Minute die Graikeinstellungen angepasst und habe 7200MB in Game, und nur ein paar Meter rumgelaufen.
Also da wird bei dir ein bisschen mehr reduziert sein als die Schatten.
 
Zuletzt bearbeitet:
Was sind denn jetzt bitte die Fakten?:what:
Kriegt ihr sie voll oder nicht? Wenn mit selben Settings gespielt wird, kann das doch Geheimnis sein.
 
Man muß schon ziemlich stark eingeschränkt im Urteilsvermögen sein, wenn man nvidias "geiz ist geil" Strategie beim vram noch verteidigen will. Gefühlt seit Jahrzehnten die gleiche Leier. "Reicht" und nachher am Heulen... immer das gleiche. Boring :D
Stark eingeschränkt ?? in einer gewissen Weise gebe ich dir recht ??‍♂️

Aktuell findet man keine offiziellen Beiträge von unseren "Kompetenten und informativen Medien" ... über den VRAM!

Jeder hält sich bedeckt, vielleicht dürfen Sie auch nicht darüber reden zwecks der "NDA" (Non-Disclosure Agreement)


Somit bekommen wir leider nur Erfahrungsberichte von Usern aus diversen Foren... Trust Faktor gleich null? Sorry

Aber wenn man die Auflösungskalierung in game auf 200% stellt und danach die FPS einbrechen und sagt der VRAM ist voll gelaufen wundert es mich nicht.

Jedenfalls bin ich momentan auch hin und her gerissen und warte immer noch auf meine 3080 bzw. Werde mir am Mittwoch das Event anschauen und wahrscheinlich auch noch eine 6800XT bestellen ?
Auf G-Sync kann ich verzichten solang ich minimum meine 60FPS +++ bekomme.
Darunter wird erst G-Sync richtig sichtbar und brauchbar.
 
8GB sind auf jeden Fall außer in 4K spielend ausreichend.
Mal schauen wo eine 6800XT überhaupt die 3070 schlagen kann. In Port Royal wird es schon mal nichts und das ist die Zukunft des Gamings!
Und was willst du mit einer Karte, die zwar theoretisch die Leistung für 4k hat aber nicht annähernd den dafür nötigen Speicher? Wird doch immer wieder in Vergleichen von nV behauptet, die 3070 wäre mindestens so schnell, wie die 2080 Ti und die braucht für die "selbe" Leistung 11 GB...
Vielleicht reichen die 8 GB jetzt sogar noch aus aber wie sieht es mit der nächsten Zukunft aus? Alle Spiele, die jetzt erst erscheinen, werden sicher mehr brauchen oder eben auf niedrigere Auflösung und Texturen runterregeln müssen. Du hast also das häßlichere Spiel. Ich hoffe in Zukunft auf Qualtätsvergleiche bei der Grafik in den Vergleichstests und das als wichtigeren Wert, als die Länge der Balken...
 
Und was willst du mit einer Karte, die zwar theoretisch die Leistung für 4k hat aber nicht annähernd den dafür nötigen Speicher? Wird doch immer wieder in Vergleichen von nV behauptet, die 3070 wäre mindestens so schnell, wie die 2080 Ti und die braucht für die "selbe" Leistung 11 GB...
Vielleicht reichen die 8 GB jetzt sogar noch aus aber wie sieht es mit der nächsten Zukunft aus? Alle Spiele, die jetzt erst erscheinen, werden sicher mehr brauchen oder eben auf niedrigere Auflösung und Texturen runterregeln müssen. Du hast also das häßlichere Spiel. Ich hoffe in Zukunft auf Qualtätsvergleiche bei der Grafik in den Vergleichstests und das als wichtigeren Wert, als die Länge der Balken...
"aber wie sieht es mit der nächsten Zukunft aus?"

Was ist das ? Die nächste Zukunft ?
Ab wann wäre dann die übernächste Zukunft und so ?
 
Ich verstehe die Diskussion nicht. AMD Käufer wissen das es Nvidia Jüngern egal ist Hauptsache neu und geil. Spätestens seit der gtx 970 weiß man doch das nvidia keine Ahnung vom speicher hat
Die 20x0 waren übertrieben teue, aber zu recht die sind ja viel besser als AMD und viel Strom sparender.
Nun kommt die 30x0 Reihe. Alte Preisgestaltung und man kann wieder loben.
40% Mehr Leistung bei 30% Mehr Verbrauch eine Glanzleistung.

Würden 8/10gb reichen warum gibt's denn die vielen Gerüchte die nicht seitens Nvidia wiederlegt wurden zu doppelten Speicher Modellen?
Da reicht der Speicher wohl doch nicht und man kann in Zukunft doppelt absahnen.
Dann kann man bestimmt seine "alte" gegen Aufpreis eintauschen und Nvidia verkauft die dann nochmals.
 
Nvidia hat recht mit der Aussage, dass die ganzen Tools den zugewiesenen Speicher anzeigen und nicht den Speicher, der wirklich genutzt werden muss, damit man keine spürbaren slow downs usw. hat. Die Anzeige der Tools ist für viele Laien eine Falle, also auch viele in diesem Forum, weil sie einen falschen Schluss daraus ziehen.

Aber, trotzdem braucht man in 4K und hohen Settings bei fordernden Games, viel VRAM. Zuwenig VRAM kann man aber erst dann nachweisen, wenn man Nachladeruckler oder nachladende Texturen sieht. Dies testet fast niemand durchgehend, auch nicht die PCGH. Daher ist es immernoch nicht klar, welches Spiel bei welchem Setting z.B. mehr als 10Gb VRAM wirklich benötigt, damit man keine Nachladeruckler hat.

Das Nvidia das in seinen Guide schreibt ist natülich nur zum Schutz gegen die geringe Speicherausstattung...
 
8GB sind auf jeden Fall außer in 4K spielend ausreichend.
Mal schauen wo eine 6800XT überhaupt die 3070 schlagen kann. In Port Royal wird es schon mal nichts und das ist die Zukunft des Gamings!

1440p wird die 6800XT Kreise um die 3070 drehen.

Ich tippe mal so aus dem Stegreif auf mindestens +40%!

Auch bei Port Royal sollte es knapp dafür reichen die 3070 zu schlagen. (2080ti + ca. 5%)

Und bezüglich 8GB kann man nur sagen: Next Gen. vor der Türe, Regler nach links und sich von eine XBOX Series X vorführen lassen.
 
Oh da schau mal da wird doch tatsächlich das gleiche gesagt was ich auch immer sage.
Woher das wohl kommt? Weil es stimmt wahrscheinlich.

Satire:
Aber bei PCGH ist das heilige schaut die Afterburner Ram verbrauch an. Sagt man das ist Cache ist es wie Blasphemie!
Da muss PCGH bestimmt dann gleich einen 8K vergleich mit Ultra Settings machen wo beide GPUs dann 20 Fps haben.
Dann sagt man schaut es ruckelt da schlimmer, man kann es klar sehen.


Spiele Cachen und das man ständig meint weil ein Spiel dann 10Gb belegt verbraucht es auch was in der nähe stimmt halt nicht.
Wirklichen Vram Mangel kann man sehen und spüren und bei 8Gb habe ich noch keinen erlebt. Da habe ich gesehen wie die GPU
genrell zu langsam ist. Dann kommt es noch auf die Soft und Hardware an, wie die 8Gb überhaupt genutzt werden! Software spielt eine
große Rolle dabei.

Bei PCGH ist es aber immer sofort der Vram, Crysis Remaster super Beispiel das liegt an den 10Gb. Tatsächlich schrieb ich das gleiche
was Digital Foundry später sagte unter das Video. Die Spikes kamen von den CPU Cores die 100% erreichen, das war logisch dass dann Spikes entstehen.

Afterburner Daten die hier viel zu oft genutzt werden für Vram sagen nichts darüber aus wieviel ein Spiel braucht.
Es sagt nur darüber aus wieviel ein Spiel benutzen kann und jedes Spiel sollte das machen! Weil Laden von Elementen natürlich ein Vorteil
ist, aber der ist nicht so groß das man das merken muss. Wenn Vram wirklich ein Problem ist, dann merkt man das schon sehr deutlich.
Spikes ohne Ende, Texturen fehlen usw. man merkt es also.
Nicht schaut den Afterburner an da stehen 10 Gb alles andere ist zu wenig.
 
1440p wird die 6800XT Kreise um die 3070 drehen.

Ich tippe mal so aus dem Stegreif auf mindestens +40%!

Auch bei Port Royal sollte es knapp dafür reichen die 3070 zu schlagen. (2080ti + ca. 5%)

Und bezüglich 8GB kann man nur sagen: Next Gen. vor der Türe, Regler nach links und sich von eine XBOX Series X vorführen lassen.
Ganz bestimmt mit 12,5 Gb zuweisbaren Speicher für GPU und CPU wird es daran liegen.
Am besten man nutz nur noch Texturen ohne Programm Code oder? Den dann wäre der Speicher nicht knapp,
so haben aber die Konsolen sogar extrem wenig Speicher. Den das sind keine 8Gb für Grafik, oder meinst den Code
von Spielen hat man im CPU Cache?

Wenn dann sollte man wissen das komplexe Titel schon alleine 8Gb ohne Grafik fressen können.
Was machst dann die Settings abspecken das machst dann. Wenn 8Gb auf der GPU wenig sind, dann sind 12,5 Gb
für CPU und GPU ein Witz!

Alleine daran sieht man wie es mit Vram wirklich aussieht. Wahrscheinlich wenn Dlss wirklich standard wird ist Vram sowieso
nicht mehr wichtig. Die Zukunft gehört RT und Ai das braucht AMD ohne das wird eine 3060 runden drehen um AMD.

Den wenn der 6800XT Käufer sich dann denkt scheiß RT zerstört meine FPS. Der 3060 User mit RT die gleichen FPS dank DLSS
hat. Ist es gelaufen und AMD hat bis heute nicht mal ihren Codec hinbekommen für Streams. Wenn sie kein DLSS Konter haben
sind sie auf Deutsch am Ars...!
Weil das ein riesen Argument ist und Standard wird.
 
Ganz bestimmt mit 12,5 Gb zuweisbaren Speicher für GPU und CPU wird es daran liegen.
Am besten man nutz nur noch Texturen ohne Programm Code oder? Den dann wäre der Speicher nicht knapp,
so haben aber die Konsolen sogar extrem wenig Speicher. Den das sind keine 8Gb für Grafik, oder meinst den Code
von Spielen hat man im CPU Cache?
Du magst sogar recht haben das 13.5 GB die für Spiele verwendet werden können, relativ knapp bemessen sind bzw. 3.5 GB als System-Ram und 10 GB für die GPU + 2.5 für das OS.
War wohl auch etwas den Kosten geschuldet das es am Ende nicht 20 GB geworden sind.
Da sieht es für die PS5 trotz ebenfalls 16 GB sogar etwas besser aus da sie im Unterschied zu XBox
einige System bezogene Daten nicht doppelt vorhalten muss so wie es bei der Xbox und beim PC der Fall ist.
Aber das ändert nichts daran das die XBOX 25% mehr vram hat und entsprechend die Qualitätsstufe der Texturen eine Stufe höher sein werden bzw. bei der 6800XT / XL werden es zwei bis drei Stufen sein.

Ach ja, wenn du wissen willst was passiert wenn der 3070 der Vram ausgehen wird dann schau mal einen meiner Beiträge im Doom Eternal Technik-Test etwas genauer an.
Bei der 2080 gleiche Einstellungen bis auf den texture pool size der um eine Stufe reduziert wurde:
- 26% average FPS
-38% 1% Min.
und von den Frametimes bzw. des dabei erhaltenen Spielgefühls mal ganz zu schweigen.

Wenn dann sollte man wissen das komplexe Titel schon alleine 8Gb ohne Grafik fressen können.
Was machst dann die Settings abspecken das machst dann. Wenn 8Gb auf der GPU wenig sind, dann sind 12,5 Gb
für CPU und GPU ein Witz!
13.5 GB bzw. 3.5GB als system-ram die Entwicklern zugewiesen werden können, sind nicht gerade üppig da magst du recht haben.
Alleine daran sieht man wie es mit Vram wirklich aussieht. Wahrscheinlich wenn Dlss wirklich standard wird ist Vram sowieso
nicht mehr wichtig. Die Zukunft gehört RT und Ai das braucht AMD ohne das wird eine 3060 runden drehen um AMD.

Vram wird immer wichtig bleiben und ML upscaling + RT beherrscht auch die XBOX schau dir mal die spec. an und was ist mit den 1000+ an Spielen die kein DLSS bieten soll man sich da mit Augenkrebs begnügen oder eine Ruckelorgie in Kauf nehmen?
Nicht falsch verstehen würde mir nie eine Konsole kaufen aber vom technischen Standpunkt aus betrachtet sind die PS5 und die XBox extrem interessant.
Den wenn der 6800XT Käufer sich dann denkt scheiß RT zerstört meine FPS. Der 3060 User mit RT die gleichen FPS dank DLSS
hat. Ist es gelaufen und AMD hat bis heute nicht mal ihren Codec hinbekommen für Streams. Wenn sie kein DLSS Konter haben
sind sie auf Deutsch am Ars...!
Weil das ein riesen Argument ist und Standard wird.
Ein DLSS Konter wird anscheinend kommen.
redgamingtech.png
 
Zuletzt bearbeitet:
Zurück