• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3070: Modder verdoppelt Speicher auf 16 GiB

seahawk

Volt-Modder(in)
Ungleich große Speicherbausteine sind jetzt sehr ungünstig, weil dann die nutzbare Bandbreite nicht mehr konstant wäre. Machst Du z.B. 12GB auf eine 256 Bit Schnittstelle, würdest Du 8 mit 256Bit ansprechen und 4 GB mit 128 Bit. Das ist dann 970 reborn. (ok etwas weniger schlimm)
 

raPid-81

Freizeitschrauber(in)
Ungleich große Speicherbausteine sind jetzt sehr ungünstig, weil dann die nutzbare Bandbreite nicht mehr konstant wäre. Machst Du z.B. 12GB auf eine 256 Bit Schnittstelle, würdest Du 8 mit 256Bit ansprechen und 4 GB mit 128 Bit. Das ist dann 970 reborn. (ok etwas weniger schlimm)
Richtig, es war auch nur eine Möglichkeit die ich aufgelistet habe. Deswegen sind NVidia / AMD an die verfügbaren Speicherbaustein-Größen gebunden.
 

l0lhunt3r_HD

Komplett-PC-Käufer(in)
Nur mal so als Verständnis ein Threadripper 1950X schafft 145 FPS in dem GAME in 720p die RTX 2080 aber nur 85FPS in 4k und Ultra das bedeutet dein Ryzen 2600X (höhere Single-Core Leistung als TR) ist nicht der Flaschenhals sondern die RTX 2080.

Weil deine GPU weniger Bilder berechnet, als deine CPU Theoretisch Verarbeiten kann.

Du müsstest also auf 1080p und weniger als Medium Spielen um ins CPU Limit zu kommen, weil der 2600X eine höhere Single-Core Leistung hat als der 1950X
Anhang anzeigen 1356834Anhang anzeigen 1356835
wenn das so wäre warum habe ich in 4k 20 oder sogar weniger fps und meine 2070S weis nicht was sie machen soll. ich habe alles auf maximum gestellt und habe irgentwas zwischen 14 und 73 fps aber nichts konstantes und meine gpu ist mit 40% weit vom limit entfernt. mein 2600X ist nicht schnell genut um die gpu zu füttern vorallem wenns im multiplayer ist


das ist mein problem und kein plan wie ich das fixen soll
 
Zuletzt bearbeitet:

theGucky

PC-Selbstbauer(in)
Nvidia ist so schlecht! Sooo schlecht!

Naja, mir kannst egal sein, hab ne 3090!

Aber sowas von nvidia hätte ich nicht erwartet! Warum keine 16 GB drauf von Haus aus! Soo schlecht!
Weil dann die Karte mehr hätte als die teurere 3080. NUR DESHALB...
Und ja bei der 3060 haben sie es gemacht...weil sie LAAAANGE damit gerungen und 6GB zu wenig war...
 

Pu244

Lötkolbengott/-göttin
Als Beispiel: 16 GB DDR4 3400 vs 32 GB DDR4 2400, was glaubst Du ist schneller? Die 32 GB sind nur in edge-cases schneller, meist werden die 16 GB die Nase vorn haben.

Der Vergleich hinkt. Man müßte 16GB DDR4 3400 mit 32GB DDR4 3400 vergleichen (jeweils gleiche Latenzen und Dualchannel. Wenn man das macht, dann gibt es bis 16GB (bei Windows sind es effektiv 12GB) keinen Unterschied, darüber gewinnen die 32GB Haushoch.

(natürlich gibt es Fälle, in denen es sinnvoll ist unterschiedliche Konfiguartionen zu vergleichen, etwa wenn die 16GB DDR4 3400 genausoviel kosten, wie die 32GB DDR4 2400).

Klar kann man auf die RTX 3070 auch 32 GB Speicher packen, aber wenn man dazu nicht die Bus Bandbreite erhöht, dann bringt das nichts. Der Speicher muss auch beschrieben / gelesen werden.

Es gibt genügend Gegenbeweise, das es haufenweise Karten gibt, die einfach nur mehr Speicher haben. Am Ende haben die Karten mit mehr VRAM aus ihren kleineren Brüdern eigentlich immer Kleinholz gemacht, zumindest seit den DX 11 Karten (früher konnte es sein, dass ein neuer DX Standard kam und die Karten damit die neuen Spiele sowieso nichtmehr geschafft haben).

Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.
(...) oder die Hersteller anfangen 1 GB und 2 GB Speicherbausteine auf derselben Karte zu verbauen. Das macht dann allerdings die Produktion komplizierter.

Es geht weniger um die komplizierte Produktion, als um die Leistungseinbrüche. Die GTX 660(Ti) hatte zwar 2GB, ist aber nach 1,5GB stark eingebrochen. Ausnahme waren die seltenen 3GB Karten, die konnten ihre Leistung über die ganze Kapazität halten. Möglich wäre es auch noch, unregelmäßig zwei Chips an einen Controller zu hängen, so ähnlich, wie es bei der GTX 970 geschehen ist. Da hatte man dann 20% Leistungseinbruch, wenn der VRAM voll genutzt wurde.

Nvidia hat aber für die GTX 970 zu Glück ordentlich was auf die Finger bekommen.
 
Zuletzt bearbeitet:

RawMangoJuli

Volt-Modder(in)
Es gibt genügend Gegenbeweise, das es haufenweise Karten gibt, die einfach nur mehr Speicher haben. Am Ende haben die Karten mit mehr VRAM aus ihren kleineren Brüdern eigentlich immer Kleinholz gemacht, zumindest seit den DX 11 Karten (früher konnte es sein, dass ein neuer DX Standard kam und die Karten damit die neuen Spiele sowieso nichtmehr geschafft haben).

Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.
kann man gut bei RX 5500 4GB vs RX 5500 8GB und GTX 960 2GB vs 960 4GB sehen

absolut identische Karten nur die eine Variante hat Speichermodule mit doppelter Kapazität

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

die Karten sind gleich schnell aber wenn der Variante mit weniger VRAM der Selbige ausgeht, dann ist die Variante mit mehr VRAM wesentlich schneller
 

AyC

PC-Selbstbauer(in)
Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.

Meine GTX 670 mit 2 GB habe ich damals gegen die GTX 1070 mit 8GB ausgetauscht, weil manche Spiele einfach nicht mehr mit 2 GB funktioniert haben. Grafikdetails runter und 4GB und ich hätte mit der neuen Karte auch noch warten können...

Ähnlich sehe ich es jetzt auch mit den 8GB vs. 16GB. Wenn AMD erstmal großflächig jetzt 16GB einsetzt, dann wird das über kurz oder lang von den Spieleentwicklern auch genutzt.
 

gerX7a

Software-Overclocker(in)
Mich würde da mal interessieren, was die größeren Speichermodule gekostet haben? Bzw. wie hoch ist der Aufpreis zu den kleineren Modulen?

Da könnte man schon in etwa ableiten, ob es für Nvidia nicht recht günstig zu bewerkstelligen gewesen wäre, direkt die doppelte Menge Speicher zu verbauen. (Vor allem wird Nvidia ja einen deutlich geringeren Preis zahlen als ein Normalo)

Mir ist natürlich auch bewusst, dass die Verfügbarkeit auch eine große Rolle spielt, aber interessant fände ich das schon.
Kosten recht genau das doppelte. 8Gb-BGAs mit typischer Standardgeschwindigkeit kosten vor Steuer etwa um die 10 €, 16 Gb-BGAs rd. 20 €, dazu noch in 2000er Chargen. Und ein Mengenrabatt wird zweifellos nicht ins bodenlose wachsen können, denn hier dürfte von den Chipherstellern grundsätzlich schon knapp kalkuliert werden.
Ist halt schlicht eine kalkulatorische Sache. Ob ich eine Karte mit 499 US$ und 8 GiB für den Massenparkt positioniere oder diese mit min. 584 US$ ansetzen müsste mit 16 GiB ist nun einmal ein beträchtlicher Unterschied. Zumal die 16 GiB in dem Segment nur einen geringeren Mehrwert schaffen, die Kundschaft aber dennoch weiterhin kritisch auf den Preis schauen wird und darüber hinaus verpeilen die meisten, die sich lautstark in Foren echauffieren, dass sie mit ihren Ansprüchen eher zu einer kleineren Gruppe gehören (die zudem auch vielfach etwas weniger kritisch auf den Preis schaut), denn offensichtlich finden nVidia's Karten trotz der so unglaublich schlechten Konfigurationen ihre Käufer und das gar in hoher Stückzahl. *)
Und wie du schon selbst skizziertest, spielt die Verfügbarkeit auch eine Rolle. Diverse Materialknappheiten schränken die Fertigung eh schon grundlegend ein und auch zu Standard-GDDR6-Bausteinen war hier und da schon im letzten Jahr was zulesen, d. h. man würde sich im worst case einen weiteren Faktor ins Haus holen, der die Verfügbarkeitsituation noch einmal verschärfen könnte.
Aktuell geht es schlicht darum den Massenmarkt (so gut wie möglich) zu bedienen und den erreicht man eher mit einer sinnvollen Speicherkapazität und dafür einem niedrigeren Preis. Größere Modelle kann man später immer noch nachreichen, wenn sich die Industrie erholt hat.

*) Man kann sich da natürlich immer versuchen aus der Affäre zu ziehen, indem man einfach erklärt, das die breite Masse halt dumm und minderbemittelt ist, weil die so etwas kauft. Die weitaus plausiblere Erklärung dürfte dagegen deutlich anders gelagert sein ... am Ende ist das aber auch wieder mehr ein psychologisches Thema. ;-)

**) AMD bietet den großen Speicher hauptsächlich als reines Vertriebsargument an. Mit der Architektur kann man sich nicht nennenswert absetzen (bzw. unterliegt gar teilweise), also müsste man entweder beim Verkauf deutlich mit dem Preis runter, was die Marge beträchtlich senkt und fatal für AMD wäre (da bereits die Konsolen-SoCs einen signifikanten Einzelposten mit vergleichsweise niedriger Marge darstellen). Man brauchte also einen weiteren, handfesten und leicht zu bewerbenden Pluspunkt und das ist in diesem Falle der große Speicher. Und da dieser zwangsweise die Fertigungskosten erhöht, musste man zusätzlich einen Weg finden wie man diese Erhöhung in Grenzen hält, sodass die Bilanz am Ende dennoch Positiv mit Blick auf die Marge und Absatzzahlen ausfallen würde und daher kam hier der Infinity Cache ins Spiel. Schlichte, geschäftstechnische, harte Kalkulation mit dem Ziel der Gewinnmaximierung, halt wie bei jedem Unternehmen.
 
Zuletzt bearbeitet:

Kubiac

Software-Overclocker(in)
Nvidia ist so schlecht! Sooo schlecht!

Naja, mir kannst egal sein, hab ne 3090!

Aber sowas von nvidia hätte ich nicht erwartet! Warum keine 16 GB drauf von Haus aus! Soo schlecht!
OK, du findest es nicht gut, was Nvidia da macht.
Du hast aber dennoch die überteuerteste Karte der Firma gekauft.

Finde den Fehler. 😂
So wird Nvidia natürlich nie etwas ändern, denn das Zeug wird ja offensichtlich trotzdem gekauft.
 

Snowhack

BIOS-Overclocker(in)
wenn das so wäre warum habe ich in 4k 20 oder sogar weniger fps und meine 2070S weis nicht was sie machen soll. ich habe alles auf maximum gestellt und habe irgentwas zwischen 14 und 73 fps aber nichts konstantes und meine gpu ist mit 40% weit vom limit entfernt. mein 2600X ist nicht schnell genut um die gpu zu füttern vorallem wenns im multiplayer ist


das ist mein problem und kein plan wie ich das fixen soll

Dann ist aber der Teufel 😈 woanders vergraben, weil Die CPU definitiv mehr kann wenn der alte Threadripper da bereits mit 145FpS aufwartet.

Festplatte, Arbeitsspeicher ergeben auch schlechte Frame‘s, Mods oder Antivieren Programm können auch sich schlecht auswirken auf die Performance

selbst Notebook CPUs
 

raPid-81

Freizeitschrauber(in)
Es war eher ein Witz, aber Danke für die Aufklärung. Welche Chipgrößen gibt es denn btw?! Nur 8er/10er/12er ?!
Bei GDDR6X gibt es aktuell nur 1 GB große Speicherbausteine. 2 GB hat Micron für Anfang 2021 (also jetzt irgendwann) in Aussicht gestellt.

Welche Bestückung mit voller Bus-Bandbreite angebunden werden kann habe ich bereits in diesem Thread beschrieben, Bus-Bandbreite geteilt durch 32bit:

256 bit = 8 / 16 GB (1 GB / 2 GB pro Speicherbaustein)
320 bit = 10 / 20 GB
384 bit = 12 / 24 GB


Was hier anscheinend viele vergessen (Blase und so): die meisten User spielen weiterhin in FullHD. Da genügen aktuell 8 GB auf der 3070 in den meisten Fällen. Die 3070 hat als Ziel nicht 4K / WQHD soweit ich weiss. Es ist die "Premium Karte" für FullHD. Die 3080 dann für WQHD und die 3090 für 4K. So passen dann auch die Speicherbestückungen und Performance gut ins Bild.
 

INU.ID

Moderator
Teammitglied
Einen "Aspekt" darf man bei der Diskussion Nvidia 8/10GB vs ATI 16GB aber auch nicht vergessen: "Feature(s)"

AMD hat die 16GB mit Sicherheit nicht auf die Karten gepackt, um den Kunden einen Gefallen zu tun. Sie brauchten so viel wie möglich um gegen NVs Raytracing/DLSS [anderen Vorteil einfügen] etwas anbieten zu können. Und was ist da einfacher als den Speicher zu verdoppeln.

Nvidia hingegen, und das scheinen ja auch die Verkaufszahlen zu bestätigen, hat es nicht nötig den Speicher "zeitgemäß" zu bestücken, da sich die Karten dank der entsprechenden Features auch so [mehr als nur] sehr gut verkaufen.

Wäre die Performance oder das Feature-Set der AMD-Grakas nennenswert besser, hätte sehr wahrscheinlich auch AMD beim Speicherausbau gespart.
 

seahawk

Volt-Modder(in)
Was hier anscheinend viele vergessen (Blase und so): die meisten User spielen weiterhin in FullHD. Da genügen aktuell 8 GB auf der 3070 in den meisten Fällen. Die 3070 hat als Ziel nicht 4K / WQHD soweit ich weiss. Es ist die "Premium Karte" für FullHD. Die 3080 dann für WQHD und die 3090 für 4K. So passen dann auch die Speicherbestückungen und Performance gut ins Bild.
Minecraft mit RTX ist da für die RTX-Leistung der 3070 8GB schon zu wenig.
 

BBPrediger

Schraubenverwechsler(in)
Ich betreibe einen 32:9 Monitor mit 5120x1440 an einer RTX3080. Alles gut und mit genügend FPS etc. Aber auch bei aktuellen Games mit Ultra Einstellungen, RT, etc. kommt man schon bei 10GByte an die Grenze... Probiert mal das aktuelle CoD mit den höchsten Einstellungen die es gibt inkl. Renderauflösung... Da werden schon 14GByte angezeigt... bei mir auf jeden Fall... Lässt sich trotzdem in hoher FPS Zahl spielen und es gibt auch keine nennenswerten höhere Ladezeiten. Ich bin gespannt was das neue VBIOS Ende des Monats noch bringt in Zusammenarbeit B550, Chipsatz, Resizable Bar und RTX3080 Speicher....
 

DaHell63

BIOS-Overclocker(in)
Ich spreche aber nur für mich und ich bin froh, dass bei der aktuellen Marktsituation meine GTX1070 8GB hat und ich sie einfach noch etwas länger verwenden kann.
Genau das ist der entscheidende Punkt.
Wenn man das auch für andere gelten kassen würde, gäbe es solche Diskussionen überhaupt nicht.
 

twack3r

Software-Overclocker(in)
Du hast aber dennoch die überteuerteste Karte der Firma gekauft.
Ich habe das Gefühl wir drehen uns in diesem Forum seit Jahren im Kreis.

'Überteuert' ist schon recht schwer zu definieren und ergibt am Ende nur Sinn, wenn es eine bei gleicher Leistung/Feature-Set vergleichbare aber günstigere Alternative gibt. Das trifft dann natürlich gerade auf die 3090 am wenigsten zu.

'Überteuerteste' kann ja dann nur noch emotionale Wertschöpfung sein, denn dass 'teuer' und 'überteuert' nicht auf die Zahlungsbereitschaft des Endkunden angewendet werden kann liegt ebenfalls auf der Hand.

Das Ende vom Lied sind dann semi-sozialistische Ausführungen wonach Usern, die zugegriffen haben vorgeworfen wird, sie 'machen den Markt kaputt'. Ist natürlich auch Quatsch, denn wenn Preis X auf Zahlungsbereitschaft trifft dann ist genau das der Markt. Es ist dann aber eben nicht mehr der Markt desjenigen, der anderen die Kaufentscheidung vorhält.
 

seahawk

Volt-Modder(in)
Schön das schlechteste Beispiel gewählt. Gegenfrage: Wie gut läuft Minecraft RTX denn auf den AMD Karten? Oh wait, da läuft es so RICHTIG mies: Link
Wieso das schlechteste Beispiel, es ist das beste Beispiel. Ein Spiel wo die RTX-Leistung und DLSS voll greifen, die 3070 8GB aber ab 16 Chunks von Microrucklern getötet wird, weil der VRAM ausgeht.

Was hilft es mir dann, wenn das Spiel auf AMD Karten noch schlechter läuft? An sich ist Minecraft RTX ja das beste Argument keine AMD-Karte zu kaufen.

Für mich ist es das perfekte Beispiel warum 16GB bei einer 3070 Super Sinn machen würden.
 
Zuletzt bearbeitet:

Basileukum

Software-Overclocker(in)
Da kam schon mal n Artikel zu sowas. Ich fand dann die Kosten so lustig, also was ein paar Gig VRam mehr kosten und das war minimal, zudem man es dann noch als Einzelhansel besorgt und auflötet.

Wenn man dann bedenkt wie die Kartellos von AMD/Nvidia immer hausieren gehen und am liebsten ein paar hundert Euro für etwas mehr VRam aufschlagen würden, weiß man was es da geschlagen hat.
 

raPid-81

Freizeitschrauber(in)
Wieso das schlechteste Beispiel, es ist das beste Beispiel. Ein Spiel wo die RTX-Leistung und DLSS voll greifen, die 3070 8GB aber ab 16 Chunks von Microrucklern getötet wird, weil der VRAM ausgeht.

Was hilft es mir dann, wenn das Spiel auf AMD Karten noch schlechter läuft? An sich ist Minecraft RTX ja das beste Argument keine AMD-Karte zu kaufen.

Für mich ist es das perfekte Beispiel warum 16GB bei einer 3070 Super Sinn machen würden.
Das schlechteste Beispiel weil die AMD Karten trotz mehr VRAM da einfach mal komplett versagen.

Ich habe keine 3070 und auch kein Minecraft RTX, aber laut dem Wccftech Test läuft es auf der Karte in WQHD mit 24 Chunks mit ~50 FPS. Ohne DLSS wohlgemerkt. Mit DLSS dann ~100 FPS.

In 4K ohne DLSS sieht es übel aus für alles unter der 3090, aber die 3070 ist auch keine 4K Karte. Wobei mit DLSS da wieder ~70 FPS rauskommen, 4K, 24 Chunks, auf der 3070...

Hast Du Belege für die 3070 Mikroruckler in dem Spiel?
 

l0lhunt3r_HD

Komplett-PC-Käufer(in)
Dann ist aber der Teufel 😈 woanders vergraben, weil Die CPU definitiv mehr kann wenn der alte Threadripper da bereits mit 145FpS aufwartet.

Festplatte, Arbeitsspeicher ergeben auch schlechte Frame‘s, Mods oder Antivieren Programm können auch sich schlecht auswirken auf die Performance

selbst Notebook CPUs
nutze einen x470 chipstatz mit dem letzten nicht beta bios mit 32gb ddr4 3200 (xmp) und das spiel ist auf einer 1TB ssd antivirus gibs nur den defender hab project lasso aber das konnte nicht wirklich helfen ich hab kein plan wo das problem sein sollte :heul:
 

Watschnburli

Kabelverknoter(in)
Mit deiner 3090 hast du Nvidia den größten Gefallen getan, da verdienen sie die größte Marge, sämtliche anderen Karten sind unrunde Angebote, welche dich stets zum größeren Modell verleiten sollen, denn abgesehen vom Preis ist die 3090 die einzig zukunftstaugliche Karte in Bezug zur Leistung und Speicherbestückung.

Hab mir meine für 1100 €auf ebay ersteigert nachdem meine 1070 seit nem halben Jahr im Eimer war. Der Verkäufer war kein scalper! Und wenn ja, hat er drauf gezahlt! War ne Manli 3090,, vermutlich wollte sie deshalb keiner haben! Hab se unter Wasser gesetzt und die rennt problemlos mit 2000 MHz! Bei 40 °! Ich finde es einfach so schlecht, dass nvidia künstlich spart um die obsoleszenz der Karte schon mal festzulegen! Aber was gibt es für Alternativen?
 

sethdiabolos

Volt-Modder(in)
Ich war kurz davor meinen Lötkolben aus dem Keller zu holen und meiner 3080 weitere 10Gig zu gönnen... Aber ich warte doch lieber *LOL*

Lieber 2 weitere Gig drauf und RTX 3090-Leistung. Die Positionen sind ja noch frei...:)
Ob die aber funktionieren würden wage ich zu bezweifeln.

1615304524223.png
 

D0pefish

Software-Overclocker(in)
Liest sich ja fast wortgleich wie nebenan. ;)

"3D Mark, Furmark und Cryptomining laufen ohne Einschränkungen, aber die Karte renderte hier und da 3D-Grafiken nicht sauber und erzeugte Blacksreens."

:D

Nur mal so als Tipp. Im Video dazu macht er es nach meiner Erfahrung nach schon richtig, mehrere Benches gleichzeitig laufen zu lassen. Dazu noch ein Video abspielen und etwas mit der Webbrowser GPU-Beschleunigung herumtaben und man erzeugt Grafikfehler und Abstürze viel schneller, als, übertrieben gesagt, erst nach fünf Tagen Glänzen beim echten Spielen.
Die Timings beim Trotteln scheinen hier wohl den (bisherigen) Brick der Karte zu verursachen und für mich ist es soweit gesehen nichts weiter als ein weiterer teurer Backstein auf YT-Klickfang aber so leicht wie er in nullkommanix mit der Heißluftpumpe die Chips ausgetauscht hat, ja alles kein Problem. Bissel Flussmittel draufgefingert und fertig. Im Hintergrund unter dem Fenster liegt btw. ein Stapel Karten und bei dem zugemüllten Desktop..., aber ich will jetzt nicht spekulieren. Ich meine: Respekt, sicher. Gut, wenn es noch glaubwürdige Hardware-Erkunder gibt. Wichtiger dennoch: Erst wenn es wirklich funktioniert, aus dem Fenster lehnen. :)
 

owned139

BIOS-Overclocker(in)
Probiert mal das aktuelle CoD mit den höchsten Einstellungen die es gibt inkl. Renderauflösung... Da werden schon 14GByte angezeigt... bei mir auf jeden Fall... Lässt sich trotzdem in hoher FPS Zahl spielen und es gibt auch keine nennenswerten höhere Ladezeiten.
Das ist das Problem mit den ganzen Usern. Sie haben keine Ahnung.
CoD Cold War belegt 70-90% GPU VRAM. Das kann man im Menü einstellen. Das heißt aber nicht, dass diese auch benötigt werden. Bei mir belegt es in 1080p mehr als 20GB VRAM und nichtmal die Hälfte davon wird benötigt.

Siehe:
Call-of-Duty-Black-Ops-Cold-War-Advanced-Graphics-Settings.jpg


Auf einer GPU mit 48GB VRAM wären das 38,4GB.
 

seahawk

Volt-Modder(in)
Das schlechteste Beispiel weil die AMD Karten trotz mehr VRAM da einfach mal komplett versagen.

Ich habe keine 3070 und auch kein Minecraft RTX, aber laut dem Wccftech Test läuft es auf der Karte in WQHD mit 24 Chunks mit ~50 FPS. Ohne DLSS wohlgemerkt. Mit DLSS dann ~100 FPS.

In 4K ohne DLSS sieht es übel aus für alles unter der 3090, aber die 3070 ist auch keine 4K Karte. Wobei mit DLSS da wieder ~70 FPS rauskommen, 4K, 24 Chunks, auf der 3070...

Hast Du Belege für die 3070 Mikroruckler in dem Spiel?

Würde das reichen:


Mit DLSS geht ja auch gut, aber ich bin weiter der Meinung, eine 16GB Version der Karte wäre ein runderes Paket.
 

raPid-81

Freizeitschrauber(in)
Würde das reichen:


Mit DLSS geht ja auch gut, aber ich bin weiter der Meinung, eine 16GB Version der Karte wäre ein runderes Paket.
Definitiv wäre eine 16 GB Variante mit etwas Aufpreis das rundere Paket, da bin ich absolut bei Dir. Nur darf man nicht das Ampere Portfolio vergessen: der 3080 konnten sie keine 20 GB geben da die 2 GB GDDR6X Bausteine schlicht noch nicht verfügbar sind. Und bei Release war das Lineup 3090 - 3080 - 3070 - 3060 schon festgesetzt mit den jeweiligen Speichermengen.

Für FullHD ist die 3070, mit max Details, RT und DLSS, meiner Meinung nach bestens ausgestattet. Wer WQHD so spielen möchte greift zur 3080, für 4K sollte es dann die 3090 sein. Ja, die 3070 kann auch in WQHD gut performen, genauso wie die 3080 in 4K, aber man sollte sich beim Kauf schon an der Ziel-Auflösung orientieren.

Ich will hier gar nicht verteidigen dass 8 GB zu mager für WQHD sind, nur erklären warum es für NV Sinn gemacht hat die Karten so zu releasen.
 

seahawk

Volt-Modder(in)
Hängt halt von der Haltedauer ab. Für 3 Jahre+ finde ich selbst in FHD 8GB zu wenig. Vom Preis her ist es wirklich schwierig, wobei ich auch kein Problem hätte, wenn man sich zwischen 3070 16GB und 3080 10GB entscheiden müsste. Mir wäre dann die 3070 lieber.
 

vinacis_vivids

Freizeitschrauber(in)
Nvidia ist einfach zu geldgeil und verkauft eben überteuert wenig Speicher für viel Geld. Unternehmerisch super Entscheidung, weil Nvidia viel Gewinn macht, allerdings schlecht für die Kunden, die eben wenig Speicher haben.
 

sethdiabolos

Volt-Modder(in)
Für FullHD ist die 3070, mit max Details, RT und DLSS, meiner Meinung nach bestens ausgestattet. Wer WQHD so spielen möchte greift zur 3080, für 4K sollte es dann die 3090 sein.

Ich habe mit der RTX 2080 ganz gut in UHD spielen können und kann das Gleiche jetzt auch mit der 3080 machen. Der VRAM ist oft gut gefüllt, aber viele Spiele allokieren auch mehr VRAM als eigentlich genutzt wird. Die im Vergleich zur 2080 schnellere 3070 jetzt zur Full-HD-Karte zu degradieren ist da doch verkehrt. Immerhin hat sie in WQHD die gleiche Leistung wie die 2080Ti.
 

mannefix

Software-Overclocker(in)
Diese Graka Generation überspringe ich. Ist mir alles zu Irre. Teuer und wenig Speicher. Hohe Verlustleistung.
 

Nuallan

PCGH-Community-Veteran(in)
Diese Graka Generation überspringe ich. Ist mir alles zu Irre. Teuer und wenig Speicher. Hohe Verlustleistung.
Bei AMD gibts immerhin mehr Speicher, aber dafür kein DLSS. So oder so, beide Seiten haben große Nachteile, und sind trotzdem total überteuert. Ich setz dann auch mal 1-2 Gens aus.

Wüsste eh nicht wofür ich die Leistung brauche, denn der Spiele-Markt sieht genauso düster aus. Fast nur noch unfertiger, überteuerter Fließband-Kram im AAA-Bereich. Nein, danke.
 

klink

PC-Selbstbauer(in)
Liest sich ja fast wortgleich wie nebenan. ;)

"3D Mark, Furmark und Cryptomining laufen ohne Einschränkungen, aber die Karte renderte hier und da 3D-Grafiken nicht sauber und erzeugte Blacksreens."

:D

Nur mal so als Tipp. Im Video dazu macht er es nach meiner Erfahrung nach schon richtig, mehrere Benches gleichzeitig laufen zu lassen. Dazu noch ein Video abspielen und etwas mit der Webbrowser GPU-Beschleunigung herumtaben und man erzeugt Grafikfehler und Abstürze viel schneller, als, übertrieben gesagt, erst nach fünf Tagen Glänzen beim echten Spiele
Im erstem Video betrieb er mehrere benches, weil sonst nachdem 3DMark beendet wird ein Blackscreen gibt.
Die Timings beim Trotteln scheinen hier wohl den (bisherigen) Brick der Karte zu verursachen und für mich ist es soweit gesehen nichts weiter als ein weiterer teurer Backstein auf YT-Klickfang aber so leicht wie er in nullkommanix mit der Heißluftpumpe die Chips ausgetauscht hat, ja alles kein Problem. Bissel Flussmittel draufgefingert und fertig. Im Hintergrund unter dem Fenster liegt btw. ein Stapel Karten und bei dem zugemüllten Desktop..., aber ich will jetzt nicht spekulieren. Ich meine: Respekt, sicher. Gut, wenn es noch glaubwürdige Hardware-Erkunder gibt. Wichtiger dennoch: Erst wenn es wirklich funktioniert, aus dem Fenster lehnen. :)

Es ist nicht einfach mit "Heißluftpumpe", unten wird die Platine auch erwärmt, damit geht es viel einfacher und sicherer.
Er betreibt ein Reparaturservice für PCs und Notebooks. Darüber hinaus bittet dieser seinen Kunden schon seit Jahren VRAM upgrades an.


Abgesehen davon, dieser vermuttet bei den Problemen eher Treiberprobleme und keine BIOS.
 

Mitchpuken

Software-Overclocker(in)
Diese Graka Generation überspringe ich. Ist mir alles zu Irre. Teuer und wenig Speicher. Hohe Verlustleistung.
Dann hoffen wir mal, dass wenn es so weit ist, 12GB oder gar 16GB nicht die neuen 8GB sind. Raytracing wird immer hungriger und sobald die Spiele der Nextgen Konsolen auf dem PC landen wird der Speicherhunger sicherlich nochmal ein gutes Stück höher sein. Dank Geld- und Zeitdruck der Publisher werden Entwickler wohl "noch schlampiger" programmieren müssen. Inwiefern dabei die gesparte Arbeit durch Raytracing irgendwo sonst ankommt außer in Dollars beim Publisher wage ich zu bezweifeln.

Grafikkarten mit immer mehr Speicher werden einfach teurer, egal ob die Leistung vom Vorgänger erreicht wird oder nicht, der VRAM Preis halbiert sich ja nicht einfach so von Generation zu Generation.
 

olimon0

Komplett-PC-Käufer(in)
Dann hoffen wir mal, dass wenn es so weit ist, 12GB oder gar 16GB nicht die neuen 8GB sind. Raytracing wird immer hungriger und sobald die Spiele der Nextgen Konsolen auf dem PC landen wird der Speicherhunger sicherlich nochmal ein gutes Stück höher sein. Dank Geld- und Zeitdruck der Publisher werden Entwickler wohl "noch schlampiger" programmieren müssen. Inwiefern dabei die gesparte Arbeit durch Raytracing irgendwo sonst ankommt außer in Dollars beim Publisher wage ich zu bezweifeln.

Grafikkarten mit immer mehr Speicher werden einfach teurer, egal ob die Leistung vom Vorgänger erreicht wird oder nicht, der VRAM Preis halbiert sich ja nicht einfach so von Generation zu Generation.
Die nächste Generation kommt nächsten Herbst (bei den momentanen 2 Jahres Zyklen..), bis dahin sind 12 und 16 Gb einfach noch Overkill und niemals der neue Standart. Raytracing scheitert übriges zur Zeit nicht am Speicher, sondern an der generellen Performance. 12 Gb und 16Gb sind demnach für alle sinnvoll die ohne Raytracing in 4 Jahren noch mit Texturen Ultra spielen wollen. (Und alle anderen Details of low 😂😂..kleiner Spaß)
 

Mitchpuken

Software-Overclocker(in)
Bevor es falsch rüberkommt schreibe ich es lieber den Hinweis dazu :D Das kannst du alles nicht wissen. Weder wann die nächste Gen kommt wegen den Weltweiten Situation derzeit. Auch nicht, welche vram Menge Standard sein wird. Was ist den "heute" Standard? 12GB Overkill, nein, zumindest ist Overkill ein zu starkes Wort dafür. Nicht zwingend notwendig trifft es eher. Je mehr vram vorhanden ist, desto verschwenderischer wird damit umgegangen, weil es einfach gesagt eine Verdopplung gibt. Wegen Raytracing ok, da hast wohl recht, aber das wird in Zukunft wohl Hand in Hand mit DLSS kommen. Und was in 4 Jahren sein wird, puh....
 
Oben Unten