Geforce RTX 3070: Modder verdoppelt Speicher auf 16 GiB

Ungleich große Speicherbausteine sind jetzt sehr ungünstig, weil dann die nutzbare Bandbreite nicht mehr konstant wäre. Machst Du z.B. 12GB auf eine 256 Bit Schnittstelle, würdest Du 8 mit 256Bit ansprechen und 4 GB mit 128 Bit. Das ist dann 970 reborn. (ok etwas weniger schlimm)
 
Ungleich große Speicherbausteine sind jetzt sehr ungünstig, weil dann die nutzbare Bandbreite nicht mehr konstant wäre. Machst Du z.B. 12GB auf eine 256 Bit Schnittstelle, würdest Du 8 mit 256Bit ansprechen und 4 GB mit 128 Bit. Das ist dann 970 reborn. (ok etwas weniger schlimm)
Richtig, es war auch nur eine Möglichkeit die ich aufgelistet habe. Deswegen sind NVidia / AMD an die verfügbaren Speicherbaustein-Größen gebunden.
 
Nur mal so als Verständnis ein Threadripper 1950X schafft 145 FPS in dem GAME in 720p die RTX 2080 aber nur 85FPS in 4k und Ultra das bedeutet dein Ryzen 2600X (höhere Single-Core Leistung als TR) ist nicht der Flaschenhals sondern die RTX 2080.

Weil deine GPU weniger Bilder berechnet, als deine CPU Theoretisch Verarbeiten kann.

Du müsstest also auf 1080p und weniger als Medium Spielen um ins CPU Limit zu kommen, weil der 2600X eine höhere Single-Core Leistung hat als der 1950X
Anhang anzeigen 1356834Anhang anzeigen 1356835
wenn das so wäre warum habe ich in 4k 20 oder sogar weniger fps und meine 2070S weis nicht was sie machen soll. ich habe alles auf maximum gestellt und habe irgentwas zwischen 14 und 73 fps aber nichts konstantes und meine gpu ist mit 40% weit vom limit entfernt. mein 2600X ist nicht schnell genut um die gpu zu füttern vorallem wenns im multiplayer ist


das ist mein problem und kein plan wie ich das fixen soll
 
Zuletzt bearbeitet:
Nvidia ist so schlecht! Sooo schlecht!

Naja, mir kannst egal sein, hab ne 3090!

Aber sowas von nvidia hätte ich nicht erwartet! Warum keine 16 GB drauf von Haus aus! Soo schlecht!
Weil dann die Karte mehr hätte als die teurere 3080. NUR DESHALB...
Und ja bei der 3060 haben sie es gemacht...weil sie LAAAANGE damit gerungen und 6GB zu wenig war...
 
Als Beispiel: 16 GB DDR4 3400 vs 32 GB DDR4 2400, was glaubst Du ist schneller? Die 32 GB sind nur in edge-cases schneller, meist werden die 16 GB die Nase vorn haben.

Der Vergleich hinkt. Man müßte 16GB DDR4 3400 mit 32GB DDR4 3400 vergleichen (jeweils gleiche Latenzen und Dualchannel. Wenn man das macht, dann gibt es bis 16GB (bei Windows sind es effektiv 12GB) keinen Unterschied, darüber gewinnen die 32GB Haushoch.

(natürlich gibt es Fälle, in denen es sinnvoll ist unterschiedliche Konfiguartionen zu vergleichen, etwa wenn die 16GB DDR4 3400 genausoviel kosten, wie die 32GB DDR4 2400).

Klar kann man auf die RTX 3070 auch 32 GB Speicher packen, aber wenn man dazu nicht die Bus Bandbreite erhöht, dann bringt das nichts. Der Speicher muss auch beschrieben / gelesen werden.

Es gibt genügend Gegenbeweise, das es haufenweise Karten gibt, die einfach nur mehr Speicher haben. Am Ende haben die Karten mit mehr VRAM aus ihren kleineren Brüdern eigentlich immer Kleinholz gemacht, zumindest seit den DX 11 Karten (früher konnte es sein, dass ein neuer DX Standard kam und die Karten damit die neuen Spiele sowieso nichtmehr geschafft haben).

Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.
(...) oder die Hersteller anfangen 1 GB und 2 GB Speicherbausteine auf derselben Karte zu verbauen. Das macht dann allerdings die Produktion komplizierter.

Es geht weniger um die komplizierte Produktion, als um die Leistungseinbrüche. Die GTX 660(Ti) hatte zwar 2GB, ist aber nach 1,5GB stark eingebrochen. Ausnahme waren die seltenen 3GB Karten, die konnten ihre Leistung über die ganze Kapazität halten. Möglich wäre es auch noch, unregelmäßig zwei Chips an einen Controller zu hängen, so ähnlich, wie es bei der GTX 970 geschehen ist. Da hatte man dann 20% Leistungseinbruch, wenn der VRAM voll genutzt wurde.

Nvidia hat aber für die GTX 970 zu Glück ordentlich was auf die Finger bekommen.
 
Zuletzt bearbeitet:
Es gibt genügend Gegenbeweise, das es haufenweise Karten gibt, die einfach nur mehr Speicher haben. Am Ende haben die Karten mit mehr VRAM aus ihren kleineren Brüdern eigentlich immer Kleinholz gemacht, zumindest seit den DX 11 Karten (früher konnte es sein, dass ein neuer DX Standard kam und die Karten damit die neuen Spiele sowieso nichtmehr geschafft haben).

Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.
kann man gut bei RX 5500 4GB vs RX 5500 8GB und GTX 960 2GB vs 960 4GB sehen

absolut identische Karten nur die eine Variante hat Speichermodule mit doppelter Kapazität

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

die Karten sind gleich schnell aber wenn der Variante mit weniger VRAM der Selbige ausgeht, dann ist die Variante mit mehr VRAM wesentlich schneller
 
Auch meine GTX 670 könnte 4 oder gar 8GB vertragen.

Meine GTX 670 mit 2 GB habe ich damals gegen die GTX 1070 mit 8GB ausgetauscht, weil manche Spiele einfach nicht mehr mit 2 GB funktioniert haben. Grafikdetails runter und 4GB und ich hätte mit der neuen Karte auch noch warten können...

Ähnlich sehe ich es jetzt auch mit den 8GB vs. 16GB. Wenn AMD erstmal großflächig jetzt 16GB einsetzt, dann wird das über kurz oder lang von den Spieleentwicklern auch genutzt.
 
Mich würde da mal interessieren, was die größeren Speichermodule gekostet haben? Bzw. wie hoch ist der Aufpreis zu den kleineren Modulen?

Da könnte man schon in etwa ableiten, ob es für Nvidia nicht recht günstig zu bewerkstelligen gewesen wäre, direkt die doppelte Menge Speicher zu verbauen. (Vor allem wird Nvidia ja einen deutlich geringeren Preis zahlen als ein Normalo)

Mir ist natürlich auch bewusst, dass die Verfügbarkeit auch eine große Rolle spielt, aber interessant fände ich das schon.
Kosten recht genau das doppelte. 8Gb-BGAs mit typischer Standardgeschwindigkeit kosten vor Steuer etwa um die 10 €, 16 Gb-BGAs rd. 20 €, dazu noch in 2000er Chargen. Und ein Mengenrabatt wird zweifellos nicht ins bodenlose wachsen können, denn hier dürfte von den Chipherstellern grundsätzlich schon knapp kalkuliert werden.
Ist halt schlicht eine kalkulatorische Sache. Ob ich eine Karte mit 499 US$ und 8 GiB für den Massenparkt positioniere oder diese mit min. 584 US$ ansetzen müsste mit 16 GiB ist nun einmal ein beträchtlicher Unterschied. Zumal die 16 GiB in dem Segment nur einen geringeren Mehrwert schaffen, die Kundschaft aber dennoch weiterhin kritisch auf den Preis schauen wird und darüber hinaus verpeilen die meisten, die sich lautstark in Foren echauffieren, dass sie mit ihren Ansprüchen eher zu einer kleineren Gruppe gehören (die zudem auch vielfach etwas weniger kritisch auf den Preis schaut), denn offensichtlich finden nVidia's Karten trotz der so unglaublich schlechten Konfigurationen ihre Käufer und das gar in hoher Stückzahl. *)
Und wie du schon selbst skizziertest, spielt die Verfügbarkeit auch eine Rolle. Diverse Materialknappheiten schränken die Fertigung eh schon grundlegend ein und auch zu Standard-GDDR6-Bausteinen war hier und da schon im letzten Jahr was zulesen, d. h. man würde sich im worst case einen weiteren Faktor ins Haus holen, der die Verfügbarkeitsituation noch einmal verschärfen könnte.
Aktuell geht es schlicht darum den Massenmarkt (so gut wie möglich) zu bedienen und den erreicht man eher mit einer sinnvollen Speicherkapazität und dafür einem niedrigeren Preis. Größere Modelle kann man später immer noch nachreichen, wenn sich die Industrie erholt hat.

*) Man kann sich da natürlich immer versuchen aus der Affäre zu ziehen, indem man einfach erklärt, das die breite Masse halt dumm und minderbemittelt ist, weil die so etwas kauft. Die weitaus plausiblere Erklärung dürfte dagegen deutlich anders gelagert sein ... am Ende ist das aber auch wieder mehr ein psychologisches Thema. ;-)

**) AMD bietet den großen Speicher hauptsächlich als reines Vertriebsargument an. Mit der Architektur kann man sich nicht nennenswert absetzen (bzw. unterliegt gar teilweise), also müsste man entweder beim Verkauf deutlich mit dem Preis runter, was die Marge beträchtlich senkt und fatal für AMD wäre (da bereits die Konsolen-SoCs einen signifikanten Einzelposten mit vergleichsweise niedriger Marge darstellen). Man brauchte also einen weiteren, handfesten und leicht zu bewerbenden Pluspunkt und das ist in diesem Falle der große Speicher. Und da dieser zwangsweise die Fertigungskosten erhöht, musste man zusätzlich einen Weg finden wie man diese Erhöhung in Grenzen hält, sodass die Bilanz am Ende dennoch Positiv mit Blick auf die Marge und Absatzzahlen ausfallen würde und daher kam hier der Infinity Cache ins Spiel. Schlichte, geschäftstechnische, harte Kalkulation mit dem Ziel der Gewinnmaximierung, halt wie bei jedem Unternehmen.
 
Zuletzt bearbeitet:
Nvidia ist so schlecht! Sooo schlecht!

Naja, mir kannst egal sein, hab ne 3090!

Aber sowas von nvidia hätte ich nicht erwartet! Warum keine 16 GB drauf von Haus aus! Soo schlecht!
OK, du findest es nicht gut, was Nvidia da macht.
Du hast aber dennoch die überteuerteste Karte der Firma gekauft.

Finde den Fehler. ?
So wird Nvidia natürlich nie etwas ändern, denn das Zeug wird ja offensichtlich trotzdem gekauft.
 
wenn das so wäre warum habe ich in 4k 20 oder sogar weniger fps und meine 2070S weis nicht was sie machen soll. ich habe alles auf maximum gestellt und habe irgentwas zwischen 14 und 73 fps aber nichts konstantes und meine gpu ist mit 40% weit vom limit entfernt. mein 2600X ist nicht schnell genut um die gpu zu füttern vorallem wenns im multiplayer ist


das ist mein problem und kein plan wie ich das fixen soll

Dann ist aber der Teufel ? woanders vergraben, weil Die CPU definitiv mehr kann wenn der alte Threadripper da bereits mit 145FpS aufwartet.

Festplatte, Arbeitsspeicher ergeben auch schlechte Frame‘s, Mods oder Antivieren Programm können auch sich schlecht auswirken auf die Performance

selbst Notebook CPUs
 
Es war eher ein Witz, aber Danke für die Aufklärung. Welche Chipgrößen gibt es denn btw?! Nur 8er/10er/12er ?!
Bei GDDR6X gibt es aktuell nur 1 GB große Speicherbausteine. 2 GB hat Micron für Anfang 2021 (also jetzt irgendwann) in Aussicht gestellt.

Welche Bestückung mit voller Bus-Bandbreite angebunden werden kann habe ich bereits in diesem Thread beschrieben, Bus-Bandbreite geteilt durch 32bit:

256 bit = 8 / 16 GB (1 GB / 2 GB pro Speicherbaustein)
320 bit = 10 / 20 GB
384 bit = 12 / 24 GB


Was hier anscheinend viele vergessen (Blase und so): die meisten User spielen weiterhin in FullHD. Da genügen aktuell 8 GB auf der 3070 in den meisten Fällen. Die 3070 hat als Ziel nicht 4K / WQHD soweit ich weiss. Es ist die "Premium Karte" für FullHD. Die 3080 dann für WQHD und die 3090 für 4K. So passen dann auch die Speicherbestückungen und Performance gut ins Bild.
 
Einen "Aspekt" darf man bei der Diskussion Nvidia 8/10GB vs ATI 16GB aber auch nicht vergessen: "Feature(s)"

AMD hat die 16GB mit Sicherheit nicht auf die Karten gepackt, um den Kunden einen Gefallen zu tun. Sie brauchten so viel wie möglich um gegen NVs Raytracing/DLSS [anderen Vorteil einfügen] etwas anbieten zu können. Und was ist da einfacher als den Speicher zu verdoppeln.

Nvidia hingegen, und das scheinen ja auch die Verkaufszahlen zu bestätigen, hat es nicht nötig den Speicher "zeitgemäß" zu bestücken, da sich die Karten dank der entsprechenden Features auch so [mehr als nur] sehr gut verkaufen.

Wäre die Performance oder das Feature-Set der AMD-Grakas nennenswert besser, hätte sehr wahrscheinlich auch AMD beim Speicherausbau gespart.
 
Was hier anscheinend viele vergessen (Blase und so): die meisten User spielen weiterhin in FullHD. Da genügen aktuell 8 GB auf der 3070 in den meisten Fällen. Die 3070 hat als Ziel nicht 4K / WQHD soweit ich weiss. Es ist die "Premium Karte" für FullHD. Die 3080 dann für WQHD und die 3090 für 4K. So passen dann auch die Speicherbestückungen und Performance gut ins Bild.
Minecraft mit RTX ist da für die RTX-Leistung der 3070 8GB schon zu wenig.
 
Ich betreibe einen 32:9 Monitor mit 5120x1440 an einer RTX3080. Alles gut und mit genügend FPS etc. Aber auch bei aktuellen Games mit Ultra Einstellungen, RT, etc. kommt man schon bei 10GByte an die Grenze... Probiert mal das aktuelle CoD mit den höchsten Einstellungen die es gibt inkl. Renderauflösung... Da werden schon 14GByte angezeigt... bei mir auf jeden Fall... Lässt sich trotzdem in hoher FPS Zahl spielen und es gibt auch keine nennenswerten höhere Ladezeiten. Ich bin gespannt was das neue VBIOS Ende des Monats noch bringt in Zusammenarbeit B550, Chipsatz, Resizable Bar und RTX3080 Speicher....
 
Ich spreche aber nur für mich und ich bin froh, dass bei der aktuellen Marktsituation meine GTX1070 8GB hat und ich sie einfach noch etwas länger verwenden kann.
Genau das ist der entscheidende Punkt.
Wenn man das auch für andere gelten kassen würde, gäbe es solche Diskussionen überhaupt nicht.
 
Du hast aber dennoch die überteuerteste Karte der Firma gekauft.
Ich habe das Gefühl wir drehen uns in diesem Forum seit Jahren im Kreis.

'Überteuert' ist schon recht schwer zu definieren und ergibt am Ende nur Sinn, wenn es eine bei gleicher Leistung/Feature-Set vergleichbare aber günstigere Alternative gibt. Das trifft dann natürlich gerade auf die 3090 am wenigsten zu.

'Überteuerteste' kann ja dann nur noch emotionale Wertschöpfung sein, denn dass 'teuer' und 'überteuert' nicht auf die Zahlungsbereitschaft des Endkunden angewendet werden kann liegt ebenfalls auf der Hand.

Das Ende vom Lied sind dann semi-sozialistische Ausführungen wonach Usern, die zugegriffen haben vorgeworfen wird, sie 'machen den Markt kaputt'. Ist natürlich auch Quatsch, denn wenn Preis X auf Zahlungsbereitschaft trifft dann ist genau das der Markt. Es ist dann aber eben nicht mehr der Markt desjenigen, der anderen die Kaufentscheidung vorhält.
 
Schön das schlechteste Beispiel gewählt. Gegenfrage: Wie gut läuft Minecraft RTX denn auf den AMD Karten? Oh wait, da läuft es so RICHTIG mies: Link
Wieso das schlechteste Beispiel, es ist das beste Beispiel. Ein Spiel wo die RTX-Leistung und DLSS voll greifen, die 3070 8GB aber ab 16 Chunks von Microrucklern getötet wird, weil der VRAM ausgeht.

Was hilft es mir dann, wenn das Spiel auf AMD Karten noch schlechter läuft? An sich ist Minecraft RTX ja das beste Argument keine AMD-Karte zu kaufen.

Für mich ist es das perfekte Beispiel warum 16GB bei einer 3070 Super Sinn machen würden.
 
Zuletzt bearbeitet:
Da kam schon mal n Artikel zu sowas. Ich fand dann die Kosten so lustig, also was ein paar Gig VRam mehr kosten und das war minimal, zudem man es dann noch als Einzelhansel besorgt und auflötet.

Wenn man dann bedenkt wie die Kartellos von AMD/Nvidia immer hausieren gehen und am liebsten ein paar hundert Euro für etwas mehr VRam aufschlagen würden, weiß man was es da geschlagen hat.
 
Zurück