Was bedingt *technisch* die Größe des VRAM?

Herr_M

PC-Selbstbauer(in)
Hallo.

Welche technischen Voraussetzungen bestehen für die Entscheidung, wieviel VRAM verbaut werden kann?

Hersteller (bspw. AMD, Nvidia, Intel) können ja nicht willkürlich entscheiden, ob sie 16 GB, 19 GB oder 23,5 GB verbauen. Aber welche Auswahl haben sie? Von welchen anderen technischen Faktoren hängt das ab?

Ich stelle nicht die Frage, welche bloß betriebswirtschaftlichen Voraussetzungen für die Frage, wieviel VRAM eine GPU haben kann, bestehen (geplante Obsoleszenz usw. usf. ...). Falls die Themenfrage nicht abstrahiert von betriebswirtschaftlichen Interessen hinreichend beanwortet werden kann, gehört das selbstverständlich dazu.

Merci.


PS: Damn, falsches Forum erwischt. Wäre die Moderation bitte so freundlich, das Thema zu verschieben?
 
Moin, du meinst keinen normalen RAM sondern VRAM?
Welche technischen Voraussetzungen bestehen für die Entscheidung, wieviel VRAM verbaut werden kann?
Der Speichercontroller in der GPU bzw. das daraus resultierende Interface zum VRAM.
Aber welche Auswahl haben sie? Von welchen anderen technischen Faktoren hängt das ab?
wieviel VRAM eine GPU haben kann
Machen wir mal ein Beispiel:
Radeon 7800XT, hat ein 256 Bit Interface am/zum Speichercontroller.
Ein Chip braucht ein 32 Bit Interface.

Du siehst, 8 Chips, 2GB pro Chip. 256 Bit/32 Bit = 8.

7900XTX, gleiches Spiel, 384 Bit auf 24GB,

Wie entstehen nun z. B. Karten welche mit 8GB und 16GB verfügbar sind?

Beispiel, 7600 -> 128 Bit Interface -> 4 Chips -> 8GB.

7600XT -> 128 Bit Interface -> 8 Chips -> 16GB, wie macht man das also?
Man hängt Chips an das gleiche Interface auf die Rückseite:
1735916843230.png


So sind damals auch GTX680 mit 2/4GB entstanden, oder GTX760, GTX 780Ti/Titan usw...

Bedeutet also, man könnte theoretisch aus einer 4070 12GB eine 4070 24GB machen, macht aber technisch keinen Sinn.
16GB sind bei der 4070 hingegen - ohne Änderung am Speichercontroller - nicht möglich.
Daher ist die 4070Ti Super mit 16GB auch eher eine 4080, da diese das notwendige Speicherinterface für 16GB an Board hat.
Das erkennt man ja auch am Chip, AD103 vs AD104, siehe z. B. Techpowerup.

Natürlich spielt aber auch eine Rolle welche Chips gerade in welcher Menge zu welchem Preis verfügbar sind,
gibts neuen HBM (man denke an Vega oder Fury), ist der lieferbar, gibts Chips mit 1GB, 2GB etc., daran wird sich natürlich auch orientiert.
Macht ja keinen Sinn ein super Interface zu designen, wenn die dafür notwendigen Chips nur in geringer Menge lieferbar sind.

Gruß
 
Ja, meinte VRAM, habe nur das falsche Forum erwischt. :P

Super Antwort, ich dank dir.

Somit haben Grafikkartenhersteller also die möglichen Chips als Vorgabe und passen entsprechend den Speichercontroller an die letztlich gewünschte Größe des VRAM an, ja?

Können 1 GB- und 2 GB-Chips kombiniert werden, womit eine beidseits bestückte 4070 mit 20 GB möglich würde?

Resultierend wäre nun die Frage: was bestimmt die Auswahl des Controllers? Kann hier nach Belieben das Interface (anhand betriebswirtschaftlicher Interessen) gesetzt werden, oder muss das Interface mit anderen Teilen der GPU "synchronisiert" werden?

Also eher nur:
Doch eine höhere Speicheranbindung ist eben auch aufwendiger vom PCB-Design und von der Produktion selbst und demnach kosten Grafikkarten auch mehr, wenn das Speicherinterface sehr groß ausfällt.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/60843-128-256-bit-oder-192-384-bit-die-anbindung-von-gpu-speicher-im-detail-erklärt.html
 
Zuletzt bearbeitet:
Somit haben Grafikkartenhersteller also die möglichen Chips als Vorgabe und passen entsprechend den Speichercontroller an die letztlich gewünschte Größe des VRAM an, ja?
Mehr oder weniger ja, der Rest ist dann eher Betriebswirtschaft.^^
Können 1 GB- und 2 GB-Chips kombiniert werden, womit eine beidseits bestückte 4070 mit 20 GB möglich würde?
Ja, siehe z. B. Xbox One X, die hat (lass mich lügen) 6x2GB und 4x1GB.
Nachteil ist dann, dass ein Teil des RAMs (bezogen auf die Menge) sich nur "langsamer" ansprechen lässt.
Wenn man darauf entsprechend optimiert - ok, aber bei GPUs, die überall gut laufen müssen, dürften daraus dann Szenarien wie bei der GTX 970 entstehen.
Werden dort von den 4GB mehr als 3,5GB genutzt, brechen die FPS massiv ein.
Es ist also technisch möglich, aber für Gamer aus meiner Sicht nicht sinnvoll.
Resultierend wäre nun die Frage: was bestimmt die Auswahl des Controllers? Kann hier nach Belieben das Interface (anhand betriebswirtschaftlicher Interessen) gesetzt werden,
Ich denke, dass hier Serverkarten nen großen Einfluss haben, gibt ja im Serverbereich auch GPUs ähnlich einer 4090 mit 48GB, darüber wird der Standard gesetzt, der Gamingkram wird dann entsprechend beschnitten.
oder muss das Interface mit anderen Teilen der GPU "synchronisiert" werden?
Was heißt synchronisiert, ein zu kleines oder zu großes Interface an einer zu großen oder zu kleinen GPU macht natürlich nur bedingt Sinn, aber auch sowas gibt es im Serverbereich für bestimmte Anwendungen.
 
Zuletzt bearbeitet:
Somit haben Grafikkartenhersteller also die möglichen Chips als Vorgabe und passen entsprechend den Speichercontroller an die letztlich gewünschte Größe des VRAM an, ja?
Technisch ja - aber real gehts andersrum:
Die Hersteller passen das Speicherinterface während des Chipdesigns schon an den Tradeoff von Performancegewinn pro Bandbreite und benötigter teurer Chipfläche sowie Powerbudget an - die Menge an vRAM ist am Ende eher das Endergebnis dieser Betrachtungen, nicht das, worauf man zielt.

Wenn ein Chip etwa aufgelegt wird mkit einem 256bit-SI passiert das nicht weil jemand vorher meint "ich will 16GiB vRAM verbauen" sondern weil diese Speicherinterfacegröße den mutmaßlich besten Kompromiss von Chipfläche, Leistungsaufnahme und Performance in einem bestimmten Marktsegment bietet. Ob man da dann 8 oder 16 oder 32 GiB vRAM dranpappt ist eine Entscheidung ganz am Ende.

oder muss das Interface mit anderen Teilen der GPU "synchronisiert" werden?
Es gibt mehrere Dinge die "passen" müssen. Ein sehr breites SI bedeutet beispielsweise auch, dass du sehr viele Pinouts hast und einen sehr großen Sockel/Package und ein kompliziertes mehrlagiges PCB brauchst um die ganzen Kontakte auch an vRAM-Chips parallel anzubinden.
 
Mit GDDR7 wird es auch VRAM mit 3 GiB je Modul geben. Karten mit 12 bzw. 16 GiB ließen sich damit ganz einfach mit 18 bzw. 24 GiB neu auflegen.
 
Okay, erhellend.
Ob man da dann 8 oder 16 oder 32 GiB vRAM dranpappt ist eine Entscheidung ganz am Ende.
Also ist es dann doch so, dass die Hersteller (unter Berücksichtigung der Einpassung des Gesamtpakets) ziemlich frei entscheiden, welches VRAM-Paket sie den Grafikprozessoren zur Seite stellen? Konrekt könnte die 5080 mit mutmaßlichem GB203-4XX-A1 also auch 20 GB tragen.

Nun habe ich an unterschiedlichen Stellen gelesen, die Preise der GDDRx(X)-Module seien verglichen mit dem Rest der Grafikkarte eher günstig. Wenn nun auch 3 GB-Module in günstiger Menge zur Verfügung stehen, würde ich als Laie meinen, dass über diese Module (oder auch mehr 2 GB-Module) ein besseres Preis-Leistungs-Verhältnis angeboten werden könnte, weil die teuren Bestandteile unberührt bleiben. Zudem erscheint eine 5080 Tri mit 24 GB VRAM dann als annehmbare Prognose, oder nicht?
 
Okay, erhellend.

Also ist es dann doch so, dass die Hersteller (unter Berücksichtigung der Einpassung des Gesamtpakets) ziemlich frei entscheiden, welches VRAM-Paket sie den Grafikprozessoren zur Seite stellen? Konrekt könnte die 5080 mit mutmaßlichem GB203-4XX-A1 also auch 20 GB tragen.
Könnte ja, ich gehe aber nicht davon aus.
Nun habe ich an unterschiedlichen Stellen gelesen, die Preise der GDDRx(X)-Module seien verglichen mit dem Rest der Grafikkarte eher günstig.
Bei der Masse an Karten, die verkauft werden, ist es aber trotzdem insgesamt ein signifikanter Anteil.
Wenn nun auch 3 GB-Module in günstiger Menge zur Verfügung stehen, würde ich als Laie meinen, dass über diese Module (oder auch mehr 2 GB-Module) ein besseres Preis-Leistungs-Verhältnis angeboten werden könnte, weil die teuren Bestandteile unberührt bleiben.
Die 3GB Module werden gerade zu beginn nicht günstig sein, bei mehr 2 GB Modulen müsste das Interface und damit der Chip vergrößert werden, die teuren "Bestandsteile" werden damit noch teurer.
Zudem erscheint eine 5080 Tri mit 24 GB VRAM dann als annehmbare Prognose, oder nicht?
Technisch vielleicht, betriebswirtschaftlich nein. AMD bringt dieses Jahr keine High-End Karte, es gibt also keinen Grund für Nvidia eine Karte mit mehr VRAM zu bringen, damit würden sie sich nur selber in Zukunft den Markt kaputt machen.
Die 4080 User werden wahrscheinlich nicht upgraden, die 3080 User steigen auch auf ein 16GB Modell um. Also warum sollte man das tun?
 
lso ist es dann doch so, dass die Hersteller (unter Berücksichtigung der Einpassung des Gesamtpakets) ziemlich frei entscheiden, welches VRAM-Paket sie den Grafikprozessoren zur Seite stellen?
Frei im Rahmen des technisch sinnvollen.
An ein 256bit SI passen 8 oder 16 oder 24 oder 32 GB, je nach verwendeten vRAM-Chips. Nichts dazwischen.

Im Rahmen des technisch machbaren gehts auch völlig frei - da kannste auch 21,5 GiB realisieren. Aber solche Kunstgriffe haben harte Nachteile und das letzte Mal das NVidia sowas gemacht hat (3,5 statt 4 GB bei der GTX970) hat das "Speichergate" einen harten Shitstorm ausgelöst. :-D
 
Wie schaut es mit größeren Modulen aus? Sind 3 GB aktuell der Horizont dessen, was die Fertigungsprozesse hergeben? Oder liegt es eher an der Nachfrage, also weil bspw. Nvidia in Taiwan bisher noch keine größeren Module in Auftrag gegeben hat?
 
Schau Dir aktuelle DDR5-Riegel an.
32GB-Riegel haben 8 bzw. 16 Chips. D.h. die Chips sind auch "nur" 16 bzw. 32 Gigabit groß.
Ich denke nicht, dass es daran liegt, das Nvidia nicht groß genug bestellt, sondern dass es tatsächlich zur Zeit wohl das Ende der Fahnenstange, bzw. der P/L Sweetspot ist.

Bestätigung hier:
 
Zuletzt bearbeitet:
Frei im Rahmen des technisch sinnvollen.
An ein 256bit SI passen 8 oder 16 oder 24 oder 32 GB, je nach verwendeten vRAM-Chips. Nichts dazwischen.

Im Rahmen des technisch machbaren gehts auch völlig frei - da kannste auch 21,5 GiB realisieren. Aber solche Kunstgriffe haben harte Nachteile und das letzte Mal das NVidia sowas gemacht hat (3,5 statt 4 GB bei der GTX970) hat das "Speichergate" einen harten Shitstorm ausgelöst. :-D

Die GPU-Hersteller machen meinem Wissen nach schon länger strikte Vorgaben, da ist niemand frei im Rahmen des technisch möglichen. Es gibt die gleichen GPUs in der Regel auch auf Profi-Karten mit doppeltem oder vierfachen Speicher – aber es ist lange her, dass jemand so etwas auf eigene Faust für Gamer angeboten hat. Genau wie Grenzen für die Verstellbarkeit von Power Limits und teilweise Taktraten dürften solche Parameter Vertragsbestandteil sein. Sonst hätten wir längst zumindest Prototypen einer 4070Ti24 oder 4080S32 gesehen. Rein theoretisch müsste es mit beidseitiger, asymmetrischer Bestückung auch schon länger möglich sein, "3"-basierte Kapazitäten zu realisieren. Z.B. 3080Ti18 mit 1-GiB-Chips vorne und 0,5 GiB hinten wäre ausgehend von 3090-PCB ein Entwicklungsaufwand von null und von der Leistungs-Kapazitäts-Balance sehr spannend gewesen.
 
Zurück