News GDDR7 mit 32 Gbps: Samsung entwickelt Grafikspeicher für Next-Gen-GPUs

Ich wäre eher für eine Bestückung mit 4 oder vllt. nur 2GB HBM. Und den restlichen Speicher (8 bis 12GB) als herkömmlichen Speicher. ->Den HBM für alle häufiger zu ändernden Daten und GDDR für die seltener zu ändernden Daten.
So ähnlich wie bei der XBone?
Hatte ja super geklappt.

@GDDR7
Cool. Dann kann ja die RTX 5060 eine 64Bit breite Speicherschnittstelle haben.
Vorschritt ist halt echt cool.
 
Wieder nur 2GB Module.
aber
Das wäre ideal am 256bit Interface mit 16GB.
(.... könnte ja u.U. mit ds schon ne Weile passen)

Gerade wenn ich die 7900GRE so sehe, wäre nice to have als Refresh.
(ideal wärs, mal mit den W wieder auf 6900-Niveau runter zu kommen, ... für SOC+Vram)
 
Zuletzt bearbeitet:
Was bei deiner Annahme aber fehlt. Je mehr Chip Fläche, desto weniger Chips pro Wafer, desto weniger ausbeuten mit voll funktionierenden Chips resultierend weniger Marge pro Wafer.
das spielt meiner Annahme ja eher in die Hand: wie gesagt: bei HBM kann der Chip entweder kleiner und sparsamer sein, oder man "füllt" die gewonnene Größe wieder auf, hat mehr HW Einheiten (was auch wieder mehr Varianten ermöglicht)
HBM ist für Gamingkarten aktuell einfach nicht nötig. Es würde nur den Preis unnötig in die Höhe treiben (noch unnötiger wie er ohnehin schon ist).
naja eben nicht: denn einerseits werden die Chips ja kleiner, andererseits ist der Speicherpreis bei den aktuellen Karten das kleinste Problem
Ich denke auch, dass die Yiele Rate von Chips mit HBM deutlich geringer ist als wenn man nur ein GDDR Schnittstelle auf den Chip bringt. Daher verwendet man HBM wohl die nächste Zeit nur auf hochpreisigen Profikarten.
das war aber bei der Einführung nicht das Problem. Ich kenne keine Yieldraten, aber es handelt sich beim Speicher um kein Hexenwerk
 
aber
Das wäre ideal am 256bit Interface mit 16GB.
(.... könnte ja u.U. mit ds schon ne Weile passen)

Gerade wenn ich die 7900GRE so sehe, wäre nice to have als Refresh.
(ideal wärs, mal mit den W wieder auf 6900-Niveau runter zu kommen, ... für SOC+Vram)
Dann bleibt 128 Bit aber weiterhin auf 8GB hängen.

Navi43 wird sicherlich wieder 128Bit haben ... und NV wird es sicherlich nicht anders machen.
 
Schon, gestapelte Chips haben aber auch so ihre Tücken.
ich sprach eigentlich - da war ich wohl unklar - an Ersparnis bei der GPU, schließlich hat diese dann einen wesentlich kleineren Speichercontroller. Ist ja auch der Grund, warum man selbst bei den großen Chips nicht 512 Bit Interfaces verbaut
Meine Vermutung ist wie gesagt, dass die Effizienzschere zwischen GDDR und HBM einfach nicht so weit aufgegangen ist, wie man gedacht hat.
das kann gut sein
Ist halt die Frage, ob die RT-Einheiten wirklich an der aktuellen Bandbreite verhungern. Die 250W bekommt man sicher hin, aber ab Werk sehe ich das nicht kommen und der Leistungssprung zu einer ausgefahrenen 4090 wird dann vermutlich auch deutlich schrumpfen.
Du kannst eine 4090 ja mit knapp 300W betreiben ohne größere Verluste, das Gedankenspiel wäre, dass das mit HBM bei weniger Watt möglich wäre (entweder sogar rein aufgrund des Speicherinterfaces, oder mit einem größeren Chip der etwas geringer getaktet ist).
Siehe hier https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/
Ob 450W oder 300W, die 4090 verliert nur knapp 10%
Bei dem Preis wär mir eben eine 4090 als 250W Variante mit 32 GB und ähnlicher Performance lieber gewesen und das hätte sich natürlich für Nvidia auch rentiert


BTW HBM4 ist ja auch angekündigt worden https://www.computerbase.de/2023-07...bm4-mit-32-gb-pro-chip-schon-ab-2026-liefern/
 
ich sprach eigentlich - da war ich wohl unklar - an Ersparnis bei der GPU, schließlich hat diese dann einen wesentlich kleineren Speichercontroller. Ist ja auch der Grund, warum man selbst bei den großen Chips nicht 512 Bit Interfaces verbaut
Ach so. Aber für HBM braucht man doch eher einen deutlich größeren Speichercontroller, HBM läuft doch meist über ein 4096-Bit-Interface.
Du kannst eine 4090 ja mit knapp 300W betreiben ohne größere Verluste, das Gedankenspiel wäre, dass das mit HBM bei weniger Watt möglich wäre (entweder sogar rein aufgrund des Speicherinterfaces, oder mit einem größeren Chip der etwas geringer getaktet ist).
Das ist schon genau eine der Grundideen von HBM gewesen: Breiteres Interface + weniger Takt = gleiche oder mehr Leistung bei weniger Leistungsaufnahme. Deswegen meinte ich ja auch, dass das eventuell nicht so recht aufgegangen ist, weil sich GDDR schneller und weiter entwickelt hat, als man dachte.
Ob 450W oder 300W, die 4090 verliert nur knapp 10%
Bei dem Preis wär mir eben eine 4090 als 250W Variante mit 32 GB und ähnlicher Performance lieber gewesen und das hätte sich natürlich für Nvidia auch rentiert
Ja, das die letzten paar Prozent mit extrem viel Leistungsaufnahme erkauft werden, ist mir auf jeden Fall bewusst, ob man jetzt mit HBM wirklich 50W einsparen könnte, weiß ich nicht und dass sich das für Nvidia rentiert hätte zweifle ich auf der Grundlage etwas an, dass für viele nur der lange Benchmarkbalken zählt. Aber man kann ja selbst Hand anlegen.
 
Ach so. Aber für HBM braucht man doch eher einen deutlich größeren Speichercontroller, HBM läuft doch meist über ein 4096-Bit-Interface.
ich meine mich erinnern zu können, dass AMD bei Fury, Vega und Co damals gesagt hat, dass das 4096 Bit HBM SI nur 15% der Fläche frisst eines vergleichbar schnellen GDDR5 Controllers
Das ist schon genau eine der Grundideen von HBM gewesen: Breiteres Interface + weniger Takt = gleiche oder mehr Leistung bei weniger Leistungsaufnahme. Deswegen meinte ich ja auch, dass das eventuell nicht so recht aufgegangen ist, weil sich GDDR schneller und weiter entwickelt hat, als man dachte.
Kann gut sein, aber auch HBM wird mit ordentlichem Tempo weiterentwickelt (siehe oben erwähnte News zu HBM4)
Ja, das die letzten paar Prozent mit extrem viel Leistungsaufnahme erkauft werden, ist mir auf jeden Fall bewusst, ob man jetzt mit HBM wirklich 50W einsparen könnte, weiß ich nicht und dass sich das für Nvidia rentiert hätte zweifle ich auf der Grundlage etwas an, dass für viele nur der lange Benchmarkbalken zählt. Aber man kann ja selbst Hand anlegen.
selbst Hand anlegen mach' ich nie wieder und im Sinne des größeren Ganzen wären verbrauchsärmere GPUs schon wieder generell super.
Man hätte ja außerdem den längeren Balken - aber halt bei 250W ;)
Nvidia war im Nachhinein gesehen ja überhaupt nicht gezwungen über 300W zu gehen, die haben halt mit einer stärkeren Antwort von AMD gerechnet wie es scheint
 
ich meine mich erinnern zu können, dass AMD bei Fury, Vega und Co damals gesagt hat, dass das 4096 Bit HBM SI nur 15% der Fläche frisst eines vergleichbar schnellen GDDR5 Controllers
Möglich ist das schon, die Komplexität pro Pin dürfte deutlich höher sein, bei mir klingelt da aber nichts und ein Sechstel der Fläche für die achtfache Menge an Pins? War das vielleicht eine Vorausberechnung, die sich nicht ganz erfüllt hat?
selbst Hand anlegen mach' ich nie wieder...
Wie kommt's?
 
Möglich ist das schon, die Komplexität pro Pin dürfte deutlich höher sein, bei mir klingelt da aber nichts und ein Sechstel der Fläche für die achtfache Menge an Pins? War das vielleicht eine Vorausberechnung, die sich nicht ganz erfüllt hat?
ob das Verhältnis genau so war weiß ich jetzt ehrlich gesagt nicht mehr, aber es ist nach wie vor einer der Vorteile von HBM, eben weil man sich aufgrund desselben Substrats viel Komplexität zu sparen scheint.
Einfach ein paar schlechte Erfahrungen. Instabilitäten die letztlich sogar zu Hardwareschäden geführt haben, obwohl ich UNDERclocked/volted habe und zwar mit Maß und Ziel und nicht extrem. Deshalb bevorzuge ich vom Hersteller spezifizierte Hardware mit den Specs, gerne kaufe ich auch von Haus aus eine 10% langsame "SE" Edition - für Super Efficient.

Es ging eher darum festzustellen, dass zwischen dem was mit GDDR und HBM technisch möglich ist, nicht so wahnsinnig viel Unterschied besteht.
Naja schon, durch die Ersparnis halt. Du kannst HBM ja auch an ein 8K Interface hängen ohne große Flächeneinbußen, dann brauchst du zum Konkurrieren dazu schon ein 1024 Bit GDDR Interface, was dann schon ein großer Teil des Chips sein wird.
 
Einfach ein paar schlechte Erfahrungen. Instabilitäten die letztlich sogar zu Hardwareschäden geführt haben, obwohl ich UNDERclocked/volted habe und zwar mit Maß und Ziel und nicht extrem.
Schwer vorstellbar, aber gut, alles ist möglich. Wie lange ist das her?
Deshalb bevorzuge ich vom Hersteller spezifizierte Hardware mit den Specs, gerne kaufe ich auch von Haus aus eine 10% langsame "SE" Edition - für Super Efficient.
Wäre schon schön, wenn es so was gäbe, aber ist halt im GPU-Bereich sehr selten. Die großen Modelle, die die Leistung der kleineren mit deutlich weniger Leistungsaufnahme erreichen würde, brauchen eigentlich immer mehr.
 
:klatsch: Die Gesamtkapazität der Chips spielt dank Clamshell eh kaum eine Rolle mehr auch bei GDDR7 von Micron und Samsung nicht.
Selber :klatsch:

Kuck dir an wie lächerlich die Preise nach oben gehen wenn Clamshell verwendet wird: RTX 4060TI 16GB

Oder die 8GB RX 6500XT die einfach mal 100€ teurer war als die normalen Modelle.
 
Zuletzt bearbeitet:
Schwer vorstellbar, aber gut, alles ist möglich. Wie lange ist das her?
ca 2 Jahre zuletzt
Wäre schon schön, wenn es so was gäbe, aber ist halt im GPU-Bereich sehr selten. Die großen Modelle, die die Leistung der kleineren mit deutlich weniger Leistungsaufnahme erreichen würde, brauchen eigentlich immer mehr.
ja, GPUs werden halt von Haus aus über dem Sweet spot betrieben, unschön
 
Du hast die Modulgröße bei den führenden GDDR Herstellern kritisiert, kleinere Module sind in Sachen Effizienz, Latenz und Produktionsaufwand eben in Kombination mit Clamshell deutlich besser.

Die Gesamtkapazität hat damit eben nichts zu tun, da eine GPU dann 2x2GB oder 1x4GB beispielsweise nicht mehr auseinanderhalten kann.

Du solltest dich erstmal bilden bevor du Schulnoten verteilst.
 
Zurück