GDDR6: Samsung produziert den schnellsten 16-Gbit-Speicher

[1.] Stromhungriger? Vega lässt sich problemlos mit dem richtigen Powermodus rund 50 Watt sparsamer bei 3 oder 4% Leistungseinbuße betreiben.
Die 30 Watt was GDDR5x noch mehr gezogen hätte, hätte man noch problemlos unterbringen können, das ist gerechnet auf die Leistungsaufnahme des gesamten Chips einfach nicht sonderlich relevant.

Und der Chip wäre vermutlich schon Ende 2016 Anfang 2017 mit Customdesigns rausgekommen, so wie es geplant war und nicht 1 Jahr später mit der schlechtesten Verfügbarkeit zum angepeilten MSRP der GPU Geschichte.

Wenn AMD die Vorteile hätte mitnehmen wollen, dann hätten sie 4 Stacks verbaut und Vega nicht in so ein Bandbreitenlimit laufen lassen.
Aber nicht mal das können sie machen, weil es zu teuer ist.
Also haben Sie es geschafft ne Lösung anzubieten die den eigenen Chip mit der tollen neuen Speichertechnologie sogar noch ausbremst - grandios.


[2.] Du vergisst dass GDDR6 gar nicht mit Quad-Data-Rate läuft und trotzdem diese enorme Bandbreite zur Verfügung stellen kann.

[3.] Wie sieht die Rechnung eigentlich aus?
Mit einem Mini 128bit Interface und den vollen 18 Gigahertz Datentaktrate kommt man schon auf 288 GB/s, die 1060 kommt auf 192GB/s.
Heißt man bräuchte selbst für so viel Bandbreite nur ein kleines 128bit Interface. Ob da noch so viel Platzersparnis für HBM2 übrigbleibt?
Das ist jetzt natürlich konstruiert und man wird bei den günstigen Karten eher auf den niedriger getakteten Speicher setzen, aber so käme man auch auf 256GB/s.
1.) Ja natürlich stromhungriger, weil in meiner Fabelwelt AMD bei Vega10 nicht plötzlich den Sweet-Point eingestellt hätte, damit man mit GDDR5X am Ende sogar effizienter dasteht. :schief:

Selbst wenn die Differenz nur bei 30W gewesen wäre, wären das 30W die der Effizienz gefehlt hätten, dass sind 10% bei 300W TDP.

Bezüglich der Die-Fläche wäre man auch nicht mehr mit 486mm² ausgekommen.
Ein HBM2-Interface mit 4096-Bit auf dem GP100 benötigen die Hälfte an Fläche gegenüber einem 256-Bit GDDR5X-Interface auf dem GP104:
A3DH7rrh.jpg


Vega10 hätte 384-Bit für die gleiche Bandbreite benötigt.
30mm² und mehr wären bei Vega10 dazugekommen.

GDDR5X hat auch eine unvorteilhafte Eigenschaft, Micron ist der einzige Hersteller der ihn fertigt.
Die Preise, Kapazitäten, Weiterentwicklung und zeitliche Versorgung hängt nur an einem Hersteller und man muss sich das mit Nvidia teilen.
Besonders attraktiv sieht das für mich oberflächlich nicht aus, aber man hätte wahrscheinlich in der Tat die Produkte schon früher auf den Markt platzieren können, zu günstigeren Preisen.
Es wäre aber dann eher ein 1070 Konkurrent geworden, was den selben Spott bedeutet hätte und ein praktisch ebenso unattraktives Produkt.
Ich kann mir im Endeffekt nur finanzielle Vorteile vorstellen, aber viel Geld hätte AMD so auch nicht erwirtschaftet.

2.)
GDDR5 ist noch DDR. GDDR5X und GDDR6 sind QDR.
Was mich zu der Aussage verleitet hat das GDDR5 im Prinzip schon mit QDR arbeitet war, dass man effektiv die vierfache Datenrate im Vergleich zum eigentlichen Speichertakt bekommt, aber bezogen auf einen Taktgeber ist es nur Double-Rate.
GDDR5X lässt sich auch im DDR-Modus betreiben, mit entsprechend halber Datenrate.
GDDR6 lässt es den Entwicklern frei, ob sie DDR oder QDR implementieren.
Wobei es auf QDR für höhere Datenraten hinauslaufen dürfte.

3.) Ich hätte hinzufügen sollen, dass es um den Platzverbrauch beim Chip ging.
Ein GDDR6-Interface wird mehr Platz benötigen, als ein GDDR5-Interface, dem wirkt man primär durch neue Fertigungsknoten entgegen, aber die Kosten muss man relativ natürlich dennoch zahlen.
 

Samsung hat das ganze doch bereits wiederlegt indem sie die Taktrate bei gleichzeitig niedriger Spannung erhöhen konnten.
Durch mehr HBM Stacks lässt sich genauso wie bei GDDR6 der Bus verbreitern.
GDDR5 hat auch Primär mehr Leistung durch mehr Takt gebracht inwiefern ist also HBM dort anders ?
Für mich ist das eher ein billiger PR Trick.
Ein wirkliches Argument findet sich darin nicht.
 
1.) Ja natürlich stromhungriger, weil in meiner Fabelwelt AMD bei Vega10 nicht plötzlich den Sweet-Point eingestellt hätte, damit man mit GDDR5X am Ende sogar effizienter dasteht.

Das war nicht die Behauptung, sondern die Behauptung war, dass AMD das in deren Design hätte abfangen können.
Heißt ein etwas engeres PT und dann wäre die Sache auch innerhalb von 300 Watt TBP gewesen mit vermutlich minimal weniger Performance.
Die Partnerkarten dürften dann ruhig wieder 350 Watt ziehen.

Bezüglich der Die-Fläche wäre man auch nicht mehr mit 486mm² ausgekommen.

Die Die Fläche spielt nur weniger eine Rolle. Die Interposergeschichte mit den 3 verschiedenen Package Herstellern usw.. ist unglücklich gelaufen und hat die FertigungsKosten ordentlich erhöht.
Ein HBM2-Interface mit 4096-Bit auf dem GP100 benötigen die Hälfte an Fläche gegenüber einem 256-Bit GDDR5X-Interface auf dem GP104:

Und gegenüber einem GDDR6 192 Bit Interface mit 16 Gbps oder gar 18Gbps oder mehr ist der Flächenvorteil schon deutlich reduziert.

Vega10 hätte 384-Bit für die gleiche Bandbreite benötigt.
30mm² und mehr wären bei Vega10 dazugekommen.

Das stimmt, allerdings hätte man als Ausgleich auch gleich mehr Speicher verbauen können (16GB DDR5x) und somit den Verkaufspreis wieder hoch halten.

GDDR5X hat auch eine unvorteilhafte Eigenschaft, Micron ist der einzige Hersteller der ihn fertigt.

Wo keine Nachfrage dort auch kein Angebot.:D

Es wäre aber dann eher ein 1070 Konkurrent geworden,

Sehe ich nicht so, die 1080 wäre auch mit GDDR5x und einer etwas besseren Powereinstellung der Karte in etwa zu erreichen gewesen.
Vor allem hätte AMD gleich bei Release Customdesigns zur Verfügung stellen können.
 
Samsung hat das ganze doch bereits wiederlegt indem sie die Taktrate bei gleichzeitig niedriger Spannung erhöhen konnten.
Durch mehr HBM Stacks lässt sich genauso wie bei GDDR6 der Bus verbreitern.
Wie viel Stacks willst du bitte benutzen? Mehr als 4 dürften kaum praktikabel sein.

GDDR5 hat auch Primär mehr Leistung durch mehr Takt gebracht inwiefern ist also HBM dort anders ?
Bei HBM explodiert der Verbrauch, siehe Grafik ...

Für mich ist das eher ein billiger PR Trick.
Deswegen setzt Nvidia gegenwärtig auch auf HBM bei Volta & Co. Nvidia hat gut bezahlte Ingenieure, die werden HBM und dessen Entwicklung mit Sicherheit besser einschätzen können als du.
 
Bei HBM explodiert der Verbrauch, siehe Grafik ...

Das tut er ja eben nicht.
Samsungs neue HBM Chips laufen mit deutlich mehr Takt und verbrauchen sogar weniger.

"Wie viel Stacks willst du bitte benutzen? Mehr als 4 dürften kaum praktikabel sein"
Auch 8 Stacks dürften im High End Compute Bereich drin sein.
Ob jetzt der Interposer 20€ mehr kostet juckt bei einer 5000€ GPU niemanden.
Darüber hinaus ist auch mit 4 Stacks der Durchsatz schon beachtlich (1228 GB/S sind eine Hausnummer).
Ein vergleichbares GDDR6 Speichersystem wird wohl seine 100 Watt brauchen.

"Nvidia hat gut bezahlte Ingenieure, die werden HBM und dessen Entwicklung mit Sicherheit besser einschätzen können als du."

Sind aber alles andere als Unparteiisch.
Die Deutsche Bank weiß auch am besten was für Krumme Dinger die gedreht haben trotzdem nimmt man ihr Wort nicht für Voll.
NVIDIA hatte damals halt einen Interesse Daran die Technik der Konkurrenz die einem selbst nur beschränkt zur Verfügung Stand schlecht zu reden.
 
Wie viel Stacks willst du bitte benutzen? Mehr als 4 dürften kaum praktikabel sein.
NEC verwendet bei seinem neuen Beschleuniger ganze 6 Stacks HBM2 Speicher, die sind allerdings ausschließlich für Server gedacht :P


Bei HBM explodiert der Verbrauch, siehe Grafik ...
Sieht momentan aber nicht gerade danach aus, als ob das der Fall wäre ;)

HBM2 First Gen: 2 GBps bei 1.35V
HBM2 Second Gen: 2.4 GBps bei 1.2V

(Anbgaben laut Samsung)

Aufgrund der niedrigeren Spannung sinkt der Verbrauch während die Geschwindigkeit trotzdem nach oben geschraubt wurde. Da steckt anscheinend noch einiges an Optimierungspotenzial drin, wenn man sich die Detailveränderungen mal anschaut :)
 
Das tut er ja eben nicht.
Samsungs neue HBM Chips laufen mit deutlich mehr Takt und verbrauchen sogar weniger.
Das ist eine Momentaufnahme. Der Rest von dir ist mal wieder das übliche Kaffeesatzlesen. Hätte, dürfte, könnte ... :schief:

NEC verwendet bei seinem neuen Beschleuniger ganze 6 Stacks HBM2 Speicher, die sind allerdings ausschließlich für Server gedacht :P
Teslas und Radeon Instincts sind auch nur für Server gedacht und beschränken sich auf 4 Stacks.
 
Zuletzt bearbeitet:
Solange bis es keinen neuen, revolutionären, Speicherstandard gibt.

Samsung hat das ganze doch bereits wiederlegt indem sie die Taktrate bei gleichzeitig niedriger Spannung erhöhen konnten.
Durch mehr HBM Stacks lässt sich genauso wie bei GDDR6 der Bus verbreitern.
GDDR5 hat auch Primär mehr Leistung durch mehr Takt gebracht inwiefern ist also HBM dort anders ?
Für mich ist das eher ein billiger PR Trick.
Ein wirkliches Argument findet sich darin nicht.
Die Aussageabsicht ist im Prinzip nur folgende, selbst mit einem 50% effizienterem HBM-Standard wird man in naher Zukunft (wieder) an der Power-Wall stehen.
Es benötigt bessere Technologie um weiter zu skalieren, welche das sein wird lässt man offen.
GDDR6 ist es offensichtlich nicht.

[1.]Das war nicht die Behauptung, sondern die Behauptung war, dass AMD das in deren Design hätte abfangen können.
Heißt ein etwas engeres PT und dann wäre die Sache auch innerhalb von 300 Watt TBP gewesen mit vermutlich minimal weniger Performance.
Die Partnerkarten dürften dann ruhig wieder 350 Watt ziehen.

Die Die Fläche spielt nur weniger eine Rolle. Die Interposergeschichte mit den 3 verschiedenen Package Herstellern usw.. ist unglücklich gelaufen und hat die FertigungsKosten ordentlich erhöht.

[2.] Und gegenüber einem GDDR6 192 Bit Interface mit 16 Gbps oder gar 18Gbps oder mehr ist der Flächenvorteil schon deutlich reduziert.

[3.] Das stimmt, allerdings hätte man als Ausgleich auch gleich mehr Speicher verbauen können (16GB DDR5x) und somit den Verkaufspreis wieder hoch halten.
[...]
1.) Ich hätte lieber einen reinen Vergleich zwischen einer HBM2 vs. GDDR5X-Version und nicht noch zusätzliche Verbrauchsanpassungen, damit eine GDDR5X-Version besser dastehen würde, als wenn AMD den Chip genauso schlecht eingestellt hätte, wie aktuell.
Du weißt, wegen einem fairen Vergleich und so?
Ansonsten hätten wir von mir aus einen angepassten Chip mit GDDR5X und ebenso eine andere Version mit HBM2, wo AMD bessere Power-Werte eingestellt hat.
Am Ende wären wir bei einer ähnlichen Differenz, die sich nur durch den Speicher ergibt.

Der Interposer ist kein großer Kostentreiber und das es drei verschiedene Packages gibt, stellt jedenfalls für AMD keinen speziellen Kostenfaktor dar.
Die Unterschiede bei den Packages müssen letztendlich die Boardpartner bei ihren Designs ausbaden, welche laut Igor von AMD eine größere Marge eingeräumt bekommen, weswegen das in dem Fall vielleicht auch kein Problem darstellt.
Was auf die Kosten schlagen sollte ist der HBM-Speicher selber, womit AMD wenig Marge übrig bleibt und sie im Falle von schlechter Ausbeute auch keinen entsprechenden Output an Chips herstellen können.
Ich sehe die Attraktivität dahinter, lieber einen schlechteren GDDR5X-Chip, welcher immerhin verfügbar ist und finanziell möglicherweise mehr einnimmt, als das aktuelle Trauerspiel, aber das wäre auch eine isolierte Betrachtung, die AMDs R&D-Pipeline und Versorgungsstruktur sowohl in naher, als auch in ferner Zukunft nicht einbezieht.

Dann spielt es eben mit ein, wofür die Entwicklung und Validierung von einem HBM-Interface verwendet werden könnte, nicht nur für einen Chip und wie die Roadmap bei den HBM- und Packaging-Partnern aussieht.
Das muss man dann gegenüber einer GDDR5X-Entwicklung von Micron gegenüberstellen, welche den einzigen Versorgungspartner darstellen und die GDDR5X-Bemühungen sich nur auf einen Chip beschränken würden.

2.) Es gibt schon solide Annahmen, wie viel Platz ein entsprechendes GDDR6-Interface bei 16 oder 18 Gbps benötigen würde?
3.) 12 oder 24GB bei einem 384-Bit GDDR5X-Interface, um auf die selbe Bandbreite zu kommen wie aktuell mit HBM2, die GPU wäre halt dennoch relativ schlecht im Vergleich zu Nvidia.
Polaris10 besitzt als 480/580 auch 2GB mehr als eine 1060 GTX mit 6GB, aber das ändert insgesamt nicht viel.
 
Witzbold, es gibt sonst auch keine anderen Aussagen oder Daten. Besser so als ständig in die Kristallkugel zu schauen.
Die Aussage die man extrahieren kann ist selber nicht genau.
Letztendlich sagt die Folie nur das der aktuelle HBM-Standard nicht dazu geeignet ist, um mehrere tausend GB/s effizient an ein Gerät zu überbringen.
Was die Lösung für das Problem sein wird und wann man diese Schwelle erreichen wird, liegt auch schwammig in der Kristallkugel.
Auf absehbare Zeit (~5 Jahre) scheint kein revolutionärer Standard geplant zu sein, welcher sich dieser Aufgabe stellen kann, entsprechend wird das Beste für eine Weile HBM bleiben.
 
das hier hat nen Typ bei Videocardz geschrieben (Kommentare)

macht das Sinn oder is das BS?

"GDDR6 is very different than HBM -

No doubt GDDR6 is super fast but it has cold state issue means you can't read and write without any delay..there is a short time memory takes and that delay makes it unusable to act as proper cache...

That's why VEGA delayed because HBM was late and HBCC was part of VEGA strategy.
Nvidia use HBM in P100, Google in TPU because it act as cache with no cold state.."
 
Nein.

Ampere wird sicherlich mehr sein, als ein Volta ohne HPC-Features.

Ja GDDR6 statt HBM und einige Architekturanpassungen die eben für Gaming schon und HPC nicht benötigt werden, aber die meisten Ausführungseinheiten (Shader, ROPs usw) kommen eben von der Volta Architektur ind sind keine unabhängigen Entwicklungen
 
575 GB/s ist nicht wirklich etwas besonderes, da kommt man schon mit einer übertakten 1080 Ti in die Nähe (mit den 12gbps Variante kann man sie vielleicht sogar erreichen).
Da hätte ich ehrlich gesagt mal mehr erwartet.
Du vergleichst halt gerade Äpfel und Birnen:
1)GDDR5 voll ausgefahren und fertig optimiert,auch noch übertaktet und an einem um 50% breiteren Speicherinterface erreicht dann gerade so das
2)gerade erst releaste,unübertaktete,wesentlich sparsamere GDDR6.
3)wenn ich lustig bin mach ich das nun auch,rechne ich also ein breiteres Speicherinterface als das von dir zitierte(nehmen wir 512 Bit aucg wenns "teuer" ist),+ höherer Takt bin ich schnell bei 1,2 TB/s und mehr. Na, jetzt beeindruckt?
 
Zurück