SK Hynix: HBM2 offiziell nur mit 1.600 MHz und 4 GiByte, GDDR6 zum Jahresende

Von wem bekommt Nvidia denn ihren HBM? Nicht dass es an AMDs Kapazitäten hapert und hynix von der Konkurrenz einfach bessere Preise verlangen kann und demnach dort vorrangig liefert. Um das auszuschließen müssten wir genau wissen was AMD da ausgehandelt hat, aber das dürfte unmöglich sein.

AMD hat als Mitentwickler absolutes Vorkaufsrecht und kann den Verkauf an andere untersagen, solange nicht eine vorher vereinbarte Menge jederzeit Lieferbar ist. Andere Abnehmer haben natürlich die Möglichkeit, niedrigere Qualitätsanforderung als AMD zu stellen und den "Ausschuss" zu kaufen. Ausschuss ist aber meist nix schlimmes, das kann alles Mögliche sein...
 
Ich hoffe es fest. Damals hatte ich aber auch gedacht dass AMD Verträge mit Hynix hat die entweder ausreichend und rechtzeitig HBM1, oder entsprechend viel Ausgleich garantieren. Die Vergangenheit hat uns gelehrt, dass dem nicht so war.
 
AMD hat als Mitentwickler absolutes Vorkaufsrecht und kann den Verkauf an andere untersagen, solange nicht eine vorher vereinbarte Menge jederzeit Lieferbar ist. Andere Abnehmer haben natürlich die Möglichkeit, niedrigere Qualitätsanforderung als AMD zu stellen und den "Ausschuss" zu kaufen. Ausschuss ist aber meist nix schlimmes, das kann alles Mögliche sein...
Ach, kennst du die Verträge? Oder wie kommst du da drauf? Was wenn nVidia Menge X an HBM2 zu Zeitpunkt Y bestellt hat (zu durchaus hohem Preis), bei Nichtlieferung aber hohe Pönale drauf hat. Und wer weiß was AMD im Vertrag stehen hat. Solange das keiner weiß, ist alles nur Spekulation und deine Aussage nicht unbedingt richtig.
 
AMD wäre mit GDDR5x wesentlich besser gefahren. Hätten sie das auf ihren Karten genutzt, wäre Vega jetzt bestimmt schon auf dem Markt.
 
Man könnte fast denken, dass SK Hynix von Nvidia nen dicken Batzen Scheinchen "unter der Hand" erhält, damit HBM2 geringe Produktionsmengen erhält, GDDR5X und GDDR6 aber in hergestellt werden... Wer weiß das schon? :ugly: :D

PS: Dieser Beitrag könnte Ironie, Sarkasmus, Witz und auch ein vermutetes Fünkchen enthalten, zu weiteren Risiken und Nebenwirkungen lesen sie bitte die Packungsbeilage ;)
:daumen:

oder
AMD bringt die (oder "die" ) Karten im Q2 raus aber eben ohne HBM2; später (Q1 2018?) dann die Deluxe Version mit HBM2.
AMD hatte ja nun mehr als genug Zeit für Plan B bis D

PS: Dieser Beitrag könnte Ironie, Sarkasmus, Witz und auch ein vermutetes Fünkchen enthalten, zu weiteren Risiken und Nebenwirkungen lesen sie bitte die Packungsbeilage oder denken Sie sich Ihr Teil ;)
 
AMD wäre mit GDDR5x wesentlich besser gefahren. Hätten sie das auf ihren Karten genutzt, wäre Vega jetzt bestimmt schon auf dem Markt.
Wenn AMD mit Vega endlich einen Angriff auf den mobilen HighEnd-Sektor starten möchte, dann kommt dafür nur eine Karte mit HBM in Frage. Nirgendwo sonst schlagen die Vorteile von HBM so sehr durch und sind in der Kombi einfach tolle Argumente, um ansonsten zaghafte Hersteller zum nicht gerade risikoarmen Schritt zu bringen wieder AMD zu verbauen.

Bei Fiji hat sich AMD das damals nicht getraut, die entstandene Karte wäre ja trotzdem zwar die zu ihrer Zeit effizienteste, (zumindest in HighRes) aber absolut gesehen auch aller Voraussicht nach die Karte mit der höchsten TDP im mobilen Sektor überhaupt gewesen. Und hätte eben gegen 8GiB-Karten antreten müssen. Ah, und es hätten nur Intel-Prozessoren zur Paarung bereit gestanden, man hätte daher abermals Enduro einsetzen müssen und so weiter. Unschön halt.

Jetzt hat die 1080 im Notebook die gleiche TDP wie die Desktop-Karte und immer noch 8GiB Speicher. Die Vegas werden auch so viel haben, aber nach aktuellen Stand wohl weniger TDP oder mehr Performance. Klingt so, als könnte AMD diesmal den Sprung wagen.
Wäre schon toll, wenn nach fünf Jahren das ziemlich absolute Nvidia-Monopol wieder gebrochen werden könnte, würde dem Markt sehr gut tun. FreeSync-Notebooks Ahoi! :daumen:
Edit: Sogar reine AMD-Plattformen wären nun wieder denkbar. Sowohl die SummitRidges selber als auch die AM4s sind ja effizienztechnisch mindestens auf gleichem Stand wie Skylake-S und die S1151er von Intel. Braucht man nur einen OEM überreden, schon gehört die Krone für das stärkste SingleGPU-DesktopCPU-Notebook AMD. Vielleicht auch als Prestigeprojekt unter eigener Fahne, samt erstem 120hz UHD-Panel im Notebook wäre das ein gefundenes Fressen für die Presse, solange man ordentlich vergleichende Werbung betreibt.

Ich meine, ich habe ja selber die Intel-Variante vor mir stehen. So toll Gehäuse und Display auch sind, die Schwächen des Gesamtgerätes sind offensichtlich und liegen in großen Teilen im Verantwortungsbereich von Intel-Nvidia.
 
Zuletzt bearbeitet:
Ach, kennst du die Verträge? Oder wie kommst du da drauf? Was wenn nVidia Menge X an HBM2 zu Zeitpunkt Y bestellt hat (zu durchaus hohem Preis), bei Nichtlieferung aber hohe Pönale drauf hat. Und wer weiß was AMD im Vertrag stehen hat. Solange das keiner weiß, ist alles nur Spekulation und deine Aussage nicht unbedingt richtig.

Logisch, das ich die Verträge nicht kenne, aber alles andere wäre Quatsch. nVidia kann ja nix bestellen, was es offiziell noch nicht gibt, egal zu welchem Preis. Man kann aber anfragen, was verfügbar ist, und wenn man mit den "Qualitätseinschränkungen" Leben kann, kann man das kaufen.
 
mobiler Sektor? Der Massenmarkt der der High-End-Gaming-Laptops mit ner GPU TDP von 150W+???
Prestige lautet das Stichwort. Wenn man jemals nochmal in den dGPU-Notebookmarkt zurückkehren will, dann braucht es einen Anfang. AMD kann natürlich auch nein, danke sagen, den Abgesang der dGPUs starten und versuchen, das gesamte Feld von unten aufzufressen, indem sie größere APUs bauen. Aber wieso eingleisig, wenn man auch zweigleisig fahren kann?

Edit: Übrigens ist auch nur die bisher bestätigte Richtung, also kleine APUs zu bringen, schon keine, die eine Erfolgsgarantie mit sich bringt. Wenn es die OEMs heftig verhauen oder der Markt AMD-APUs prinzipiell als weniger wertig denn Intel-APUs betrachtet oder oder oder könnte AMD auch weiterhin im Mobile-Markt auf dem Trockenen stehen. Von daher: Ja, sie sollten definitiv versuchen den HighEnd-Markt zu erobern. Gerade hat Nvidia dort eine Schwäche, eben weil sie kein HBM haben und die Karten daher vergleichsweise groß sind und sich generell nicht gerade gut kühlen lassen.
 
Zuletzt bearbeitet:
Logisch, das ich die Verträge nicht kenne, aber alles andere wäre Quatsch. nVidia kann ja nix bestellen, was es offiziell noch nicht gibt, egal zu welchem Preis. Man kann aber anfragen, was verfügbar ist, und wenn man mit den "Qualitätseinschränkungen" Leben kann, kann man das kaufen.
Von wegen Quatsch, es ist marktüblich. Alles eine Frage der Verträge und des Geldes.
 
Was ist denn das Problem mit HBM2 ? Ist die Fertigung komplizierter, teuer , nicht so ausgereift oder wo liegt das Problem ?

Problem könnte wie überall einfach nur der Mangel an Speicherchips sein, da die kapazitâten mehr als ausgelastet sind. Nicht umsonst steigen die RAM preise weiter an.

Ich gehe aber eher davon aus, dass es Probleme bei der Kühlung gibt in den Stacks. Die niedrige Anzahl könnte immer noch dem Mangel an Chips kommen, der niedrige Takt aber spricht eher für ein Hitzeproblem.

Köonte AMD nicht einen dritten Stack hinzufügen um das Bandbreitendefizit wettzumachen? Würde auch bestimmt besser aussehen wenn der Top Chip mit 12GB VRAM kommen würde. Nachteil wäre da natürlich, dass damit das Loch zu den Profikarten, welche wohl mit 16GB kommen werden, damit eher klein wäre. Aber ich denke, das Opfer wäre es wert.
 
AMD hat als Mitentwickler absolutes Vorkaufsrecht und kann den Verkauf an andere untersagen

Hast du hierzu auch eine Quelle die diese vetraglichen Bestimmungen erläutet, vorzuweisen?

Wenn AMD mit Vega endlich einen Angriff auf den mobilen HighEnd-Sektor starten möchte, dann kommt dafür nur eine Karte mit HBM in Frage

Eher ist genau das Gegenteil der Fall, HBM ist teuer und würde bei den knappen Margen eines Notebooks erst recht nicht gut machen.

Nirgendwo sonst schlagen die Vorteile von HBM so sehr durch und sind in der Kombi einfach tolle Argumente, um ansonsten zaghafte Hersteller zum nicht gerade risikoarmen Schritt zu bringen wieder AMD zu verbauen.

Dazu muss AMD aber inkl. HBM auch die bessere Effizienz als Nvidia und GDDR6 bringen und das bezweifel ich massiv, denn Nvidia legt mit Volta schon wieder ordentlich nach in Fragen der Effizienz.

Bei Fiji hat sich AMD das damals nicht getraut, die entstandene Karte wäre ja trotzdem zwar die zu ihrer Zeit effizienteste

Eine heruntergetaktete 980Ti wäre effizienter gewesen und einen 600mm² großen Chip ins Notebook zu bringen? Mit ner Nano TDP von 185 Watt?
Nicht wirklich.

Jetzt hat die 1080 im Notebook die gleiche TDP wie die Desktop-Karte und immer noch 8GiB Speicher.

Die TDP ist konfigurierbar und liegt bei maximal bei 165 Watt TDP.
 
Zuletzt bearbeitet von einem Moderator:
Von wegen Quatsch, es ist marktüblich. Alles eine Frage der Verträge und des Geldes.

Ich hab schon einige Verträge in der Kunststoff und Metallbranche mitbekommen, das glaubt man als normaler Mensch überhaupt nicht, was da für'n Müll drinsteht...von Vertragsstrafen ganz zu schweigen. Bei dem PC-Zeugs geht's sicherlich um bedeutend mehr Geld, kann aber auch durchaus zahmer/freundschaftliche als bei Plaste und Metall zu sein...obwohl ich's mir irgendwie nicht vorstellen kann.
 
Köonte AMD nicht einen dritten Stack hinzufügen um das Bandbreitendefizit wettzumachen? Würde auch bestimmt besser aussehen wenn der Top Chip mit 12GB VRAM kommen würde. Nachteil wäre da natürlich, dass damit das Loch zu den Profikarten, welche wohl mit 16GB kommen werden, damit eher klein wäre. Aber ich denke, das Opfer wäre es wert.

Klar könnte AMD das. Nach dem kompletten Redesign des Chips, des Interposers und des Platinenlayouts sowie der Neufertigung aller Belichtungsmasken können wir die Karte dann in etwa Mitte bis Ende 2019 erwarten, zumindest wenn es mit den Tapeouts schnell geht.

Ach, und das ganze würde vermutlich einen mittelgroßen dreistelligen Millionenbetrag kosten, vielleicht sogar im oberen Bereich. Immerhin kosten allein die Masken etliche hundert Millionen.

Ein dritter Stack ist genauso utopisch wie ein plötzlich aus dem Hut gezaubertes GDDR5X Interface.
 
Klar könnte AMD das. Nach dem kompletten Redesign des Chips, des Interposers und des Platinenlayouts sowie der Neufertigung aller Belichtungsmasken können wir die Karte dann in etwa Mitte bis Ende 2019 erwarten, zumindest wenn es mit den Tapeouts schnell geht.

Ach, und das ganze würde vermutlich einen mittelgroßen dreistelligen Millionenbetrag kosten, vielleicht sogar im oberen Bereich. Immerhin kosten allein die Masken etliche hundert Millionen.

Ein dritter Stack ist genauso utopisch wie ein plötzlich aus dem Hut gezaubertes GDDR5X Interface.

Ich denke nicht, dass es soviel umzudesignen gäbe. Wobei ich nicht glaube, dass der Chip ein Redesign braucht (Controller ist derselbe, die Anbindung an den Interposer könnte afaik auch unverändert durchgehen - sonst bräuchte es ja auch ein Redesign für die Profikarten), so gebe ich dir aber eventuell recht was den Interposer anbelangt. Sollte jener aber dieselbe Größe wie der ursprüngliche Interposer haben, wäre wohl auch ein Redesign der Platine unnötig
 
Und den GDDR5X hätte AMD aus welchem Katalog bestellt? Heute, vor 3, 6, 9 oder 12 Monaten?
PCGH am 22.03.2017 schrieb:
Samsung, SK Hynix, Elpida und Co führen kein GDDR5X.
Geforce GTX 1080 Ti: Mutmassungen uber schlechte Verfugbarkeit der Karten

Also bestellt AMD den GDDR5X dann aus dem Nvidia-Katalog oder Otto-Katalog? Vielleicht würde Micron auch ein paar Tröpfchen zu AMD fließen lassen statt das offensichtlich begrenzte Kontingent exklusiv an Nvidia zu liefern.


Vega 10 + HBM2 = Probleme mit der Verfügbarkeit und den Kosten
Vega 10 + GDDR5X = Probleme mit der Verfügbarkeit, dem TDP/Leistungsaufnahme-Budgte der GPU (-> Performance-Bremse) und der verfügbaren Speicherbandbreite
 
Zuletzt bearbeitet von einem Moderator:
Eher ist genau das Gegenteil der Fall, HBM ist teuer und würde bei den knappen Margen eines Notebooks erst recht nicht gut machen.



Dazu muss AMD aber inkl. HBM auch die bessere Effizienz als Nvidia und GDDR6 bringen und das bezweifel ich massiv, denn Nvidia legt mit Volta schon wieder ordentlich nach in Fragen der Effizienz.



Eine heruntergetaktete 980Ti wäre effizienter gewesen und einen 600mm² großen Chip ins Notebook zu bringen? Mit ner Nano TDP von 185 Watt?
Nicht wirklich.



Die TDP ist konfigurierbar und liegt bei maximal bei 165 Watt TDP.
Bei den knappen Margen eines Notebooks? Ja, für den Hersteller knapp, nicht jedoch für die Chipliferanten. Ich sag nur 650 Euro für eine 680m. Ja, das ist auf Chipbasis nichts als eine heruntergetakte 670 4GiB gewesen, trotzdem war sie so teuer. Wahrscheinlich kostet die 1080 einen Hersteller so ~1000€.

HBM selber steht halt Effizienztechnisch gut da. Außerdem sieht es ja nicht danach aus, als käme Volta im nächsten Monat. Gegen Pascal sollte AMD schon was reißen können.

Na klar hätte eine heruntergetaktete 980ti in ungefähr der gleichen Effizienzliga gespielt. Aber hat Nvidia die gebracht? Nein, haben sie nicht. Und die Chipgröße wäre kein Nachteil gewesen, sondern ein Vorteil, die entstande Karte wäre sehr leicht zu kühlen gewesen. (siehe Nano) Aber eben trotzdem klein!
 
Klar könnte AMD das. Nach dem kompletten Redesign des Chips, des Interposers und des Platinenlayouts sowie der Neufertigung aller Belichtungsmasken können wir die Karte dann in etwa Mitte bis Ende 2019 erwarten, zumindest wenn es mit den Tapeouts schnell geht.

Ach, und das ganze würde vermutlich einen mittelgroßen dreistelligen Millionenbetrag kosten, vielleicht sogar im oberen Bereich. Immerhin kosten allein die Masken etliche hundert Millionen.

Ein dritter Stack ist genauso utopisch wie ein plötzlich aus dem Hut gezaubertes GDDR5X Interface.

Da bist Du ein wenig zu weit galoppiert.
Ja, der Chip müsste neu designt werden. Das Interface zwischen Speichercontroller und GPU müsste neu und auch das Layout vom Chip mit pinout etc.
Die Masken kosten allerdings keine hunderte Millionen. Es sind zwar ein paar Millionen, aber bei weitem nicht so viel, wie Du meinst.

Das Tapeout mitsamt Verfeinerung zur Marktreife dauert allerdings.
Auch Nvidia hat es nicht unter 1 Jahr geschafft.
Also wäre ein Umsatteln vollkommen außerhalb jedes Zeitfensters.
 
Da bist Du ein wenig zu weit galoppiert.
Ja, der Chip müsste neu designt werden. Das Interface zwischen Speichercontroller und GPU müsste neu und auch das Layout vom Chip mit pinout etc.
Die Masken kosten allerdings keine hunderte Millionen. Es sind zwar ein paar Millionen, aber bei weitem nicht so viel, wie Du meinst.

Das Tapeout mitsamt Verfeinerung zur Marktreife dauert allerdings.
Auch Nvidia hat es nicht unter 1 Jahr geschafft.
Also wäre ein Umsatteln vollkommen außerhalb jedes Zeitfensters.

Ihr geht davon aus, dass grundsätzlich nur 1 Speichercontroller vorhanden ist.

Ich hab keine Ahnung wie viel platz der Controller einnehmen würde, aber wenn HBM2 nicht zu 100% sicher zugesagt und für machbar gehalten worden wäre, dann wäre man evtl. auch auf Nummer Sicher gegangen und hätte 2 Controller integriert. Kostet zwar mehr, aber besser einen etwas teureren Chip, als keinen, den man wegen fehlendem HBM2 nicht verkaufen kann.

Aber ich gehe auch eher von 1 Controller aus und dass man HBM2 für AMD schon auf Lager hat. Alle anderen können es wohl erst gegen Ende des Jahres kaufen.
 
Hast du hierzu auch eine Quelle die diese vetraglichen Bestimmungen erläutet, vorzuweisen?
Dazu muss AMD aber inkl. HBM auch die bessere Effizienz als Nvidia und GDDR6 bringen und das bezweifel ich massiv, denn Nvidia legt mit Volta schon wieder ordentlich nach in Fragen der Effizienz.
.

Ich schätze mal AMD kann höchstens gleichziehen. HBM ist immer noch effizienter als GDDR5x aka GDDR6. Das liegt nicht unbedingt an den Ramchips, sondern am größeren Speicherinterface und daran wird auch GDDR 6 nichts ändern. Die Bandbreite steigt zwar, aber jetzt auch nicht so extrem.

HBM ist für AMD die Zunkunft, damit lässt sich eine Menge anstellen. APUs mit HBM als Cache oder Arbeitsspeicher ist doch super. Klar es wird noch ein paar Jahre dauern, bis es günstigen HBM Speicher gibt. Aber das war schon immer so mit neuen Technologien.
 
Zurück