Samsung stattet HBM-Speicher mit künstlicher Intelligenz aus

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Samsung stattet HBM-Speicher mit künstlicher Intelligenz aus

Bei Sa,msung gibt es HBM2-Speicher künftig auch mit einer KI. Verbaut ist eine PCU mit 300 MHz, die 1,2 Teraflops Rechenleistung hat und als Koprozessor die primäre Logikeinheit mein Datentransfer entlasten soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Samsung stattet HBM-Speicher mit künstlicher Intelligenz aus
 
Das klingt doch insgesamt sehr gut.

Neben den Kosten ist auch zu berücksichtigen, dass eine PCU mit 300 MHz Leistung braucht und diese teils in Wärme umwandelt.
Die Info selber (also dass jeder aktive Chip Verlustleistung zur Folge hat) ist natürlich absolut korrekt, aber die Schlussfolgerung wage ich mal stark anzuzweifeln.
Wenn die Angabe von Samsung auch nur im entferntesten stimmen sollte, dass man sowohl doppelte Performance bei unter einem Drittel der Leistungsaufnahme erhält, werden die Speicherchips im Stack signifikant weniger Leistung ziehen als bislang. Der Stack als ganzes wird damit kühler. Davon profitiert auch die PCU.

Das wäre auch für Grafikkarten interessant, aber die Technik ist schon ohne KI-Anteil für den Moment nicht wirtschaftlich genug.
Auch das halte ich für zu kurz gedacht: Das hier liest sich ganz klar wie etwas, was die Wirtschaftlichkeit erhöht: Doppelte Performance pro Stack bedeutet insbesondere gleiche Performance bei halber Anzahl an Stacks. Die absolute Performancekrone zu erreichen, daran hat es HBM von Anfang an nicht gemangelt. Sie auch kostengünstig zu erreichen hingegen schon...

Wobei das mit dem kostengünstig erreichen natürlich auch zu einem nicht geringen Teil die Schuld von Nvidia ist: Bislang haben sie ja keinen einzigen Desktop-Chip mit HBM (2) vorgestellt, das hat die Stückzahlen geschwächt und das wiederum natürlich auch die Preisentwicklung gebremst.
 
Da kann AMD ja seinen cleveren "Infinity Cache" direkt wieder einstampfen, und die nächsten Radeons lieber mit dem AI unterstütztem HBM ausstatten. :-D

Für 1999€ UVP gibts dann die Radeon RX 7950XTX mit 32GB VRAM :fresse:
(so wiederholt sich die Geschichte: hab noch eine Radeon HD 7950 im Schrank liegen :schief:)
 
Wobei das mit dem kostengünstig erreichen natürlich auch zu einem nicht geringen Teil die Schuld von Nvidia ist: Bislang haben sie ja keinen einzigen Desktop-Chip mit HBM (2) vorgestellt, das hat die Stückzahlen geschwächt und das wiederum natürlich auch die Preisentwicklung gebremst.
Das ist ja so nicht ganz richtig. Samsung und SK Hynix konnten seiner Zeit nur nicht im entferntesten liefern was Nvidia hätte brauchen können und das zu annehmbaren Preisen.
 
Ki sehe ich immer zwielichtig, da diese auf der einen Seite positive Eingriffe erledigen, aber anderseits lassen sich auch Angreifer bestimmte Spielräume zu.:what:
Noch ein Sicherheitsupdate nötig um Windows sicherer zu machen?!:ugly:
 
Das ist ja so nicht ganz richtig. Samsung und SK Hynix konnten seiner Zeit nur nicht im entferntesten liefern was Nvidia hätte brauchen können und das zu annehmbaren Preisen.
Für mehr als die viel zu späte Restverwertung namens Titan V hätte es auf jeden Fall gereicht.
Um mal eines von diversen möglichen HBM-Projekten zu nennen:
Sie hätten zum Beispiel einen PremiumLowPowerNotebook-Chip auflegen können. (dann hätten die OEMs mehr als immer nur den nächsten Rebrand des selben Billig-Chips zur Hand gehabt)
 
Bin ich eigentlich der Einzige, der sich wundert, an was alles so KI/AI drangeschrieben wird?
Da findet vielleicht mehr statt als einfach nur stumpf exakt vorprogrammiertes Zeug abzuarbeiten, aber von echter KI/AI ist sowas doch meilenweit entfernt...
 
Bin ich eigentlich der Einzige, der sich wundert, an was alles so KI/AI drangeschrieben wird?
Da findet vielleicht mehr statt als einfach nur stumpf exakt vorprogrammiertes Zeug abzuarbeiten, aber von echter KI/AI ist sowas doch meilenweit entfernt...
Keine Sorge, bist nicht alleine. Vor allen Dingen wird auch bei den Begriffen MachineLearning, DeepLearning sowie eben ArtificialIntelligence generell viel Schindluder getrieben.
Siehe auch hier: https://blog.fefe.de/?ts=a549b6a5
 
NVidia RTX 4000: Grafik-RAM dank künstlicher Intelligenz zu jedem Spiel kompatibel, weil es dem Programm genau das zuflüstert, was es hören will. DOOM 2022 startet also trotzdem mit Ultra Details. Und das mit nur 8GB. Wow! ^^
 
Die Info selber (also dass jeder aktive Chip Verlustleistung zur Folge hat) ist natürlich absolut korrekt, aber die Schlussfolgerung wage ich mal stark anzuzweifeln.
Wenn die Angabe von Samsung auch nur im entferntesten stimmen sollte, dass man sowohl doppelte Performance bei unter einem Drittel der Leistungsaufnahme erhält, werden die Speicherchips im Stack signifikant weniger Leistung ziehen als bislang. Der Stack als ganzes wird damit kühler. Davon profitiert auch die PCU.
Ich bin mir nicht so ganz sicher, ob du das was du meinstes hier auch wirklich auf den Punkt gebracht hast, aber grundlegend ist deine Aussage falsch. Ein HBM-PIM zieht selbstredend deutlich mehr als ein einfacher HBM-Stack, wenn er im FIM-Modus operiert. Im reinen Speicher-Modus kann man mittels Power Gating die PCUs ggf. weitestgehend abkoppeln, jedoch im anderen Fall steigen Verbrauch und Abwärme natürlich signifikant an.
Die von Samsung in den Raum gestellten bis zu 70 % Power Savings resultieren aus einem Vergleich gegen ein äquivalentes Komplettdesign herkömmlicher Bauweise, d. h. ein AI-Chip um den herum man Speicherbausteine reiht, weil hier mittlerweile aufgrund der beträchtlichen Speicherkapazitäten die Energiekosten für den Informationstransport aus dem Speicher und in den Speicher zurück mittlerweise so hoch werden, dass die klare Beschränkungen auferlegen. (So sind bestimmte Designs gemäß heute üblicher Anfoerungen gar nicht mehr ohne HBM realisierbar, da das mit GDDR das verfügbare Power Budget sprengen würde.)

[Für Grafikkarten nicht wirtschaftlich] Auch das halte ich für zu kurz gedacht´...
Nein ist es nicht, denn das beweisen AMD, Intel und nVidia einmal mehr aufs Neue, da alle drei Hersteller explizit die Verwendung von teuerem HBM-Speicher vermeiden in Consumer-Produkten in 2020/21. Da ist nichts "zu kurz gedacht", das ist schlicht wirtschaftlich gedacht.
a) Alleine schon nVidia ist hier ein gutes Beispiel, denn die hätten sich den aufwändigen und teueren Spaß mit den Micron-OC-Modulen sparen und HBM2 implementieren können. Die Bandbreite wäre deutlich höher und vor allem würde das Speichersubsystem beträchtlich weniger "verheizen", jedoch stehend demgegenüber die schlechtere Skalierung (4 GiB- oder 8 GiB-Stacks), der notwendige, teure Interposer und damit einhergehend die schlechtere Produktaufteilung auf die unterschiedlichen Marktsegmente und dass der Speicher selbst auch grundlegend etwas teuerer ist.
b) Und AMD schlug gar noch den gegenteiligen Weg ein und versuchte diese Gen gar noch billiger zu fertigen, indem man beim SI einsparte und diese Beschneidung aber mit einem übergroßen L3 kompensieren musste.

Aktuell ist HBM ganz offensichtlich noch nicht der Rede wert. Vielleicht wird man in 2022 zumindest im HighEnd einen Chip bei einem oder bei beiden Herstellern zu sehen bekommen, aber dann absehbar auch ausschließlich dort, denn bereits im gehobenen MidRange oder LowerHighEnd wird man aus Kostengründen weiterhin auf GDDR6 setzen wollen.

Und mit Blick auf Consumerprodukte verkennst du hier den Punkt, dass diese HBM-PIM-Chips gar noch deutlich teuerer ausfallen werden als normaler HBM ... die Produkte werden nicht ohne Grund die nächsten Jahre nur im Datacenter anzutreffen sein.
Btw, der nächste Satz ist etwas "problematisch", denn wenn die Kosten keine Rolle spielen, ist es nie besonders schwer ein absolutes Leistungsziel in der Spitzenklasse zu erreichen, nur so funktioniert die Wirtschaft für den Großteil der Produkte nicht und erst recht nicht im Consumer-Markt.

Wobei das mit dem kostengünstig erreichen natürlich auch zu einem nicht geringen Teil die Schuld von Nvidia ist: Bislang haben sie ja keinen einzigen Desktop-Chip mit HBM (2) vorgestellt, das hat die Stückzahlen geschwächt und das wiederum natürlich auch die Preisentwicklung gebremst.
Lol, gehts noch? Jetzt soll nVidia auf einmal Schuld sein ... also der Hersteller, der seit Jahren um ein Vielfaches mehr HBM-Bausteine bei den Speicherherstellern ordert als AMD? Für Kreativität gibts da von mir zumindest einen Punkt. ;-)

*) Und bspw. nVidia und selbst Intel verwendeten HBM2 in ersten Produkten noch vor AMD, das nur so am Rande.
 
Bin ich eigentlich der Einzige, der sich wundert, an was alles so KI/AI drangeschrieben wird?
Da findet vielleicht mehr statt als einfach nur stumpf exakt vorprogrammiertes Zeug abzuarbeiten, aber von echter KI/AI ist sowas doch meilenweit entfernt...
Weil AI aus Marketinggründen zu einem Synonym für Machine Learning geworden ist.
 
Anmerkung: Das maschinelle Lernen (Machine Learning, auch Deep Learning) ist das derzeit technisch und wirtschaftlich erfolgreichste Teilgebiet der KI (bzw. AI), weil es hier derzeit vielfach primär "nur" um eine Skalierung der Funktionseinheiten geht, d. h. wie viele NPU/Tensor Cores/Matrix-Einheiten bekomme ich effizient auf einem Chip unter und wie effizient kann ich den mit dem notwendigen Speicher zusammen betreiben um ein neuronales Netz abzubilden, zu trainieren und auf ein konkretes Problem anzuwenden. Neben der Algorithmik haben wir hier in den letzten Jahren beträchtliche technische Fortschritte gemacht mit spezialisierten Funktionseinheiten und immer fortschrittlicheren Fertigungstechniken, die immer größere, leistungsstärkere Systeme ermöglichten. (Extrembeispiel: Die Wafer Scale Engine von Cerebras.)
Wie schon erwähnt, handelt es sich dabei jedoch lediglich um ein Teilgebiet der KI und zudem leitet der Begriff Machine Leaning auch leicht in die Irre, denn im Wesentlichen geht es hier um Statistiken und Wahrscheinlichkeiten, also nicht um gerade das, was wir umgangssprachlich als Intelligenz bezeichnen würden.
Was Laien hier eher dabei im Hinterkopf rumschwebt, wird heute unter den Begriffen "Human-level AI" und "Artificial General Intelligence" gehandelt.
In dem Kontext auch interessant ist das Thema "Friendly A(G)I", denn was hindert nachher eine echte KI/AI daran, sich gegen sein ursprüngliches Entwickungsziel oder den Entwickler zu wenden? Das Gebiet wurde ursprünglich geprägt von Yudkowsky/Omohundro in '08. Letzterer schrieb dazu bspw.: "The AI does not hate you, nor does it love you, but you are made out of atoms which it can use for something else." ... weiterführend ... "A sufficiently advanced AI system will, unless explicitly counteracted, exhibit a number of basic 'drives', such as resource acquisition, self-preservation, and continuous self-improvement, because of the intrinsic nature of any goal-driven systems and that these drives will, 'without special precautions', cause the AI to exhibit undesired behavior."

Bzgl. ML bei weiterem Interesse bspw.:
 
Zuletzt bearbeitet:
Bald sind wir soweit, dass Logikgatter als KI betitelt werden. Bei beliebigen Algorithmen ist es ja schon längst der Fall, selbst wenn gar kein Machine Learning im Einsatz war...
 
Ich bin mir nicht so ganz sicher, ob du das was du meinstes hier auch wirklich auf den Punkt gebracht hast, aber grundlegend ist deine Aussage falsch. Ein HBM-PIM zieht selbstredend deutlich mehr als ein einfacher HBM-Stack, wenn er im FIM-Modus operiert. Im reinen Speicher-Modus kann man mittels Power Gating die PCUs ggf. weitestgehend abkoppeln, jedoch im anderen Fall steigen Verbrauch und Abwärme natürlich signifikant an.
Die von Samsung in den Raum gestellten bis zu 70 % Power Savings resultieren aus einem Vergleich gegen ein äquivalentes Komplettdesign herkömmlicher Bauweise, d. h. ein AI-Chip um den herum man Speicherbausteine reiht, weil hier mittlerweile aufgrund der beträchtlichen Speicherkapazitäten die Energiekosten für den Informationstransport aus dem Speicher und in den Speicher zurück mittlerweise so hoch werden, dass die klare Beschränkungen auferlegen. (So sind bestimmte Designs gemäß heute üblicher Anfoerungen gar nicht mehr ohne HBM realisierbar, da das mit GDDR das verfügbare Power Budget sprengen würde.)
Eine interessante Theorie, doch ist sie nicht mit dem kompatibel, was Samsung selber schreibt:
Most of today’s computing systems are based on the von Neumann architecture, which uses separate processor and memory units to carry out millions of intricate data processing tasks. This sequential processing approach requires data to constantly move back and forth, resulting in a system-slowing bottleneck especially when handling ever-increasing volumes of data.



Instead, the HBM-PIM brings processing power directly to where the data is stored by placing a DRAM-optimized AI engine inside each memory bank — a storage sub-unit — enabling parallel processing and minimizing data movement. When applied to Samsung’s existing HBM2 Aquabolt solution, the new architecture is able to deliver over twice the system performance while reducing energy consumption by more than 70%. The HBM-PIM also does not require any hardware or software changes, allowing faster integration into existing systems.
Aquabolt ist der Codename für Samsungs bisherige HBM-Generation.
Natürlich ist unklar, worauf sich die 70% beziehen: Ob auf den HBM-Stack oder auf das ganze System. (HBM+CPU/ GPU+Boards) Auf das ganze System wäre aber nur noch beeindruckender, daher gehe ich mal ganz schwer davon aus, dass nur der Stack gemeint ist.

Lol, gehts noch? Jetzt soll nVidia auf einmal Schuld sein ... also der Hersteller, der seit Jahren um ein Vielfaches mehr HBM-Bausteine bei den Speicherherstellern ordert als AMD? Für Kreativität gibts da von mir zumindest einen Punkt. ;-)
Nvidia ist dadurch alleine aber definitiv nicht HBM-freundlich. Das wäre ja so, wie wenn man Apple als speicherausstattungsfreundlich bezeichnen würde, weil sie im MacPro (nur dort!) einen fetten Speicherausbau zulassen. Klar tun sie das, denn es geht nicht sinnvoll anders. Soll Apple ihre Pros kastrieren, nur damit ihre Speicherpolitik das ganze Portfolio durchzieht? Soll Nvidia ein 768bit oder ein 1024bit-GDDR-Interface auf ihre professionellen Karten packen, nur um dort kein HBM einzusetzen? Das wäre beides völlig kontraproduktiv.

Nvidia setzt sich nur nicht für HBM ein, bekämpft es aber nicht. Apple wäre so ein Verhalten eher zuzutrauen. (siehe den Blogbeitrag: https://extreme.pcgameshardware.de/threads/die-wahrheit-ueber-den-schweinezyklus.577619/)

AMD hat alles in ihrer Macht stehende getan, um die Adaption von HBM zu beschleunigen. Blöderweise stand aber keiner der Chips und keine der Karten unter einem guten Stern: Fiji, Polaris, Vega 10, Vega 20 sind ja allesamt nicht gerade als Highlights bekannt, entstammen ja auch allesamt ohnehin keiner Architektur, die als Radeon-Glanzstunde bekannt ist. Auch kein LowLight, aber eben auch kein Highlight. Das hat natürlich auch den Effekt auf die HBM-Produktion eingedämmt. Da diese entsprechend nicht massenmarktstauglich gewachsen ist, musste für die aktuelle Gen was anderes her.

Will man etwas ankurbeln, dann muss man roadmaptauglich agieren. Im Falle von Apple wäre das zum Beispiel anzukündigen, dass sich die RAM- und Flashausstattung der iPhones alle zwei Jahre verdoppeln wird. Der Effekt würde durchschlagen, der wellenartige Rückbau von Fertigungskapazitäten stoppen. Im Falle von einem GPU-Hersteller wäre das so etwas wie "ab dem nächsten Jahr werden alle unsere kommenden High-End-Chips auf HBM setzen, in zwei Jahren auch der Großteil der Midrange", promt kann die Produktion anziehen.


BTW: Ich setze seit etwa anderthalb Jahrzehnten ausschließlich Geforces ein...
 
Eine interessante Theorie, doch ist sie nicht mit dem kompatibel, was Samsung selber schreibt: [...]
Eher nicht. Da wird nicht umsonst Bezug genommen auf die "system performance" und anzunehmen, dass ein solcher Speicherstack gar noch mal 70 % weniger Energie verbraucht als ein regulärer HBM-Stack, der keinerlei Berechnungen durchführt, ist gar absurd. Natürlich wir ein HBM-PIM-Stack deutlich mehr ziehen *), nur die Gesamtbilanz fällt positiv aus, weil hier die Rechenoperationen näher an den Speicher hernagebracht werden (und sich dadurch Energiekosten für den Transport deutlich reduzieren) und die PCUs auch recht effizient sind, jedoch werden hier nun handfeste Fließkommaoprationen zusätzlich zu den regulären Speicherlese- und Schreiboprationen durchgeführt und da Samsung nicht zaubern kann, werden die Stacks natürlich mehr (oder mindestens gleich viel) Strom ziehen. Der wesentliche Punkt ist hier, dass man bspw. den stromhungrigen AI-Chip entfallen lassen kann und dass man den Speicher nur mit einer leichtgewichtigen effizienten CPU ansteuert (bspw. auf einer PCIe-Karte oder aber möglicherweise könnte man einen solchen Speicherpool auf einer PCIe-Karte direkt bspw. mittels CXL von der tatsächlichen CPU aus ansteuern?), während die eigentliche AI-Rechenlast, also die MMA-Operationen direkt in den HBM-Stacks selbst prozessiert werden.

Ein deutlicher Effizienzsprung bei den Speicher-Dies (bzw. hier Bereichen, da ja nun unterschiedliche Funktionseinheiten auf einem Die sind) wäre nur bei einem Fertigungswechsel (Full-Node-Sprung) in einer derartigen Größenordnung möglich, aber das auch nur bei gleichartigem Modus Operandi, denn die PCUs werden, weil hier komplexe Rechenoperationen vollzogen werden, mehr Strom ziehen, wenn sie genutzt werden, als die Speicherzellen.
*) Denkbar wäre nur, da die kolportierte AI-Leistung relativ gering ist, dass ein solcher Stack vielleicht durch den Entfall von 2 GiB-Kapazität und die vergleichsweise geringe Rechenleistung einigermaßen verbrauchsneutral realisert werden kann, also dass der HBM-PIM vielleicht selbst bei Berechnugnen nur so viel wie ein regulärer HBM-Stack mit 8 GiB verbraucht?

Darüber hinaus wird man abwarten müssen, wie sich das entwickelt. Beispielsweise nVidia's Tensor Cores sind weitaus flexibler und anscheinend leistungsfähiger. Aktuell werden hier in den Prototypchips bis zu 1,2 TFlops kolportiert. Das ist nicht übermäßig viel, wobei für 300 MHz vielelicht auch ein gutes Ergebnis?
Wie genau das jedoch einzuordnen ist, bleibt dennoch abzuwarten mit Blick auf erste konkrete Produkte, denn bspw. ein A100 erreicht mit seinen 400 W immerhin 312 TFlops FP16 bzw. bloat16-Performance, d. h. man würde geschlagene 260 HBM-PIM-BGAs benötigen für eine äquivalente Leistung (wenn die sich denn in der Größenordnung linear skalieren lässt?). Mit den bisher vorliegenden Informationen ergibt sich hier noch kein schlüssiges Gesamtbild. Beispielsweise ein 8 GiB-HBM2E-Stack zieht um die 5 W. Da mag man sich nicht ausrechnen wollen, was 260 Chips ziehen. ;-) Hier fehlen wahrscheinlich schlicht noch ein paar erläuternde Details, denn Samsung wird sich sicherlich was dabei gedacht haben, denn das Energieproblem bzgl. des Datentransports ist schon seit längerem präsent und wird mit den zunehemnd größeren, verarbeiteten Datenmengen immer kritischer. Vielleicht wird die PCU in den finalen Chips ja noch leistungsfähiger? Aktuell opfert Samsung ein wenig Platz auf vier von acht Dies und fertigt somit einen 6 GiB-HBM-PIM-Stack. Nimmt man 10 Stacks = 60 GiB + 12 TFlops AI-Performance an, wäre das immer noch vergleichsweise wenig
Selbst wenn die von bspw. THW kolportierten 1,2 TFlops sich nur auf ein einzelnes Die beziehen, wären das dennoch nur maximal 4,8 TFlops für einen HBM-PIM-Stack, was immer noch nur eine überschaubare Leistung wäre ... hier fehlen einfach noch Details für eine sinnvolle Einordnung.

Nvidia ist dadurch alleine aber definitiv nicht HBM-freundlich. Das wäre ja so, wie wenn man Apple als [...]
Wenn nVidia als einer der größten HBM-Nutzer noch nicht HBM-freundlich (genug) ist, dann muss AMD i. V. dazu ja schon regelrecht HBM-feindlich sein, oder? Und möglicherweise ist selbst Intel gar noch HBM-freundlicher, denn auch die verbau(t)en über die Jahre in etlichen Produkten HBM, so in ihren FPGAs, in einigen AI-Chips, in Kaby Lake-G und Xe-HPC wird gar ein regelrechtes HBM-Monster. ;-)
Wenn ein Produkt(bestandteil) in einem bestimmten Markt (vorerst) nicht wirtschaftlich einsetzbar ist, dann ist das schlicht so. Da kann ich einem Hersteller doch keinen Vorwurf machen, dass er das Produkt dennoch zu verbauen hat, damit es endlich mal genutzt wird und damit hoffentlich der Produktpreis über die Zeit sinken wird. Das ist ein abwegiger Schluss und was dagegen überhaupt nicht abwegig ist, ist, dass dann stattdessen die eigentlich Käufer über viel zu hohe Produktpreise jammern werden, weil man ja unbedingt auf teuere Bauteile wie HBM setzen musste.
Was du eigenltich verlangst ist im Klartext: Verbaut mit bitte höherwertige Komponenten in euren Produkten und bezahlt das bitteschön auch aus eurer eigenen Tasche, denn ich bin selbstredend nicht bereit deshalb mehr für die Produkte zu bezahlen ... und wenn Du vielleicht doch, der Markt im allgemeinen ist es sicherlich hier nicht und dann wird der wieder auf die günstigeren Produkte der Konkurrenz ausweichen und der experimentierfreudige Hersteller ist gekniffen. Das kostet schlicht unnötigerweise Marge und die wird keiner ohne triftigen Grund aufgeben.
Btw ... AMD hat eher versucht mangelnde architektonische Leistungen mit einem schnellen Speicherinterface zu kompensieren in den letzten Jahren und mit Vega 10 hat man dann auch alle Consumer-Experimente bzgl. HBM eingestellt. Beispeispielsweise konnte man zu Vega lesen, dass AMD vermutlich weitaus mehr Stückzahlen über Apple aufgrund der festen Verträge absetzen konnte, als die selbst in Form eigener GPUs imstande waren zu verkaufen (Vega 64 und 56).
Und Vega 20 war primär ein Datacenterdesign (und zudem auch weitestgehend nur ein Shrink), dass man lediglich auf der Consumer-Schiene kurzzeitig zweitverwertete und insbesondere hier konnte man schnell sehen, dass die zu hohen Fertigungskosten dem Ganzen auch ein schnelles Ende bereiteten, denn kaum hatten sich die Preise in sinnvolle Regionen bewegt, setzte AMD die Karte EOL, aber mit Vega 20 lief es anscheint im Datacenter ohnehin nicht gut, denn man suchte sich anschließend dann Apple als Drittverwerter und stampfte dann bspw. die MI60 ein, weil man die Instinct-Karten auf dem freien Markt wohl kaum loswurde.
Und noch mal, keine Hersteller hat hier Interesse primär etwas "anzukurbeln". Oberste Maxime ist wirtschaftlich zu fertigen um einen hohen Gewinn zu erzielen. Wenn keine äußere Zwänge vorliegen, wird man sich dem nicht wiedersetzen und aktuell kann man bspw. die Bandbreitenbedürfnisse, die man für HighEnd-GPUs hat offensichtlich günstiger mit GDDR6 zuwegebringen, nVidia mit einem breiteren SI und schnelleren Modulen und AMD derzeit gar mit einem noch schmaleren SI, das man mittels eines großen L3-Caches zu kompensieren versucht. Das ist am Ende schlicht ein Ausbalancieren zwischen technischen Bedürfnissen, Fertigungskosten und einer hohen Marge, die jedes Unternehmen anstrebt.

Wenn die Zeit reif ist, wird man HBM sicherlich im oberen HighEnd einziehen sehen, keine Frage, aber das scheint weiterhin noch ein wenig auf sich warten zu lassen. Die Speicherkapazität wird aktuell vorerst absehbar im Cosumer-Segment nicht weiter steigen, denn mit bspw. den 16 GiB von AMD hat man schon einen Wert jenseits dessen erreicht, was der Großteil der Konsumenten auch in den nächsten Jahren benötigen wird (und bspw. die Konsolen können eh nicht weiter wachsen). Es bleibt also (vorerst) einzig die wachsenden Bandbreitenanforderung als Triebfeder. Bei AMD würde ich gar ausschließen, dass RDNA3 mit HBM kommt, denn die könnten auch leicht auf ein 320 Bit-SI gehen, würden damit (zwangsweise) 20 GiB im HighEnd anbieten, könnten in Verbindunng mit schnellerem Speicher aber ihre aktuelle Bandbreite von 448 GiB/s auf bspw. 640 GiB/s erhöhen (theoretisch gar bis zu 720 GiB/s mit 18 Gbps) und könnten weiterhin mit einem großen L3 das Defizit kompensieren. Die sind damit in dieser Gen relativ gut gefahren, ich denke daher das wird man min. noch eine weitere Gen so fortsetzen.
Bei nVidia kann man das für 2022 dagegen noch nicht so genau absehen. Micron hat noch einiges mit ihrem OC-Speicher vor, ein minimal breiteres SI wäre denkbar, auch nVidia könnte seinen L2 deutlich vergrößern (der A100 hat monströse 40 MiB, L2 wohlgemerkt oder man könnte auch hier einen L3 implementieren) und hier wäre vielleicht dieses Mal die Wahrscheinlichkeit zumindest etwas höher, dass man dem Grenzwert für eine HBM-Implementation im HighEnd näher kommt oder diesen vielleicht gar erstmals überschreitet? Man wird sehen.
 
Zuletzt bearbeitet:
Zurück