News 3D X-DRAM und VS-DRAM: Auch der Arbeitsspeicher soll gestapelt werden

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 3D X-DRAM und VS-DRAM: Auch der Arbeitsspeicher soll gestapelt werden

3D-NAND und 3D V-Cache sind mittlerweile den meisten Anwendern ein Begriff, aber in Zukunft sollen auch die DRAM-Speicherzellen für Arbeitsspeicher gestapelt werden. Während Samsung an VS-DRAM arbeitet, möchte das Start-up Neo Semiconductor seinen 3D X-DRAM etablieren. Ziel ist es, damit die Flächendichte deutlich steigern zu können.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 3D X-DRAM und VS-DRAM: Auch der Arbeitsspeicher soll gestapelt werden
 
Ist das vergleichbar mit dem HBM von Fiji und Vega?
Zumindest könnte man damit sehr kompakte System generieren.
Gruß T.
 
Ist das vergleichbar mit dem HBM von Fiji und Vega?
Zumindest könnte man damit sehr kompakte System generieren.
Gruß T.
Nein ist nicht dasselbe. 3D-DRAM ist vom Konzept her das gleiche wie V-NAND, man geht von planaren Speicherzellen auf eine 3D Anordnung. Und das ist für alle DRAM-Speicher relevant. Da gehören neben HBM auch DDR5 und GDDR6 dazu.

Wenn das funktionieren sollte, wäre das ein riesiger Technologiesprung beim DRAM. Viel mehr Speicher und dazu noch günstiger.
 
Ist das vergleichbar mit dem HBM von Fiji und Vega?
Zumindest könnte man damit sehr kompakte System generieren.
Gruß T.

Nein, und auch nicht mit dem HBM von Hopper oder Sapphire Rappids.^^
HBM stapelt mehrere planare Chips. Die Technik hier verspricht, mehrere Strukturebenen auf einen Chip zu stapeln. (Könnte man aber kombinieren, wenn man Fläche sparen will. Bei Flash ist das längst üblich, aber da ist auch die Verdrahtung einfacher.)

Nein ist nicht dasselbe. 3D-DRAM ist vom Konzept her das gleiche wie V-NAND, man geht von planaren Speicherzellen auf eine 3D Anordnung. Und das ist für alle DRAM-Speicher relevant. Da gehören neben HBM auch DDR5 und GDDR6 dazu.

Wenn das funktionieren sollte, wäre das ein riesiger Technologiesprung beim DRAM. Viel mehr Speicher und dazu noch günstiger.

Wenn.
Man beachte, dass hier ein Start-Up, dass nur IP verkaufen möchte, nicht nur eine Kondensator-lose DRAM-Technik verspricht (vergl. Z-RAM, von dem man nie wieder etwas gehört hat), sondern offensichtlich sogar eine Transistor-lose DRAM-Technik! Jedenfalls wüsste ich nicht, wie man ohne monokristallines Silizium (das es nur in der untersten Lage gibt) die schnellen Ansteuerungen für Random Access Memory realisieren möchte. Die in Reihe geschalteten Blöcke des gezeigten NAND-Flash, der eine Vielzahl von Speicherzellen über eine gemeinsame Ansteuerung in der untersten Lage stapelt, taugen dafür nicht.
 
Geht das dann auch mit den selben Nachteilen wie beim 3D NAND einher? Kürzere Haltbarkeit, und leistungsschwächer?
Dann weiss ich nicht, obs für mich interessant wäre.......
 
3D NAND ist in der Regel haltbarer als planarer gleichen Alters, weil man einen Teil der gewonnenen Platzersparnis in größere Floating Gates investiert beziehungsweise allgemein mit Charge Trap gearbeitet hat. Da die zugehörigen Fehlermechanismen Flash-spezifisch sind, lassen sich aber keine Rückschlüsse auf einen mysteriösen macht-alles-anders DRAM ziehen.
 
Zuletzt bearbeitet:
Mehr Arbeitsspeicher pro Riegel ist nett. Es löst aber nicht das Problem, dass die Bandbreite zum Memory zu gering ist. Ein schönes Beispiel ist der M1 Prozessor (256Bit Bus bei Pro / 512 Bit Bus bei Max / 1024 Bit Bus bei M1 Ultra), den ich auf der Arbeit nutze. Viele Applikationen profitieren von der höheren Bandbreite. Mir ist aufgefallen, dass bei den CPU Benchmark oft Applikationen benützt werden, die vollständig im L2-Cache laufen (Bsp. Cinebench). Phoronix hat eine EPYC CPU getestet mit 3D-Cache ein und ausgeschaltet. Dabei sieht man, dass einige Programme von mehr Cache d.h. auch von mehr Bandbreite profitiert.
AMD will ja mit Strix Halo auf 256 Bit-Breite gehen. Das ist ja mal ein Anfang.

Meine Hoffnung ist, dass diese Technologie auch in HBM einfliesst und dies dann auch zu einem breiteren Einsatz von HBM führt. Dies führt wieder zu günstigeren Preisen.
 
Ein großes Problem bei breiteren Interfaces sind auch die hohen Kosten auf der Platine. Apple verlötet halt einfach alles, den Trick können Grafikkarten seit Jahrzehnten. Aber wer einen gesockelten Prozessor und unabhängig davon gesockelte Speichermodule haben will, ist sowohl hinsichtlich der Taktraten beschränkt als auch hinsichtlicher der Interface-Breite schnell im schwer bezahlbaren Bereich. Die WRX8-Threadripper (512 Bit) sollen sich im Workstation-Segment ganz gut machen und mit den 2000er Sapphire Rapids hat Intel nach langer Pause mal wieder eine 256-Bit-Plattform aufgelegt. Aber Heimanwendern ist das schlichtweg zu teuer.
 
Meine Hoffnung ist, dass HBM bald in die CPU kommt. Bei einigen Sapphire Rapids ist da ja der Fall, leider wurden diese noch nicht gelauncht und somit sind keine Tests verfügbar.

AMD hat durch das Chipletsdesign schon ein Interposer im CPU-Gehäuse. So fallen die Kosten für einen extra Interposer weg, wenn HBM eingesetzt würde. Leider ist die maximale Kapazität auf 48 GB bei HBM3 beschränkt. IMHO sollten 64 GB Arbeitsspeicher bei einer 12-16 Core CPU verbaut sein. Das wäre genug für die Zukunft, bis man auf eine neue Generation umsteigt. Bei 64 GB sind leider 2 Stack nötig, was die Kosten steigert.

Leider sind wir bei HBM in einem Chicken-Egg-Problem gefangen. So lange es nicht in Massen produziert wird, werden die Kosten nicht sinken. Mit hohen Kosten ist eine grosse Anfrage nicht gegeben und somit werden nicht in grossen Massen produziert. HBM-Chiplet sind nicht aufwänderiger als mehrlagige DRAM-Chips.

Ich würde sofort eine 64 GB HBM CPU kaufen, wenn der Mehrpreis vernünftig ist zu einer CPU + 64 GB DDR5-RAM ist. Ohne Arbeitsspeicher auf dem Mainboard werden diese auch wieder einfacher und günstiger.
 
AMDs Chiplets werden ohne Interposer direkt über das Substrat verbunden. Die feinen Verbindungen, die HBM bräuchte, sind damit nicht möglich. Allerdings bietet TSMC mittlerweile ähnliche Techniken wie Intels EMIB an, AMD könnte HBM also ohne vollflächigen Interposer verbauen. Billig wird das deswegen aber noch lange nicht. Zumal dank der vielen Vias feineren Bearbeitungsschritte, etc. HBM auch bei gleicher Stückzahl schon rein auf Chipebene immer teurer als normaler DRAM sein dürfte. Der wird nämlich weiterhin einlagig angeboten respektive müsste selbst in mehrlagiger Auführung mit viel billigeren Edge-Kontakten auskommen.

(Ich wäre trotzdem dafür, dass Intel mal ein echtes Enthusiast-System baut. 32 Kerne, 64 GiByte HBM und die Speicherkanäle – 2-4 würden reichen – kann man dann ja für Optane-DIMMs als SSD nutzen. Die Technik liegt in der berühmten Schublade, sie braucht nur noch ein Preisschild. :-)
 
Zurück