News Hybrid Memory Cube: IBM bald mit Massenproduktion des potenziellen DRAM-Nachfolgers

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Hybrid Memory Cube: IBM bald mit Massenproduktion des potenziellen DRAM-Nachfolgers gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Hybrid Memory Cube: IBM bald mit Massenproduktion des potenziellen DRAM-Nachfolgers
 
Ich denke in der Form wird er wohl als eDRAM beim POWER 8 zum Einsatz kommen, am Desktop ist eine DDR3 Ablöse ja noch nicht absehbar
 
@dj*viper:

war vor deiner user news bereits schon zwei mal auf der main

18.09.2011: Ende des DDR-Rams? Intel stellt Hybrid Memory Cube vor [News des Tages] - intel, ddr3, ram, speicher

09.10.2011: Hybrid Memory Cube: Micron und Samsung wollen neuen Speicherstandard forcieren - samsung, speicher

am 18.09. ging es nur um INTEL!

am 09.10. ging es MICRON und SAMSUNG.


nun geht es aber um IBM und MICRON ;)
in den anderen news ist kein sterbenswort von IBM!
und da ging es auch nicht um die Produktion!
lies erstmal die news, bevor du hier spamst ;)
 
Zuletzt bearbeitet:
Ist doch jetzt auch Jacke wie Hose. Wegen so was streitet man doch nicht :schief:

Massenproduktion hört sich aber wirklich nicht schlecht an. Vielleicht ist das ja der Ominöse "XDR2" Ram für die HD7000. Wäre auf jeden Fall sehr schick und würde die Produktionskosten eventuell trotz mehr an Bandbreite senken können.

Ein richtig schönes fettes Speicherinterface wäre wirklich sehr sehr gut, wenn man an GPGPU denkt. Die neuen Karten werden ja wohl nochmals zulegen bei der Rechenleistung. Da kann man beim Speicherinterface nicht stehen bleiben, das limitiert ja heute schon sehr oft.
 
Der Ton macht die Musik...schade, dass der hier manchmal fehlt!

Beim Thema bleibend was mich besonders interessiert und wie gesagt bisher gar nicht bis kaum erwähnt wurde, wie schaut es mit der Abwärme aus und wie soll sie aus dem Chip Stapel abgeleitet werden?
 
wie schaut es mit der Abwärme aus und wie soll sie aus dem Chip Stapel abgeleitet werden?

Bei Samsungs Technik sind Ebenen mit Kupfergefüllten Löchern verbunden, welche auch die Wärme ableiten; so groß ist die Abwärme eines DRAM Chips ja nicht
 
Und da IBM das Ding produziert, und einiges an Erfahrung mit stacked-Chips hat, wird zur Not das eine oder andere Patent von denen raus gekruschtelt und dann passt die Sache. Die haben ja Flüssigkühlung und inzwischen wenn ich das richtig verstanden habe Flüssig-Kühlung-Stromversorgung für stacked-Chips. :ugly:

Also von daher mach ich mir da echt keine Sorgen wenn IBM das Ding baut.
 
Und hier ein Video, dass die Kühlung in Aktion zeigt :daumen:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
THX @ hirohito und Skysnake

Das war was mich interessiert hat! Denn wenn ich an die bisherige Ram-Module samt deren "Kühlkörper" denke, welche in einigen Fällen die Temps eher noch nach oben treiben, wird mir übel. Aber die gezeigten Kühlkonzepte lassen ja ernsthaft die Möglichkeit aufkommen den Ram direkt auf der CPU anzubinden :D mir der neuen Bandbreite wäre das ja mal was...
 
ernsthaft die Möglichkeit aufkommen den Ram direkt auf der CPU anzubinden

Das wäre nichts unbedingt neues; sogenannten eDRAM gibt es etwa beim XENOS GPU der Xbox 360 sowie beim POWER6 und POWER7, er wird dort jeweils als Cache eingesetzt

Aber es geht sogar noch weiter (und das ausgerechnet im Mobilen/Low Power Segment): beim Apple A4 sind etwa zwei RAM Chips auf den CPU gestapelt
 
Von Xbox 360 und Apple war es mir auch bekannt aber im Desktopbereich sollte es langsam mal voran gehen. Ich denke aber, dass es bisher vorallen am know how zur richtigen Kühlung fehlte. Soweit ich mich an den ROD bei der Xbox 360 (auch meiner) erinnere war es dem Punkt geschuldet: Die Konstruktion um die GPU war so am Limit, dass die anfänglichen Toleranzen bei der Installation der Kühlkörper samt Wärmeleitpads eben später zu einer "erhöhten" Fehler-/Ausfallrate führten (Auch wenn es anfangs auf die Lötverbindungen geschoben wurde so war die Ausfallrate selbst bei den reparierten Geräten wesentlich höher als bei der Konkurenz). Deswegen wurde die Garantie ja auch um 12 Monate für die Gesamte Produktion bis November 2007 und nicht nur bei einzelnen Chargen verlängert. Besserung gab es erst bei dem Umstieg auf eine andere Strukturbreite 90->65nm
 
Im PC-Bereich ist es nicht nur die Kühlung, sondern auch die Vermarktung. Embedded RAM würde die Arbeitsspeichergröße fest an das CPU-Modell koppeln. Im Gegensatz zu Smartphone-/Tablet-Nutzern und Konsoleros passen PC-Nutzer und -OEMs diese aber gerne selbst den Bedürfnissen an und die Bandbreite überspannt dabei i.d.R. drei bis fünf Stufen. Vier-/Fünfmal mehr CPU-Modelle anzubieten, um weiterhin die gleiche Auswahl zu bieten (der Wegfall einer Nachrüstmöglichkeit wäre trotz allem heftig), würde den Markt extrem aufblähen und durch das verbundene Risiko für die Händler entweder die Preise steigern oder die Verfügbarkeit reduzieren.
Vorerst würde ich höchstens mit Caches und VRAM rechnen. Aber selbst die könnten die Ausnahme bleiben, denn iirc wurde schon vor Jahren die nötige Technik entwickelt, um DRAM auf einem Chip mit anderen Schaltungen unterzubringen und bislang hat es trotzdem niemand für L3 oder L4 Caches genutzt.
 
Ich kann mir gut vorstellen, dass es eine weitere RAM Stufe gäbe, etwa 1GiB sehr schnellen eDRAM, und den Rest normal als DDR3

Der eDRAM müsste nicht unbedingt ein transparenter Cache sein, er könnte auch durchaus direkt adressierbar sein, das OS müsste natürlich damit arbeiten können, bei einer so goßen Menge ist das wahrscheinlich sinnvoller

Aber wie gesagt: die hier vorgestellte Technik ist wohl kaum vordergründig für PCs gedacht
 
Naja, doch, so was steht einer APU sehr gut.

Damit hat man halt endlich die Mittel an der Hand, um echte Monster APUs zu bauen, die du dann auch gleich als Multi-Sockel-Systeme auslegen kannst. Ne normale CPU brauchts dann nicht mehr wirklich, wenn du in die Vollen gehst. Gerade der Wegfall vom Datantransfer auf die dezidierte GPU ist halt schon ein gewaltiger Vorteil.

Ich seh der Sache bzgl. den nächsten Jahren mehr als positiv entgegen.
 
Zurück