Die Geburt von DRAM (PCGH Retro 4. Juni)

Das kann ich kaum glauben. :)
Das will niemand bezahlen. Zumindest nicht die üblichen Abnehmer von Privat- und Bürorechnern.
Außerdem scheint es sich auch außerhalb der Geiz-macht-geil-Klientel nicht zu rechnen, sonst würde es auch hier und da, wo es auf ein wenig Kleingeld für teuren Speicher nicht so ankommt (ausserdem braucht SRAM auch weniger Saft und Green ist ja momentan noch mächtig angesagt), realisiert werden. Der homöopathische Einsatz von SRAM und moderne Cachingalgorithmen federn das lahme DRAM anscheinend gut genug ab. Ansonsten sind Speicher und Festplatten (da reissen auch SSDs nicht wirklich was raus) die Sorgenkinder schlechthin, weil sie im Vergleich zu den Performancegewinnen im Prozessorbereich gradezu lächerlich hinterherhinken. Die genannten Alternativen zu den klassischen Speichertechniken werden teilweise seit etlichen Jahren immer wieder genannt, aber die kommen nicht aus der Ecke.
 
Sollte es die weitaus geringere Speicherdichte von SRAM gegenüber DRAM erlauben können, bin ich vollkommen einverstanden. Allerdings ist die Herstellung von SRAM um einiges teurer als von DRAM, deshalb fürchte ich, dass es sich nicht so ohne weiteres durchsetzen würde

"durchsetzen" könnte ein Problem werden - aber die Kosten sind, wie erwähnt, imho bei sinnvollen Speichergrößen schon tragbar. Das billigste 4 GiB Kit (und mehr bringt nach wie vor in 90% aller Heimanwenderszenarien gar keinen und in weiteren 9,9% kaum messbare Vorteile) kostet 28 €, das teuerste knapp 280 €. Die Leute sind also offensichtlich bereit, für etwas höhere Taktraten und etwas kürzere Latenzen (und natürlich hammermäßige Produktnahmen und megaspitzengeil aussehende, nutzlose Heatspreader) den zehnfachen Preis hinzublättern.
SRAM hat 6 mal mehr Transistoren, aber noch einen Kondensator weniger - glaube mal was von ~4-5 fachem Platzbedarf der Speicherzelle gehört zu haben. Da die Zellen keine Refreshs mehr brauchen und die drastisch höhere Taktbarkeit den Multi-Prefetch obsolet machen, kann der Controller und Auslesebereich zudem drastisch vereinfacht werden. Damit wären wir also bei ~4 mal höherem Flächenverbrauch und somit Chipfertigungskosten pro Speichergröße. Test und Vermarktungsaufwand pro Modul bleiben aber gleich. -> Bei gleichen Stückzahlen wäre SRAM 2-3mal teurer, würde aber Käuferkreise ansprechen, die 8-10mal höhere Preise akzeptieren.

Wobei Cache auf dem Motherboard nicht mal mehr so abwegig wäre; als VRAM für die integrierten Grafikeinheiten wohl bestimmt nicht zu verschmähen.

AMD Chipsätze haben seit Jahren die Sideportoption (allerdings auf DRAM-Basis) und es hält sich das Gerücht, dass Intel in irgend einer kommenden CPU zusätzlichen Cache/VRAM auf dem Substrat unterbringen möchte.


Das kann ich kaum glauben. :)
Das will niemand bezahlen. Zumindest nicht die üblichen Abnehmer von Privat- und Bürorechnern.

S.o.: Der Enthusiastmarkt würde es kaufen, wenn man überhaupt ein größere Produktion aufziehen würde. Ähnlich wie bei RAMBUS hätte man natürlich ein Einführungsproblem, top-down ist im PC-Bereich selten möglich.
Allerdings muss man klar sagen: Der einzige große Sprung im Bereich der Speicheranbindung seit dem Ende von SDR war die Integration des Speichercontrollers und die damit verbundene Senkung der Latenzen - undzwar Latenzen in Taktzyklen. Seitdem hat die Speicherentwicklung zwar massiv die Bandbreite gesteigert, aber die Latenzen sind in ms ~konstant geblieben, in Taktzyklen sogar gestiegen. Weitere Bandbreitensteigerungen bringen kaum noch Vorteile.
Ich würde deswegen damit rechnen, dass in einigen Jahren wieder gesteigerter Bedarf an einer drastischen Verkürzung der Speicherlatenzen entsteht. Dafür gäbe es imho zwei Ansätze: EDRAM oder SRAM. Letzteres halte ich sogar noch für die günstigere Option.
Sollte es dazu kommen, wäre eine Top-Down-Einführung möglich, weil der Servermarkt die Module rein aus Leistungsgründen verlangen würde.

Die andere, etwas heiklere, Perspektive ist die oben schon genannte des Speicherbedarfs. Noch steigt er langsam - ggf. stagniert das bald vollständig, ähnlich wie der Massenspeicherbedarf. Dann hätten schnelle Speichertechnologien, mit aus heutiger Sicht absurd hohen Preisen, durchaus eine Chance, weil ihre Preise trotz allem weiter fallen und die billige Größe der Konkurrenztechnologie einfach kein Vorteil mehr ist. (siehe Massenspeicher: Flash war vor 10 Jahren auch viiiiiieeeeeel zu teuer, um gegen Magnetlaufwerke zu bestehen. Wann habt ihr zum letzten mal einen Magnetspeicher zum Datenaustausch verwendet? Plant irgend jemand noch die Anschaffung einer HDD als Systemlaufwerk?)

Die genannten Alternativen zu den klassischen Speichertechniken werden teilweise seit etlichen Jahren immer wieder genannt, aber die kommen nicht aus der Ecke.

Viele sind ja auch schon längst wieder aufgegeben (Millipede z.B.) und fast alle haben zwei Dinge gemeinsam
- hohe Latenzen
- nicht mit billigen Standard-Siliziummethoden zu fertigen
Was ist die Hauptschwäche heutiger DRAM-Lösungen? Latenzen. Bandbreite täuschen die meisten Alternativen sowieso nur durch massive Parallelisierung vor.
Was ist die Hauptschwäche von Flash? Der Preis.
-> Die neuen Ansätze lösen keines der bestehenden Probleme.
 
Massive Parallelisierung - durch den dual-, triple-, quad-channel-Trick.
Ich warte nur noch darauf, dass der Hauptspeicher auch demnächst seriell angebunden wird. ;) Das ist schließlich die letzte Bastion, die den seriellen Interconnects noch nicht zum Opfer gefallen ist (zumindest nicht direkt).
Pro RAM-Riegel eine Lane... Den höchsten Durchsatz erzielt man dann durch die Bestückung aller Steckplätze. Den gebeutelten Speicherherstellern wirds gefallen. :)
 
CPU-Interconnects und z.T. Chipsatzanbindung sind auch noch in der Hand paralleler Verbindungen. Ein typischer CPU-HT-Link ist 16 Bit breit, QPI arbeitet zwar mit mehreren Links, die sind aber jeder fünffach parallel. Auch Ethernet und sämtliche Monitoranbindungen sind nicht serriell - es ist halt aufwändiger, mehrere serielle Leitungen für hohe Bandbreiten zu bündeln, als gleich eine parallel zu bauen (zumindest wenn diese auch Paketorientiert arbeitet). PEG ist da afaik der einzige Standard, der das praktiziert, und das ist wohl eher auf die Synergieeffekte mit den kleineren PCIe-Slots zurückzuführen.
Wo DRAM aber die letzte Bastion ist: Bus-Architektur. Es gibt keinen anderen aktuellen Standard (SM mal ausgenommen), der nicht als Punkt-zu-Punkt-Verbindung arbeitet, sondern mehrere Geräte (Controller und 4/6 Rows) verbindet. Da bahnt sich aber mit den bisherigen So2011 Boards genau das an, was du beschreibst: Man nutzt die Technik nur noch für einen Riegel pro Kanal, verbaut dafür mehr Kanäle. Genau so begann das Ende des FSB bei Intel.
 
Wie auch immer du das aufdröselst: PCIe, HT, QPI, SATA, USB (3.0) (hab' ich was vergessen, was sich noch so auf einem modernen Motherboard tummelt?) gehören alle zur Seriell-Interconnect-Familie. Hauptsache, die Daten tröpfeln bitweise nacheinander durch die Leitungen und nicht wortweise parallel in einem Durchgang. Das im Endeffekt doch ziemlich massiv parallel gebündelt wird (QPI hat für bidirektional pro Bit zwei Leitungen) ,spielt eine eher untergeordnete Rolle. Man kann sie aber auch "parallel geschaltete, paketorientierte serielle Schnittstellen" nennen. :D Dann werden wohl alle glücklich, nur nicht die, die sich beim Schreiben darüber die Finger brechen.
BTW: Superinteressante Artikel zu dem Thema (über die physikalischen Hintergründe, nicht erbsenzählerische Definitionen ;) ) gab es in der c'T "Wie serielle Interconnects der Physik ein Schnippchen schlagen" c't 23/09 + 10/10
 
Zuletzt bearbeitet:
Bebilderung und Bildbeschriftung zum Artikel: "DDR3-RAM: Einer der neuesten Standards auf Basis der alten DRAM-Technik [Quelle: PC Games Hardware]"

ernsthaft?
 
Naja, ist halt ein alter Artikel und so falsch nun auch nicht. Über alle DRAM-Typen seit Erfindung gesehen, gehört DDR3 immer noch zu den neuesten Typen ;)
 
Diese Erfindung wird mehr und mehr zum Pferdefuß - schneller ists nämlich nicht geworden!
Zumindest was die Latenz betrifft, treten wir seit Jahren auf der Stelle, hier muss dringend was neues her.
Ist ein paar Jahre *hust* später nicht besser geworden.

Corsair DIMM 32 GB DDR5-4800 Kit
Die 288-Pin Module unterstützen eine Latenz von 40-40-40-77 bei 4800 MHz und benötigen 1,25 Volt Spannung. Intels XMP Version 3.0 wird unterstützt.
 
Zurück