Ende des DDR-Rams? Intel stellt Hybrid Memory Cube vor

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Ende des DDR-Rams? Intel stellt Hybrid Memory Cube vor gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

arrow_right.gif
Zurück zum Artikel: Ende des DDR-Rams? Intel stellt Hybrid Memory Cube vor
 
Ja das ganze als nicht fluechtigen speicher und in einer Terabyte-kapazitaet und der pc wird nie wieder so langsam sein wie er heute ist.
 
Um so größer ein Programm ist, umso länger brauch es doch auch zum Starten, da erst einmal alle relevanten Daten in den RAM übertragen werden müssen. Deswegen starten Programme von einer SSD auch schneller als von einer HDD, da eine SSD nun mal schneller ist.
 
Ganz einfach, Pal_Calimero:
Alle formen, egal ob Festplatten mit magnetischen Platter oder Flashzellen in den aber hunderten Arten oder zukünftige Medien, von Speicher sind auf ein Ziel auf,
nämlich das Optimum zu werden.

Günstig in der Produktion, geringer Energieverbrauch,
hohe Speicherdichte, hohe Übertragungs- und Zugriffsraten,
geringst möglicher Platz mit unendlicher Skalierbarkeit.

Dazu kommen noch Nebeneigenschaften wie z.B. Umweltbelastung, Einsatzbereich von Temperatur/Druck etc..
Aber egal wie viele Eigenschaften man nennt, das Ziel ist es irgendwann den Speicher zu finden der alle positiven Eigenschaften verbindet und somit die momentanen Probleme des PCs auflöst!
Ein PC ist momentan von Arbeitsteilung regiert und dadurch sinkt seine Effizienz (Schritte Doppelt zu machen, oder mehrfach selbe Daten zu verwenden und durch div. Stellen laufen zu lassen), wenn man nun irgendwann "den Speicher" hat (und die bis dahin entstehenden anderen technischen Neuerungen), dann gibt es wohl nicht mehr das Momentane Schema von CPU, RAM, HDD, GPU und Board/Chipset bzw. noch komplexer die einzelnen Strukturen dessen werden sich ändern - denn wenn es schnellen Speicher in Maßen gibt, warum noch Arbeitsspeicher nutzen?

Direkt von der Festplatte zur Recheneinheit und zurück - fertig,
und genau darauf läufts halt irgendwann mal raus, wer weiß in welcher Form aber meiner Erwartung nach gibt es das klassiche PC Basteln wie akut in ca. 15 Jahren nicht mehr.
Vll. trägt bis dahin schon mal so einigermaßen alles den gleichen Anschluss (von Protokoll und Formfaktor her) und ein paar Fusionierungen bzw. Aufsplittungen der Hardware wird es wieder geben.

Alles in allem ->
deshalb bitte auch Entwicklung, und vll. wird ja Intel Hybrid Memory Cube in irgendwelchen Managerträumen zu der eierlegenden Wollmilchsau.
 
Wird aber wohl noch ein paar Jahre so bleiben wie es ist... evtl kommt auch noch DDR 4 bevor dann dieser Speicher sich anfängt durchzusetzen. Zumindest für den Privatgebrauch in Heimischen Desktopsystemen oder Notebooks/Tablets etc. Die Entwicklungskosten werden erstmal wie üblich über den Servermarkt wieder eingespielt
 
Die grossen sprüche gabs doch auch hschon bei Rambus speicher auf den intel boards. Und jetzt ist immer noch SD-Ram verbaut. Werden Wir ja früher oder später sehen welcher speicherstandart sich durchsetzt. Die "erfindung" ist aber schon ma ein richtiger schritt
 
DAS nenne ich mal Innovation. Ich bin gespannt, wie sich ein solcher Speicher in der Realität schlägt. Aber eine solche Transferrate ist definitiv schon mal etwas interessantes. (Sensationell? Keine Ahnung.)
 
Ja, es ist ein Schritt in die richtige Richtung, und es wird auch TSV benutzt für gestapelte Chips, was mir schon seit ca nem Jahr im Kopf rum schwirrt. Gerade für GPUs/APUs ist der Speicher sehr interessant, da die eventuell etwas höheren Latenzen dort nicht so sehr ins Gewicht fallen, wie bei einer reinen CPU. Die GPUs und auch zum Teil APUs (durch den GPU-Part) nutzen Latencyhitting aus, also das Verstecken von Zugriffslatenzen. Daher brauchen Sie auch teilweise so hohe Bandbreiten. Man muss halt die Zwischenzeit überbrücken.

Für große Server auch sehr interessant, da der RAM dort schon teilweise einen wesentlichen Anteil an der gesamten Leistungsaufnahme aus macht.

Was ich allerdings nicht verstehe ist, warum man wieder nur einen halbgahren Schritt macht, wenn man eh so ziemlich alles über den Haufen wirft, was aktuell da ist. Man muss mal wieder runter vom Chip (CPU/GPU/whot ever). Warum nicht gleich den Logik-Layer direkt in die CPU packen, und dort die Chips stapeln?

DAS wäre konsequent zu Ende gedacht. Naja, vielleicht kommt es noch, mal sehen.
 
Bei Windows ist im Moment ein Sperre drin, die den Speicher "zurück hält" aber in Windows Server oder Linux Version ist auch ein TB RAM mit 64-Bit möglich!
 
Zurück