DDR5: Ankündigungen von Teamgroup und XPG

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DDR5: Ankündigungen von Teamgroup und XPG

Sowohl Teamgroup als auch XPG haben DDR5-Arbeitsspeicher angekündigt. Während Teamgroup DDR5-4800-Modul der Elite-Serie auf den Markt bringen will, stellt XPG die Caster-Serie mit 6.000 bis 7.400 "MHz" in Aussicht.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: DDR5: Ankündigungen von Teamgroup und XPG
 
DDR5 Ram mit 7200 Mhz und guten Timings kaufe ich dann günstig ab 2025-2026. ;)
Bin mal gespannt wie sehr der Arbeitsspeicher APU's beschleunigen kann.
 
Anmerkung zum On-Chip-ECC:
Das sollte man nicht überbetonen im Consumer-Context, da das zwei unterschiedliche Paar Schuhe sind und kaum etwas mit dem ECC zu tun hat, das der Konsument allgemein kennt und "versteht".
Das DDR5-on-chip-ECC implementiert lediglich eine Single-Bit-Error-Correction und dient primär dazu die Zuverlässigkeit großer Servermodule jenseits der 64 GiB zu erhöhen (also auf Modulen, die sehr viele Chips verwenden) und somit die Fertigungskosten zu senken.
Reguläres ECC benötigt weiterhin die volle Unterstützung entsprechend angepasster (und freigeschalteter) Funktionalität im Speichercontroller und im Falle von DDR5 die Anbindung über das Mainboard mittels 2x40 Lanes (anstelle von 2x32 Lanes).
 
Zuletzt bearbeitet:
Ich bin gespannt wie sich DDR5 auf das System auswirkt und ob es nicht von einen anderen Flaschenhals eingebremst wird.
Spannend werden auch die Systemkosten und das was wir am ende zahlen müssen, falls auch da Scalper und co. wieder zuschlagen sollten......
 
Bevor das für mich interessant wird müssen wir bei Grössenordnung DDR5-8000 CL32 ankommen. Also verdoppelte theoretische Bandbreite bei ähnlicher Zugriffszeit wie DDR4-4000 CL16.
Dann wäre mir der Sprung groß genug um es als (zusätzliches) Argument für einen Plattformwechsel zu sehen.

Bis wir da sind wirds noch ne ecke dauern aber ich schätze mal dass ich mit nem 5950X auch auf DDR4 noch ne ganze Weile gut versorgt bin.
 
Bevor das für mich interessant wird müssen wir bei Grössenordnung DDR5-8000 CL32 ankommen. Also verdoppelte theoretische Bandbreite bei ähnlicher Zugriffszeit wie DDR4-4000 CL16.
Dann wäre mir der Sprung groß genug um es als (zusätzliches) Argument für einen Plattformwechsel zu sehen.

Bis wir da sind wirds noch ne ecke dauern aber ich schätze mal dass ich mit nem 5950X auch auf DDR4 noch ne ganze Weile gut versorgt bin.

Ach komm schon, wir wissen beide, dass du dein System oft wechselst und einem Zen4 dürftest du wohl kaum widerstehen...

(oder hat deine bessere Hälfte etwas dagegen?)
 
Ach komm schon, wir wissen beide, dass du dein System oft wechselst
Seit wann das denn... Die letzte Plattform (den 5960X auf X99) hatte ich über 5 Jahre lang. Wenn der 5950X /AM4 genauso lange hält sind wir Ende 2024. Bis dahin sollte das klappen mit 8000er RAM.

Meine bessere Hälfte hat immer noch nen 6600k und was soll ich sagen er ist noch immer problemlos schnell genug für das was sie tut. Vielleicht wird der auch 10 Jahre alt (sein Vorgänger alias 2500k läuft bis heute bei meiner Mutti als Bürokartoffel, der hat nur ne SSD bekommen und nach iirc 8 Jahren mal ein neues NT nachdem das alte die Haussicherung getestet hatte).
 
Wann die Module, deren Timings bei CL40-40-40-77 liegen sollen, auf den Markt kommen, gibt Teamgroup nicht im Detail an.

Baue mir gerade einen Retro PC mit DDR2 Ram und Pentium 4. Die RAMs haben CL4 :)
 
Baue mir gerade einen Retro PC mit DDR2 Ram und Pentium 4. Die RAMs haben CL4 :)
Und im Vergleich zu DDR5 mit CL40 reale Zugriffszeiten aus der Hölle. ;-)

Ein P4 mit DDR2 800 CL4 liegt bei zufälligen Zugriffen bei groben 200ns. Schnellerer DDR5 dürfte irgendwo zwischen 50 und 80 landen schätze ich. Das liegt zwar nicht nur am RAM sondern auch an der Gesamtarchitektur aber von hohen CLs auf schlechte Zugriffszeiten oder gar schlechte Performance zu schließen ist falsch.



Die reine theoretische RAM latenz hat sich ja über zug jahre kaum verändert, die liegt seit Ewigkeiten bei rund 10ns. Die Kunst ist nur trotzdem immer mehr Daten pro Sekunde rauszulutschen ohne mit den tatsächlichen Zugriffszeiten zu sehr hochzugehen.
 
Und im Vergleich zu DDR5 mit CL40 reale Zugriffszeiten aus der Hölle. ;-)

Ein P4 mit DDR2 800 CL4 liegt bei zufälligen Zugriffen bei groben 200ns. Schnellerer DDR5 dürfte irgendwo zwischen 50 und 80 landen schätze ich. Das liegt zwar nicht nur am RAM sondern auch an der Gesamtarchitektur aber von hohen CLs auf schlechte Zugriffszeiten oder gar schlechte Performance zu schließen ist falsch.



Die reine theoretische RAM latenz hat sich ja über zug jahre kaum verändert, die liegt seit Ewigkeiten bei rund 10ns. Die Kunst ist nur trotzdem immer mehr Daten pro Sekunde rauszulutschen ohne mit den tatsächlichen Zugriffszeiten zu sehr hochzugehen.
Schade das sich hier nichts tut... RAM mit Cache wäre ja mal geil. Z.B. auf jedem RAM Modul, einen Baustein drauf, der 2ns Zugriff hat. Das OS könnte dann vorrangig Programmcode auf dem schnellen Ram laufen lassen und Daten auf dem langsamen Ram..
 
Schade das sich hier nichts tut... RAM mit Cache wäre ja mal geil. Z.B. auf jedem RAM Modul, einen Baustein drauf, der 2ns Zugriff hat. Das OS könnte dann vorrangig Programmcode auf dem schnellen Ram laufen lassen und Daten auf dem langsamen Ram..
Das Prinzip nennt sich "L3/L4-Cache" und ist schon lange in den cpus selbst integriert. Es bringt nichts das auf dem RAM zu haben da die Verbindung dahin zu langsam für derart schnelle Zugriffe ist. Deswegen versucht man seit Jahrzehnten, die RAM Anbindung breiter zu machen (multichannel, höhere prefetches der module usw) und schnelle Zugriffe duch cpu caches abzufangen (AMD will da mit 3D stacked Cache demnächst ja hart einen draufsetzen).
 
Das Prinzip nennt sich "L3/L4-Cache" und ist schon lange in den cpus selbst integriert. Es bringt nichts das auf dem RAM zu haben da die Verbindung dahin zu langsam für derart schnelle Zugriffe ist. Deswegen versucht man seit Jahrzehnten, die RAM Anbindung breiter zu machen (multichannel, höhere prefetches der module usw) und schnelle Zugriffe duch cpu caches abzufangen (AMD will da mit 3D stacked Cache demnächst ja hart einen draufsetzen).
Nun, Cache in der CPU ist aber auch sehr teuer.
Was ich meine, wieso baut man nicht Ramriegel mit z.b. 16GB Ram 3200-CL14 und davon sind aber 4GB (je nach Chipgröße) einfach 6000-CL16.
Dann hätte man schnelles RAM ohne die Kosten. Also Ram-Riegel mit unterteilten Rambereichen mit schnellem und langsamen Ram. Bringen würde das was z.B. bei APUs. Der GPU Teil könnte das schnelle RAM nutzen. Der Programmcode das langsame Ram.
 
Wie kommst du auf ohne Kosten?

Der Speichercontroller der CPU müßte mal diesen hohen Takt mit machen.
Dann müßte der DIMM-Riegel das auch mit machen.

Natürlich würde das die Kosten erhöhen!
 
(...) aber von hohen CLs auf schlechte Zugriffszeiten oder gar schlechte Performance zu schließen ist falsch.r

Quatsch, du hast doch nur Angst, dass mein P3-500, mit seinem PC100 CL2 SDRAM deine überteuerte Kiste fertig macht, gibs zu :ugly:

Nun, Cache in der CPU ist aber auch sehr teuer.
Was ich meine, wieso baut man nicht Ramriegel mit z.b. 16GB Ram 3200-CL14 und davon sind aber 4GB (je nach Chipgröße) einfach 6000-CL16.
Dann hätte man schnelles RAM ohne die Kosten. Also Ram-Riegel mit unterteilten Rambereichen mit schnellem und langsamen Ram. Bringen würde das was z.B. bei APUs. Der GPU Teil könnte das schnelle RAM nutzen. Der Programmcode das langsame Ram.

Weil man dann asymmetrischen RAM hätte, sprich ein schneller Bereich und ein langsamer Bereich. Damit man den vernünftig nutzen könnte, müßte das OS diese Bereiche getrennt sehen und dann vernünftig nutzen können. Das ist einiges an Aufwand.

Es wäre deutlich sinnvoller gleich Nägel mit Köpfen zu machen und neben dem billigen DRAM auch noch getrennt 1-4GB SRAM einzubauen (die kosten aber einiges), das würde Tempo bringen. Wenn man schon dabei ist, kann man auch noch gleich einen Weiteren Bereich mit nochmal billigerem Optane oder Flash Speicher (ca. 128GB bis 2TB) einrichten, der wiederum als zusätzlicher RAM fungiert.
 
Zuletzt bearbeitet:
Der Speichercontroller der CPU müßte mal diesen hohen Takt mit machen.
Dann müßte der DIMM-Riegel das auch mit machen.
Das würde beides zumindest technisch machbar sein - aber derartige Taktraten über die riesige Entfernung zwischen CPU und DIMM hinzukriegen ist physikalisch nicht wirklich drin. Das machste über ein paar Millimeter im Inneren einer CPU aber nicht über 20cm PCB (wenn das ginge müsste man bei PCIe das viel geringere Frequenzen nutzt nicht schon solche Kunstgriffe machen^^).
 
Quatsch, du hast doch nur Angst, dass mein P3-500, mit seinem PC100 CL2 SDRAM deine überteuerte Kiste fertig macht, gibs zu :ugly:



Weil man dann asymmetrischen RAM hätte, sprich ein schneller Bereich und ein langsamer Bereich. Damit man den vernünftig nutzen könnte, müßte das OS diese Bereiche getrennt sehen und dann vernünftig nutzen können. Das ist einiges an Aufwand.

Es wäre deutlich sinnvoller gleich Nägel mit Köpfen zu machen und neben dem billigen DRAM auch noch getrennt 1-4GB SRAM einzubauen (die kosten aber einiges), das würde Tempo bringen. Wenn man schon dabei ist, kann man auch noch gleich einen Weiteren Bereich mit nochmal billigerem Optane oder Flash Speicher (ca. 128GB bis 2TB) einrichten, der wiederum als zusätzlicher RAM fungiert.
Das PC Design ist in den letzten Jahren einfach stehen geblieben.
Jedes Mainboard hat 4 Ram Slots. Da könnte man so was locker mit realisieren. 2x16GB normales DDR4/5 Ram. Und 2x2GB SRAM. Und das OS weiß schon wofür es welches RAm nutzen sollte.
Ist auch nicht komplizierter umzusetzen, wie die neuen CPUs, mit ihren langsamen und schnellen Kernen. Da muß das OS auch entscheiden, will der User das Programm nun auf der schnellen CPU oder auf der langsamen laufen lassen?
 
Zurück