PCI-Express 6.0: Die Spezifikationen stehen fest - Finaler Entwurf fertig

PCI-SIG hat es verstanden, Standards müssen früh gesetzt werden damit sich die Hersteller darauf vorbereiten können. Das ist doch für uns alle gut, dann muss man nicht mehr 7 Jahre warten bis es endlich einen schnelleren Standard gibt wie bei PCIE 3.0 auf 4.0 geschehen.
Absolut, es ist sehr gut, dass sie vor allen Dingen durch die schnelleren Zyklen auch die alte Scharte von 3.0 → 4.0 wieder etwas haben auswetzen können.
Und die Technik für PCIe 6.0 stand vor 3 Jahren für PCIe 5.0 noch NICHT zur Verfügung ?!?
Da steckt einfach ganz viel Lernen aus der Praxis mit drinnen. Das ist keine Situation, wie man sie gerne bei Haushaltsgeräten oder öffentlicher Infrastruktur sehen kann, bei der wirklich Jahrzehnte an Fortschritt auch schon direkt möglich gewesen wären.
 
6?So ein nonsense. gerade mal kommt 4.0 in den Handel und selbst dass wird Jahre lang noch Marktanteile erstmal gewinnen müssen... 3.0 ist ja gerade erst im consumer Bereich etabliert.... Ich will nicht wissen wieviel noch auf PCIe 2.0 unterwegs sind.
 
Naja die PCI-E Spezifikation ist dann doch ausreichend weit gefasst, sodass deine Wünsche zumindest bei einem mechanisch gleichen Slot möglich wären.
Auch USB war ja ursprünglich anders, als es jetzt ist (mit mehreren Protokollen etc)

Du kannst es drehen und wenden wie du willst: ein neuer Standard hätte seine Vorteile, da man auf das alte nicht mehr Rücksicht nehmen muß und völlig neue Wege gehen kann.

6?So ein nonsense. gerade mal kommt 4.0 in den Handel und selbst dass wird Jahre lang noch Marktanteile erstmal gewinnen müssen... 3.0 ist ja gerade erst im consumer Bereich etabliert.... Ich will nicht wissen wieviel noch auf PCIe 2.0 unterwegs sind.

Wäre es dir lieber, wenn alles durch den alten Standard massiv ausgebremst wird und man lange auf einem neuen warten muß. So wie bei SATA 3, HDMI und Displayport. Freu dich doch lieber, dass es heute schon eine Lösung für die Probleme des Jahres 2030 gibt.

Im übrigen sind die Bedürfnisse von Zockern eine Nischenerscheinung, um die sich da nicht gekümmert wird.

Unnötig und absurd so wie meine ex

Vorstellungen seiner selbst gehören in das allgemeine Forum :ugly:
 
Kann mir jemand erklären warum ich bei ner High End CPU wie nem 10900K die gerade so ein Jahr alt ist kein PCI-E 4.0 nutzen kann, aber schon von PCI-E 6.0 gesprochen wird? Es gibt momentan genau 2 CPU Generationen die das können, die neusten Intel und die absolut allerneusten Ryzen. Und gerade noch so seit Januar. Sprich es sind keine 10 Monate vergangen und es muss ein neuer Standard her, dann gibts PCI-E 6 SSDs usw.

Sprich für den Consumer : M2 SSD aufrüsten da die meisten 3.0 sind, Mobo aufrüsten, CPU aufrüsten.

Geld Geld geld aber kaum fortschritt.
 
Kann mir jemand erklären warum ich bei ner High End CPU wie nem 10900K die gerade so ein Jahr alt ist kein PCI-E 4.0 nutzen kann, aber schon von PCI-E 6.0 gesprochen wird?

Weil man bei bestimmten Dingen lange im Voraus plant. Bis das ganze endgültig fertig ist, also im Sinne von einer Einführung mit realen Produkten, die auch gekauft werden können, wird es wohl noch längere Zeit dauern. Ich vermute mal, dass wir in 2 Jahren mit ersten Servern rechnen können.

Es gibt momentan genau 2 CPU Generationen die das können, die neusten Intel und die absolut allerneusten Ryzen. Und gerade noch so seit Januar. Sprich es sind keine 10 Monate vergangen und es muss ein neuer Standard her, dann gibts PCI-E 6 SSDs usw.

Sprich für den Consumer : M2 SSD aufrüsten da die meisten 3.0 sind, Mobo aufrüsten, CPU aufrüsten.

Geld Geld geld aber kaum fortschritt.

Du machst den Fehler und gehst vom Normalo aus, der interessiert aber da nicht. Für alle, die mit Servern zu tun haben, ist das hingegen extrem genial. Entweder braucht man nur noch die Hälfte der Lanes und damit keine Monster wie (Multisockel) EPYC Systeme mehr oder man hat mit der selben Zahl der Lanes die doppelte Leistung. Beides ist eine Wucht und erleichtert das Leben enorm.

Für Zocker wird sich wenig ändern. Die neuesten SSDs werden dann noch schnell, was sie etwas besser macht und man kann, wenn man das entsprechende Board hat, mehrere PCIe x16 Karten in einem Consumermainboard betreiben, ohne dass die Leistung leidet.
 
Ich sag es dir: es ist Teil einer ganz großen Verschwörung. Intel, AMD, TSMC, Samsung usw. sowie sämtliche Regierungen sitzen in einem Boot und verkaufen uns alle für Dumm. Warum etwas gleich auf den Markt bringen, wenn man es 70 Jahre lang in Scheibchen servieren kann und die Leute alle 3 Jahre aufrüsten müssen? Die haben schon spätestens seit den 80ern die CPUs, die wir erst in 20 Jahren kaufen können - ganz bestimmt.
Ganz genau darauf wollte ich anspielen. :-D

Und wenn eine Fußball Mannschaft 2:0 gewonnen hat und das nächste Spiel 4:0 gewinnen will,
brauchen sie ja lediglich nur doppelt so schnell/weit laufen oder eben 180 Minuten lang kicken !

Bzgl. ein jeder Vergleich hinkt und so ... :schief:

MfG Föhn.
 
Würde mich mal interessieren, wie viel es kostet, ein Mainboard für PCIe 4/5/6 fit zu machen. Mehr Bandbreite kostet wahrscheinlich auch mehr Gold.
Gab mal nen ganz interessanten PCGH Artikel dadrüber, PCI-E 4.0 ist noch relativ einfach umsetzbar, mit 5 und 6 wird es aber teils extrem aufwendig und auch sehr teuer, Boardpreise dürften nen gutes Stück anziehen für die Technik.

Da bleibe ich lieber eine lange Zeit auf 4.0 was ich noch nichtmal besitze, einen Unterschied macht es für uns Otto Normalos eh nicht.
 
Toller Bericht! Jetzt juckt es mich ganz derbe in den Fingerchen, meinen ollen PCIe 3.0 Krempel endlich auf den Müllhaufen zu werfen... :lol:
 
Kann mir jemand erklären warum ich bei ner High End CPU wie nem 10900K die gerade so ein Jahr alt ist kein PCI-E 4.0 nutzen kann, aber schon von PCI-E 6.0 gesprochen wird? Es gibt momentan genau 2 CPU Generationen die das können, die neusten Intel und die absolut allerneusten Ryzen. Und gerade noch so seit Januar. Sprich es sind keine 10 Monate vergangen und es muss ein neuer Standard her, dann gibts PCI-E 6 SSDs usw.

Sprich für den Consumer : M2 SSD aufrüsten da die meisten 3.0 sind, Mobo aufrüsten, CPU aufrüsten.

Geld Geld geld aber kaum fortschritt.
Comet Lake musste aufgrund sehr konkreter Gerüchte (aber keiner offiziennel Bestätigung seitens Intel) wegen Signalqualitätsproblemen auf PCIe 4.0 verzichten; offensichtlich war es schon für diese CPU-Gen vorgesehen.
Das ist auch der Grund, warum es so viele "PCIe4-ready"-Boards für Comet Lake gab. Intel entschied sich relativ spät für eine Aussetzung des Features und etliche Boardhersteller wollten mit ihren fertigen Designs nicht zurück ans Reißbrett, was weitere Entwicklungskosten (Anpassungen von Lieferketten und teilweise auch zeitliche Verzögerungen) verursacht hätte und blieben stattdessen bei ihren 4.0er-Designs und klebten stattdessen einen Sticker drauf, da sie ja wussten, dass der Nachfolger 4.0 haben würde.
Und nein, es gibt derzeit 4 Consumer-Generationen, die PCIe 4.0 beherrschen, Zen2 und Zen3 und bei Intel Tiger Lake und Rocket Lake, und ebenso nein, Tiger Lake schon seit 3Q20, Zen2 gar seit 3Q19.

Darüber hinaus verkennen hier viele aber auch den Grund für die derzeitig vergleichsweise "schnelle" PCIe-Entwicklung, denn diese wird vorrangig durch die Industrie für das Datacenter und Server/HPC-Lösungen vorangetrieben. Hier geht es um noch mehr Bandbreite (und Flexibilität und neue Features) für die Anbindung von bspw. Beschleunigern, also das Heterogeneous Computing. Dass bspw. Intels PCIe 5.0 in Verbindung mit CXL 1.1 nur ein vergleichsweise "kurzes" Gastspiel bieten wird, ist schon seit längerer Zeit bekannt, denn diese CXL-Revision stellt nur den ersten Wurf dar.

Das Consumer-Segment ist dagegen vollkommen anders zu bewerten. Intel musste seine PCIe5-IP so oder so entwicklen und daher konnten sie diese leicht mitverwerten um hier eine eigene Duftmarke zu setzen. Das ist in etwa vergleichbar mit AMDs V-Cache-Entwicklung, die primär für den Epyc entwickelt wurde, jedoch aufgrund des mitverwendeten Chiplets ebenso für den Ryzen mitverwertet werden konnte (quasi ein Plan B), was nun anscheinend notwendig geworden ist, da Alder Lake offensichtlich ausreichend leistungsfähig wurde um AMDs aktuelles Lineup in Bedrängnis zu bringen. Für den Consumer-Markt wird PCIe 6.0 dagegen noch lange, lange Zeit keine Rolle spielen und man darf überhaupt gespannt sein, wann eine breitere Adaption von PCIe 5.0 stattfinden wird, so bspw. ob nVidia Ende 2022 5.0 adaptieren wird und ob Intel spätestens mit Battlemage (Xe-HPG 2nd Gen) dann auch selbst 5.0-GPUs anbieten wird (bei Alchemist lohnt das aufgrund des Leistungsniveaus noch nicht wirklich, kann aber selbst hier vorerst noch nicht gesichert ausgeschlossen werden, da es schon etwas seltsam anmuten wird, wenn nicht einmal Intel's eigene (vorläufige) Top-GPU das selbsteingeführte PCIe 5.0 unterstützen wird).
*) Zudem, fürs Storage braucht der Consumer-Markt in seiner gesamten Breite zweifellos kein PCIe 5.0, selbst nicht auf mittlere Sicht.
 
Zuletzt bearbeitet:
Gab mal nen ganz interessanten PCGH Artikel dadrüber, PCI-E 4.0 ist noch relativ einfach umsetzbar, mit 5 und 6 wird es aber teils extrem aufwendig und auch sehr teuer, Boardpreise dürften nen gutes Stück anziehen für die Technik.
Ich gehe im Moment davon aus dass wir schon bei PCIe 5.0 Mainboards sehen werden welche sich auf 4.0 beschränken obwohl deren Chipsatz+CPU eine Freigabe für den Nachfolger haben.
 
Klar kann man das, es nennt sich Auslagerungsdatei, sonst bräuchte ich über 128GB RAM. In Zukunft werden wohl noch bessere Techniken verwendet und zusammen mit schnellerem Flash dürfte da in Zukunft wesentlich mehr möglich sein.
Auslagerungsdatei? Dein Ernst? Auslagern kannst du auch auf ne alte, lahme HDD. Bringt dir in der Praxis aber nichts.

Mit DDR5 wird es einen deutlichen Kapazitätssprung pro DIMM geben, 128 GB RAM und mehr sind machbarer denn je. Und schneller wird NAND nur noch bei den sequentiellen Raten, die wichtigen zufälligen Raten bewegen sich so gut wie gar nicht mehr. Bei den Latenzen bewegt sich ebenfalls nichts mehr.

Der einzige Ausweg wäre Optane. Nur wie schon erwähnt wollte der Markt Optane nicht.
 
Auslagerungsdatei? Dein Ernst? Auslagern kannst du auch auf ne alte, lahme HDD. Bringt dir in der Praxis aber nichts.

Ich mußte gerade wirklich lachen, du hast ja überhaupt keine Ahnung. Gut, mit deinem System wirst du natürlich von sowas verschont, ich hingegen habe Erfahrungen aus erster Hand.

Wenn man auf eine HDD auslagert, dann merkt man ab 75%, wie das OS Teile des RAMs auf die HDD auslagert. Es kommt zu Rucklern und Verzögerungen. An 95% wird das ganze zunehmend unbenutzbar. Mehr als ein paar GB kann man praktisch nicht auslagern. Irgendwann stürzen dann Programme zufällig ab. Ab 98% kann man eigentlich nur noch Dinge schließen, um RAM freizuschaufeln.

Mit einer SSD merkt man erstmal garnichts und auch bei 95% bleibt das System gut benutzbar. Erst wenn man es ins extreme treibt, bei mit war das eine Auslagerungsdatei von 160GB, wird es kritisch. Da merke ich dann schon, dass meine SATA SSD nur eine recht begrenzte Leistung hat. Allerdings ist das System zu jeder Zeit benutzbar.

Mit einer HDD bräuchte ich wohl 256GB RAM, um ähnliche Ergebnisse zu bekommen, das würde mich 1000€ kosten. Da wäre es dann allerdings auch extrem klug die HDD durch eine SSD zu ersetzen und die Leistung weiter zu steigern.

Probiere es dochmal selbst mit einer HDD aus.

Mit DDR5 wird es einen deutlichen Kapazitätssprung pro DIMM geben, 128 GB RAM und mehr sind machbarer denn je.

Ja und da ist es auch sinnvoll, das ganze mit einer SSD zu unterstützen. Durch die höhere Kapazität sollte die Leistung der SSD mindestens Schritt halten. Von daher wäre eine gute PCIe 4.0 SSD oder besser, angebracht.

Und schneller wird NAND nur noch bei den sequentiellen Raten, die wichtigen zufälligen Raten bewegen sich so gut wie gar nicht mehr.

Die bewegen sich auch nach oben. Wobei da der Umstieg auf TLC und bald QLC Probleme bereitet.

Bei den Latenzen bewegt sich ebenfalls nichts mehr.

Das ist natürlich Prinzipbedingt.
 
Zuletzt bearbeitet:
Mit DDR5 wird es einen deutlichen Kapazitätssprung pro DIMM geben, 128 GB RAM und mehr sind machbarer denn je.
Technisch sind 128 GiB-UDIMMs mit DDR5 möglich, werden aber noch lange Zeit irelevant sein für den Consumer-Markt, weil der Bedarf einfach denkbar gering ist und SemiPro-Anwender schlecht beraten wären bei 512 GiB oder gar 1024 GiB RAM auf ECC zu verzichten.
Samsung kündigte bereits in 2019 die Verfügbarkeit von 64 GiB-Modulen an und es hat bis Mitte 2021 gedauert, bis erste Module tatsächlich halbwegs verfügbar waren und die erhöhte Dichte bezahlt man mit einem beträchtlichen Aufpreis, so bspw. bei DDR4-3200 CL22 i. V. z. vier 16 GiB-DIMMs je nach konkreten Vergleichsobjekten mit +37 % bis +61 %. Bei dem in der nächsten Zeit grundsätzlich deutlich teueren DDR5 wird das also noch einmal deutlich mehr ins Geld gehen, wenn man extrem hochkapazitive UDIMMs verbauen will.
Darüber hinaus werden die CPU-Hersteller hier dem Treiben aber auch einen Riegel vorschieben, denn es ist unwahrscheinlich, dass man Consumer-CPUs bzgl. der Kapazitätsfreigaben nennenswert erweitern wird, was einfach eine Frage der Marktsegmentierung ist. Hier wird man bei deutlich erhöhtem Bearf mindestens auf eine HEDT-Plattform ausweichen müssen.

Und schneller wird NAND nur noch bei den sequentiellen Raten, die wichtigen zufälligen Raten bewegen sich so gut wie gar nicht mehr. Bei den Latenzen bewegt sich ebenfalls nichts mehr.
Die Aussage ist unzutreffend, denn auch NAND entwickelt sich weiter. Beispielsweise auf dem Flash Memory Summit im November 2020 stellte NEO Semiconductor X-NAND vor, eine neuere Variante, die beträchtliche Vorteile ggü. herkömmlichem, mehrzelligem NAND bieten soll. Die neue Fertigungsart soll sich insbesondere in Verbindung mit der Vierzellentechnik lohnen. Gegenüber herkömmlichem QLC behauptet NEO Semiconductor, dass ihr X-NAND 3x schneller im Random Read and Write operieren kann und im sequentiellen Lesen/Schreiben gar Faktor 27x und 14x erreicht. Ein QLC mit seinem SLC-Cache fällt nach dem Füllen des Cache auf etwa 12 % der Schreibperformance des X-NAND ab, während letzteres bei der vollen Geschwindigkeit des SLC-Cache verbleibt. Für eine schnelle Adaption hat der Entwickler dafür Sorge getragen, dass für die Herstellung konventionelle NAND-Prozesse genutzt werden können, sodass keine übermäigen Aufwendungen und Kosten entstehen. Man darf gespannt sein ob und wann sie erste Lizenznehmer finden.
 
Zuletzt bearbeitet:
Samsung kündigte bereits in 2019 die Verfügbarkeit von 64 GiB-Modulen an und es hat bis Mitte 2021 gedauert, bis erste Module tatsächlich halbwegs verfügbar waren und die erhöhte Dichte bezahlt man mit einem beträchtlichen Aufpreis, so bspw. bei DDR4-3200 CL22 i. V. z. vier 16 GiB-DIMMs je nach konkreten Vergleichsobjekten mit +37 % bis +61 %. Bei dem in der nächsten Zeit grundsätzlich deutlich teueren DDR5 wird das also noch einmal deutlich mehr ins Geld gehen, wenn man extrem hochkapazitive UDIMMs verbauen will.
Überhaupt nicht vergleichbar, du redest von Buffered DIMMs mit ECC. Die DDR4 Specs sehen bei UDIMMs maximal 32 GB vor, welche es auch schon lange zu kaufen gibt. DDR5 geht bis zu 128 GB und die werden nicht lange auf sich warten lassen, sobald Intel und AMD gewechselt sind. Mit breiter Verfügbarkeit sinken dann auch schnell die Preise bei den großen Kits, 2x 32 GB DDR4 kosten selbst mit viel Takt nicht übermäßig viel.

Darüber hinaus werden die CPU-Hersteller hier dem Treiben aber auch einen Riegel vorschieben, denn es ist unwahrscheinlich, dass man Consumer-CPUs bzgl. der Kapazitätsfreigaben nennenswert erweitern wird, was einfach eine Frage der Marktsegmentierung ist. Hier wird man bei deutlich erhöhtem Bearf mindestens auf eine HEDT-Plattform ausweichen müssen.
Lebst du unter einem Stein? AMD und Intel unterstützen schon heute bis zu 128 GB DDR4 bei ihren Mainstreamplattformen. HEDT ist bei 256-512 GB. Bei kommenden Plattformen wird sich das weiter verschieben, im Mainstream rechne ich fest mit 256 GB, HEDT sehe ich bei durchgehend 512 GB oder 1 TB.

Die Aussage ist unzutreffend, denn auch NAND entwickelt sich weiter. Beispielsweise auf dem Flash Memory Summit im November 2020 stellte NEO Semiconductor X-NAND vor, eine neuere Variante, die beträchtliche Vorteile ggü. herkömmlichem, mehrzelligem NAND bieten soll. Die neue Fertigungsart soll sich insbesondere in Verbindung mit der Vierzellentechnik lohnen. Gegenüber herkömmlichem QLC behauptet NEO Semiconductor, dass ihr X-NAND 3x schneller im Random Read and Write operieren kann und im sequentiellen Lesen/Schreiben gar Faktor 27x und 14x erreicht. Ein QLC mit seinem SLC-Cache fällt nach dem Füllen des Cache auf etwa 12 % der Schreibperformance des X-NAND ab, während letzteres bei der vollen Geschwindigkeit des SLC-Cache verbleibt. Für eine schnelle Adaption hat der Entwickler dafür Sorge getragen, dass für die Herstellung konventionelle NAND-Prozesse genutzt werden können, sodass keine übermäigen Aufwendungen und Kosten entstehen. Man darf gespannt sein ob und wann sie erste Lizenznehmer finden.
Samsung hat auch schon lange Z-NAND im Portfolio. Relevanz? Marktdurchdringung? Null. Oder der XL-Flash von Kioxia/WD, bis auf ein paar Folien ist es seit dem Reveal darum sehr ruhig geworden.

Dein X-NAND ist auch kein Heilsbringer, NAND bleibt NAND und an den Latenzen ändert sich nichts. Zudem ist X-NAND nichts als ein Papiertiger, es wird prognostiziert und versprochen, dabei gibt es nicht mal Prototypen. Was zählt sind praktische Belege statt leere Versprechen. Stand August 2021 gibt es keinen Fortschritt bei X-NAND:

Wie jetzt bekannt wurde, hat NEO Semiconductor die beiden US-Patente 11056190 und 11049579 zum sogenannten X-NAND erteilt bekommen.

Nach wie vor ist aber nicht bekannt, ob einer der NAND-Flash-Hersteller die Technik lizenzieren und auf den Markt bringen wird.

https://www.computerbase.de/2020-11/x-nand-qlc-kapazitaet-slc-leistung/

Ihr könnt es drehen und wenden wie ihr wollt, aber die SSD auf NAND Basis ist zu Ende entwickelt. Um DRAM kompensieren zu können braucht es auch einen ebenbürtigen Ersatz, Ersatz wie Optane oder XL-Flash. NAND kann in keiner Disziplin auch nur annähernd mit DDR4 und erst recht nicht DDR5 mithalten.
 
Überhaupt nicht vergleichbar, du redest von Buffered DIMMs mit ECC. Die DDR4 Specs sehen bei UDIMMs maximal 32 GB vor, welche es auch schon lange zu kaufen gibt. DDR5 geht bis zu 128 GB und die werden nicht lange auf sich warten lassen, sobald Intel und AMD gewechselt sind. Mit breiter Verfügbarkeit sinken dann auch schnell die Preise bei den großen Kits, 2x 32 GB DDR4 kosten selbst mit viel Takt nicht übermäßig viel.
Nein, ich redete explizit von UDIMMs, kein "R", kein "FB" und auch kein "LR". Das sollte doch nun wirklich nicht so schwer zu verstehen sein.
Wie schon erklärt teaserte hier Samsung schon in 2019 etwas. *) Die Thematik kam damals in Verbindung mit dem Threadripper auf, der zumeist mit UDIMM-Mainboards daherkam und daher damals typischerweise nicht über 256 GiB hinaus kam. Die von Samsung geteaserten Module schafften es aber bestenfalls zu einer Hand voll Reviewern und sind anscheinend niemals so richtig im Markt angekommen.

Einzig bei MF haben ich mich tatsächlich vergriffen, da die hier nicht zwischen Comsumer- und Server-DIMMs differenzieren und im Shop alles in einen Topf werfen und 64 GiB-UDIMM-Module gibt es hier weiterhin nicht, da offensichtlich kein Bedarf besteht, was aber auch nicht verwundert, da die Consumer-Plattformen bzgl. der Speicherunterstützung beschränkt sind und man große Workstations eher mit ECC betreibt.

*) Und nein, immer noch UDIMMs. Dagegen 64-GiB-RDIMMs sind für Samsung schon ein "alter Hut"; deren Massenfertigung startete bei denen schon Mitte 2018 unter Verwendung von 16 Gbit-Chips.

Lebst du unter einem Stein? AMD und Intel unterstützen schon heute bis zu 128 GB DDR4 bei ihren Mainstreamplattformen. HEDT ist bei 256-512 GB. Bei kommenden Plattformen wird sich das weiter verschieben, im Mainstream rechne ich fest mit 256 GB, HEDT sehe ich bei durchgehend 512 GB oder 1 TB.
Unter einem Stein wohl kaum, aber du anscheinend auf dem Mond. Was willst du mit einem DDR5-128GiB-DIMM auf einer beschränkten Consumer-Plattform? Zudem haben beide Hersteller keine Anreize ihre Plattformen hier übermäßig zu öffnen. Selbst den nächsten Schritt auf 256 GiB RAM-Unterstützung darf man gespannt abwarten, denn warum sollte sich hier wer ohne Grund in Teilen die HEDT-Plattformen obsolet machen? *)
Und selbst PC-Gamer sind noch meilenweit vom aktuellen(!) Maximum entfernt; der typische Ausbau liegt hier bei 16 GiB, bestenfalls bei 32 GiB RAM. Noch mehr RAM hat nur eine sehr kleine Nische (und vermutlich in Verbindung mit ganz anderen, zusätzlichen Workloads). Für einen extrem kleinen Markt spezifische Module zu erstellen ist anscheinend wenig lukrativ für die Industrie. DDR5 wird daran wenig ändern, weil die Workloads auf den Consumer-Plattformen sich nicht so schnell ändern werden, d. h. es wird kein Markt entstehen, der so schnell 128-GiB-UDIMMs erforderlich machen wird.
Hochkapazitive DIMMs sind vorrangig was für Server und einige Workstations. Samsung stellte 256 GiB-RDIMMs schon in 2019 vor. Technisch möglich wären bis zu 512 GiB mit DDR4, nur stellt die meines Wissens nach bisher noch keiner her (und wahrscheinlich wird das auch keiner mehr mit Blick auf das nun kommende DDR5). Und bei UDIMMs sind laut Wikipedia und Kingston bis zu 64 GiB das Limit, auch wenig verwunderlich, da Samsung die ja schon mal in 2019 teaserte (aber anscheinend von einer Massenfertigung Abstand nahm, vermutlich da der Markt schlicht zu klein ist).

*) Und selbst wenn diese 2022 tatsächlich kommen sollte, wären 64 GiB-Module schon vollkommen ausreichend. Und bereits in 2023 würde es zweifellos keine erneute Erweiterung auf 512 GiB-RAM-Support für die Consumer-Plattform geben, du Traumtänzer.
Der Standard greift hier nur so hoch, um über den gesamten Lebenszyklus von DDR5 für alle Eventualitäten gewappnet zu sein. Das heißt nicht, dass es in nächster Zeit attraktiv und/oder wirtschaftlich für die Hersteller sein wird, diesen Standard auch in jeder nur erdenklichen Dimension umzusetzen. Für die Hersteller weitaus lukrativer wird wohl vorerst bei UDIMMs absehbar der OC-Markt sein, d. h. noch schnellere Bausteine, die mit noch knapperen Timings arbeiten können.

Darüber hinaus, rein für Gamer sind derartige Speichermengen per se völlig uninteressant, da es auch in den nächsten Jahren keinen Markt geben wird, der einen derart hohen RAM-Ausbau erforderlich machen wird. PC-only-Titel könn(t)en hier zwar über das durch die Konsolen definierte Limit hinausgehen, jedoch werden auch die es nur im Rahmen der üblichen Marktverbreitung erweitern, denn kein Entwickler/Publisher wird eine kostenintensive Entwicklung auf den Weg bringen, die am Ende nur von einem winzigen Prozentteil des Marktes auch genutzt werden könnte.

Samsung hat auch schon lange Z-NAND im Portfolio. Relevanz? Marktdurchdringung? Null. Oder der XL-Flash von Kioxia/WD, bis auf ein paar Folien ist es seit dem Reveal darum sehr ruhig geworden.

Dein X-NAND ist auch kein Heilsbringer, NAND bleibt NAND und an den Latenzen ändert sich nichts. Zudem ist X-NAND nichts als ein Papiertiger, es wird prognostiziert und versprochen, dabei gibt es nicht mal Prototypen. Was zählt sind praktische Belege statt leere Versprechen. Stand August 2021 gibt es keinen Fortschritt bei X-NAND:

https://www.computerbase.de/2020-11/x-nand-qlc-kapazitaet-slc-leistung/

Ihr könnt es drehen und wenden wie ihr wollt, aber die SSD auf NAND Basis ist zu Ende entwickelt. Um DRAM kompensieren zu können braucht es auch einen ebenbürtigen Ersatz, Ersatz wie Optane oder XL-Flash. NAND kann in keiner Disziplin auch nur annähernd mit DDR4 und erst recht nicht DDR5 mithalten.
Das ändert nichts daran, dass deine anfängliche Aussage zur angeblich nicht vorhandenen NAND-Weiterentwicklung schlicht falsch war.
Umso interessanter, dass du die dennoch in die Welt gesetzt hast, obwohl du zumindest was von Samsung's Z-NAND-Entwickung wusstest. Samsung brachte damit schon Laufwerke in 2019, die mit Intel's Optane-basierten Laufwerken konkurrierten, diese zwar nicht ganz erreichten, aber dennoch weitaus besser abschnitten als die herkömmlichen NAND-Modelle.
Und Toshiba stellte im grob vergleichbaren Zeitrahmen schon damals sein direktes Gegenstück XL-Flash vor, das ebenfalls gegen Optane und auch Z-NAND positioniert wurde. Weiterentwicklungen gibt es hier durchaus, die Frage ist nur, was wirtschaftlich und attraktiv für die Hersteller im Consumer-Markt ist und sieht man sich die aktuelle Entwicklung an, scheint die Implementation noch teuerer Techniken eher wenig attraktiv für diese zu sein in diesem Marktsegment, denn bereits die Vorteile von schnellen PCIe-4.0-NVMe's nutzen nur die wenigsten Consumer wirklich aus und könnten stattdessen auch mit einer schnellen 3.0er-NVMe arbeiten und die paar gesparten Euro in etwas anderes oder schlicht mehr Kapazität investieren.
Die aktuell moderaten Weiterentwicklungen am Bestands-NAND und an den Controllern ermöglichen schon so schnelle Designs, dass deren Mehrwert nur noch einem sehr kleinen Teil des Marktes für den Mehrpreis zu verkaufen ist und die "Problematik" wird für kommende PCIe-5.0-Designs noch problematischer. Das ist durchaus ein "Teufelskreis"für die Hersteller. Einerseits muss man mit Weiterentwicklungen und Innovationen ums Eck kommen um die Umsatzspirale am Laufen zu halten, andererseits wird es in diesem Markt immer schwieriger den Nutzen der zusätzlichen Geschwindigkeit zu verkaufen.
 
Zuletzt bearbeitet:
Selbst falls recht bald 128GB DDR5-UDIMMs kommen sollten, wären die echt verdammt teuer, das könnte sich nur ein sehr überschaubarer Anteil der Consumer leisten!

16GB DIMMs reichen für den Comsumer noch sehr lange locker aus, da kommt man auch schon auf 64GB RAM, was wohl die wenigsten benötigen.
 
Zurück