Und trotzdem ist DDR2 bei gleichem effektiven Takt schneller als DDR1 und DDR3 bei gleichem effektiven Takt schneller als DDR2 und DDR4 bei gleichem effektiven Takt schneller als DDR3 und oh Wunder, DDR5 bei gleichem effektiven Takt schneller als DDR4.
1: Nope, DDR2 533 ist etwa so schnell, wie DDR1 400, erst DDR2 667 ist schneller
2: nope, hier braucht man DDR3 1333 um DDR2 1066 zu kontern
3: ebenfalls nope, da war mindestens ein DDR4 2400 Riegel fällig, um DDR3 2133 zu kontern, eher etwas mehr
4: bei DDR5 soll es angeblich nicht mehr so sein, ich lasse mich gerne Überraschen
Es steht übrigens auch so in dem Wiki:
Wikipedia schrieb:
Da ein mit 533 MHz resp. 667 MHz spezifiziertes DDR2-Modul mit einem realen Takt von 133 MHz resp. 166 MHz arbeitet, kann es mit einem DDR-400-Modul nicht in jedem Bereich konkurrieren. Hinzu kommt, dass DDR2-Speicher nahezu ausschließlich mit Command-Rate 2T betrieben wird, bei DDR-400 ist oft auch 1T möglich. Das bedeutet zusätzlich einen starken Leistungsnachteil. Die theoretische maximale Datenrate des DDR2-Moduls ist zwar höher, dennoch fehlen 66 MHz resp. 33 MHz Takt, was die Latenz beim Zugriff auf das RAM erhöht, womit der Vorteil der höheren Datenrate zu einem großen Teil verfällt.
Ein hoher realer Takt ist numal ein Vorteil an sich.
Weil in den ganzen Diskussionen immer nur über die drei Hauptzahlen da geredet wird und alles, was "unter der Haube" passiert an Detailverbesserungen völlig unbekannt ist.
Nein, es ist nicht unbekannt oder irgend eine Form von Magie. Alles ist problemlos einsehbar und nachzuvollziehen (wäre bei einem öffentlichem Standard auch schwierig).
Ja, rechnerisch rein auf Takt und Latenz bezogen hat DDR5-6400 die gleiche Bandbreite wie DDR4-3200. Und trotzdem ist die DDR5-Variante effektiv sehr viel schneller (in einem zufälligen Mix aus Zugriffen iirc etwa 25% - ich finde die Quelle grade nicht aber da gabs nen Artikel zu).
Daran besteht kein Zweifel, der Zweifel besteht eher daran, ob DDR5 3200 schneller als DDR4 3200 ist. Bei den vergangenen Standards war es jedenfalls nicht so.
Man soll es nicht glauben aber die Scharen von Ingenieuren, die sich sowas ausdenken und DDR weiterentwickeln haben tatsächlich mehr Ahnung davon als die Mythosverbreiter im Netz von der YouTube-Universität die Takt durch Latenz rechnen.
Ein hoher Realtakt ist nunmal ein großer Vorteil, der kompensiert werden muß, z.B. durch mehr Cache auf der CPU Seite oder eben einer höheren Bandbreite auf der RAM Seite, geringere Latenzen sind auch noch ein probates Mittel.
Bei bestimmten Dingen können die Ingenieure denken soviel sie wollen, das Perpetuum Mobile wurde auch nicht erfunden, an mangelnder Kreativität lag das sicher nicht.
Es ist kein Mythos, er stimmt, belegt übrigens von deiner eigenen Quelle.