Was ich mich jetzt nur noch Frage ist wofür die Command Rate ist ?
Als Laie zitiere ich für eine Erklärung besser eine profunde Quelle:
Memory Performance: 16GB DDR3-1333 to DDR3-2400 on Ivy Bridge IGP with G.Skill (Hervorhebung von mir)
"Command Rate
This funny little number at the end is often quoted as 1T or 2T depending on the memory kit, how many modules are installed, and the motherboard settings. The command rate is the address and command decode latency, essentially the delay between accessing and decoding data - this delay allows the memory time to be accessed without errors. In an ideal world there should be no latency, but in performance tests using a setting of 1T is shown to be quicker than 2T for synthetic benchmarks. Whether a user can feel the difference (in essence it adjusts peak bandwidth as well) is debatable, but the slower the kit as standard, the more of a difference will be felt between the two options. The argument also exists that a setting of 2T will allow the kit to be overclocked higher. By default 2T is usually selected for memory kits that contain more modules - on the off chance that one module of the kit cannot perform at the stated speed using 1T timings, defaulting to 2T will make sure more modules pass the binning process."
Die CR ist seit über einem Jahrzehnt Thema für RAM Performance, seit Dual Channel sich etabliert hat, gibt es zumindest für RAM Kits eine größere Chance 1T stabil zum Laufen zu bekommen.
Für die Praxis solltest du im Forum einiges finden, es gibt CPU/iGPU/APU Benchmarks, die von CR 1T profitieren, eher im einstelligen Prozentbereich, andererseits gibt es Benchmarks (
Beispiel Cinebench), bei denen 1T oder 2T wild verteilt sind, weil andere Faktoren bedeutsamer sind. Weil - einfach gesagt - weniger die Zugriffszeiten auf den RAM die Engstelle darstellen.
In diesselbe Richtung der RAM Stabilität gehen QVL (Qualified Vendor Lists), also Zusammenstellungen der Mainboardhersteller über am Markt verfügbare RAM Module, die für das jeweilige Modell geprüft und/oder empfohlen werden. Studiert man diese Listen stellt man durchgängig fest, dass mit steigender Zahl von Modulen die Timings langsamer werden, es gibt also zunehmend steigende technische Anforderungen, um das Ansprechen der RAM Module bzw. die Kommunikation untereinander zu gewährleisten. Mit der Botschaft, schon bei Kauf und geplanter Vollbestückung auf die Eigenschaften der zuerst gekauften Module besonders zu achten. OC-Profis nehmen etwa für Benchmarks 2 von 4 Modulen heraus, weil dann das Übertakten bzw. schärfere Timings unproblematischer sind. Aber ich schweife ab.
Für dich kann es also für solche RAM lastige Tests oder Anwendungen wichtig werden, (später) auf 1T wieder umzustellen, es bedarf jedoch oft "Anstrengungen", bei hohem Takt sowie weiteren übertakteten Komponenten, in Summe ein stabiles System zu bekommen. Das Zurücksetzen auf 2T schaltet erfahrungsgemäß am einfachsten auf "stabil" zurück. Das mag an den Boards liegen (Spannungsversorgung), am (günstigen) RAM, an der Last durch die Rechenaufgabe, an der Software, die aufgrund der Programmierung mit Fehlermeldung aussteigt usw.
Es kommt also stark darauf an, welche
Art von Berechnungen man auf einen RAM mit 1T oder 2T durchführt, Spiele sind von jeher eines der eher kritischen Anwendungen, alle Arten von Benchmarks ebenso, im Bereich der professionellen Anwendungen gibt es die Anforderung "Double Precision", die also mit höherer Genauigkeit rechnet, Beispiel ist der
FAHBench, der speziell für folding@home herangezogen wird, um die OpenCL Stabilität für dessen Core Applikation vorab zu testen sowie einen Benchmark daraus zu erstellen. Der setzt jedoch eine saubere OpenCL Treiberkonfiguration voraus, Ergebnisse z.B.
hier im englischen Forum.
Thema erschlagen ?