News Asus Hyper M.2: Bis zu 4 NVMe-SSDs per PCIe 5.0 x16 mit 512 Gibit/s anbinden

@PCGH_Torsten weiß nicht wie es den anderen geht: mir ist die Geschwindigkeit relativ egal, mir geht es darum mehr Speicherplatz mit SSDs zu bekommen ...

BTW weiß einer, wenn man eine m2 PCIe 4 in einem x2 statt x4 Slot einbaut, verliert man dann nur die Hälfte an möglicher Maximaler Geschwindigkeit beim Transferieren über Laufwerke hinweg, oder igbt es da noch andere Probleme/Einschränkungen? (mein dritter m2 Slot hat halt nur x2 statt x4 wie der zweite Slot ... der erste Slot ist ein PCIe 5x4 Slot).
 
wenn man eine m2 PCIe 4 in einem x2 statt x4 Slot einbaut, verliert man dann nur die Hälfte an möglicher Maximaler Geschwindigkeit beim Transferieren über Laufwerke hinweg, oder gibt es da noch andere Probleme/Einschränkungen?
Man verliert genau die Hälfte der Bandbreite, was sich in erster Linie auf maximale sequentiellen Geschwindigkeiten auswirkt und im Endeffekt entspricht die Bandbreite einer PCIe3.0x4-Verbindung. Man muss aber folgendes beachten:
1) man muss trotzdem zu einer Gen4-SSD greifen, denn eine Gen3 würde nun mal mit 3.0x2 laufen,
2) der Slot hängt am Chipsatz und teilt die Bandbreite evtl. mit anderen Geräten, erfahrungsgemäß hat man bei AMD grob 90-95% der Geschwindigkeit im Vergleich zu einem CPU-NVMe-Slot. Davon dann bei Dir nochmal die Hälfte, also grob ~45% der max. speed im 2.Slot. Genauer beziffert, landest Du ca. bei 3200-3300 MB/s, was mMn immer noch ordentlich ist.
Das alles betrifft auch die anderen PCIe-Slots, die bei Dir allesamt (außer natürlich der 16x PEG für Graka) am Chipsatz hängen. Diese Rechnung kannst Du daher 1:1 auf den zweiten x16-Slot (x2 elektrisch) übertragen. Bitte davor das MB-Handbuch genauer studieren, nicht dass irgendwelche Slots sich gegenseitig ausschließen, ist bei einigen Mainboards halt so.
 
Wir haben es zwar länger nicht mehr systematisch probiert, aber einen signifikanten Performance-Verlust bei indirekter Anbindung über einen I/O-Hub konnten wir nie bestätigen. Innerhalb der Messstreuung waren CPU-native-Ports manchmal sogar "langsamer"; Mainboard-Hersteller kommen zu ähnlichen Ergebnissen. Was außerhalb cleaner Testumgebungen natürlich passieren kann, ist parallele Aktivität anderer I/O-verbundener Geräte (SATA, USB, LAN, Erweiterungskarten – aber was davon nutzt man in dem Moment aggressiv in gleicher Richtung, in dem man große Dateimengen liest?), sodass die Gesamtauslastung der Schnittstelle zwischen CPU und I/O-Hub zum limitierenden Faktor wird. AMD arbeitet da halt mit 4.0 ×4, was eine voll angebundene SSD exakt auslasten kann. Aber keine halb angebundene; die würde die halbe Transferrate für andere Komponenten übrig lassen, sodass keine Konflikte zu befürchten sind.
 
Okay, dürfte bei mir egal sein ...

da ich ja hier aber grade die Experten am Start habe: Wenn ich auf der PCIe 4x2 SSD etwas auspacke (direkt darauf), dann müsste sie doch trotzdem die volle Leistung haben, oder nicht? Also intern sollte die Anbindung doch eigentlich egal sein?

@massaker Da es keine 8 TB PCIe3 SSDs gibt ist das egal ;)

Anbei: Ich habe ja auch noch den zweiten m2 Slot der voll angebunden ist, nur ist der direkt unter dem Grafikkartenlüfter, schätze da könnte ich thermische Probleme bekommen.
 
Falls du meinst "eine Archivdatei auf dem Laufwerk entpacken": Nö, das ist eine technisch irreführende ausdrucksweise. Der eigentliche Ablauf lautet "eine Archivdatei in den RAM laden, dort entpacken und das Ergebnis auf das Laufwerk zurückschreiben".
Allerdings ist schon bei recht laschen Komprimierungen die CPU und nicht das Laufwerk der limitierende Faktor. Für die Mainboard-Tests prüfe ich regelmäßig die Gegenrichtung und selbst wenn man am Anfang und Ende ein paar Sekunden abzieht, weil das Programm erstmal in die Gänge kommen muss, vergehen mindestens 200 Sekunden um 10 GB zu einem Archiv hinzuzufügen. Also 50 MB/s Lesegeschwindigkeit :schnarch:

Die Abluft von Grafikkarten ist übrigens, gerade bei hoher Leistung, meistens so kühl, dass sie andere Komponenten sogar vor dem Throtteling bewahren kann. Wenn ein Kühlkörper 70-80 °C warm werden darf, ehe es bedenklich wird, dann kann man auch mit auf 50 °C vorgewärmter Luft viel Energie abführen; umgekehrt hat man ohne aktiven Luftstrom aber gegebenenfalls einen Wärmestau.
 
einen signifikanten Performance-Verlust bei indirekter Anbindung über einen I/O-Hub konnten wir nie bestätigen
Naja, die 5-10 Prozent Verlust laufen bei mir noch unter "nicht signifikant" ;)
Hier z.B. eine Seagate Firecuda 530 und 980 Pro, einmal über CPU-Lanes und einmal am x570-Chipsatz:
1697208202461.png
1697208276881.png

1697208495841.png
1697208553178.png

An CPU-Lanes habe ich maximalen Durchsatz bei ca. 7400 gerundet gemessen, über Chipsatz grob 6600. Wie man nebenbei schön sieht, die wohl wichtigere Leistung bei 4K-random sinkt nur minimal, um wenige Prozent.
Das gleiche Spiel bei PCIe3.0 -> habe maximal ca. 3740 MB/s beim Lesen gemessen - genau die Hälfte von den maximalen 7480 MB/s, die die schnellsten SSDs in einem PCIe4.0-Slot erreichen. Nun, solch schnelle Gen3-SSDs gibt's nicht, daher eine schnelle Gen4-SSD in PCIe3.0-Slot platziert um das Maximum auszuloten, z.B. FC530 hier oder auch p5800x rechts:
1697209011244.jpeg
1697209184822.png

Über den Chipsatz ist man aber wieder bei grob ~3300 max. (leider grad kein Screenshot zur Hand)
AMD arbeitet da halt mit 4.0 ×4, was eine voll angebundene SSD exakt auslasten kann. Aber keine halb angebundene; die würde die halbe Transferrate für andere Komponenten übrig lassen
Das habe ich auch geglaubt und neulich eine 980 Pro in einem PCIe3.0x1-Chipsatz-Slot probiert - dürfte ja absolutes Maximum rausholen und somit habe ich ca. 900+ MB/s erwartet und trotzdem nur knapp ~825 bekommen, also wieder mal ca. 3300 : 4 = 825 -> diese Rechnung geht bei AMD wohl immer auf....
1697209489040.png

Bei Intel mit 8x Lanes Chipsatz-Anbindung ist die Situation wohl etwas besser und dort stimmen Deine Aussagen. Jedoch hat man bei x670E wiederum mehr CPU-Lanes für SSDs und wenn man der Graka 8 Lanes "klaut", dann kann man theoretisch sogar bis zu 4x Gen5-SSDs installieren, weil die 8 "gewonnene" CPU-Lanes in 4+4 aufgeteilt werden können, bei Intel hingegen gehen nicht mal 2x Gen5, da keine solche Bifurkation möglich.

P.S.: sorry, fast schon vergessen, hier ist das gestern von mir versprochene (hardware-porno-) Bild:
IMG_1843.jpeg
 
Zuletzt bearbeitet:
Hmm, vielleicht müssen @PCGH_Manu oder ich die Tests diesbezüglich wieder aufnehmen. Ich habe keine Screenshots mehr zu Hand, glaube mich aber an Unterschiede von <50 MB/s zwischen direkt und via I/O-Hub zu erinnern. Das ganze, wie gesagt, auch durchaus mal mit Vorteil in der unerwarteten Richtung. Hätten wir Unterschiede von 800 MB/s, also >10 Prozent gesehen, wären wir der Sache weiter nachgegangen. Haben wir aber mehrfach nicht und eigentlich gibt es auch keinen technischen Grund dafür, deswegen wurde eine weitere Auseinandersetzung als Zeitverschwendung gewertet.

Bezüglich der allgemeinen Differenz zum theoretischen Maximum: Die ist natürlich konstant. Z.B. 1 GB/s für eine 3.0-Lane beziffert die Netto-Übertragungsrate des PCI-E-Systems. So viel Informationen können also von der CPU zur SSD übertragen werden. Aber dort ist wesentlich mehr unterwegs als nur die vom Diskmark erfassten Nutzdaten, die zwischen Software und Flash reisen. Die gesamte Laufwerksansteuerung sowie etwaige von dieser verursachte Lücken im Datenfluss, Resends bei Fehlern und ähnliches sind von der Nettotransferrate der Schnittstelle abzuziehen. Bei NVME-Benchmarks sind 10 bis 20 Prozent niedrigtere Ergebnisse daher normal – vollkommen egal ob 1.0 ×1 oder 4.0 ×4.

P.S.: Klassischer Laien-Fehler. Das "für Torsten..." muss man doch nicht auf einen Zettel im Bild schreiben, sondern als Empfängeradresse auf das Paket.

P.P.S.: Setzen diese Slot-Adapterkarten deiner Erfahrung nach eigentlich Support durch das Mainboard voraus? Bei M.2-U.2-Adaptern muss man teilweise manuell eine höhere Signalspannung aktivieren, was nicht überall möglich ist.
 
Zurück