M2 SSDs mit und ohne NVMe Samsung SSD SM951 oder Samsung SSD SM951-NVMe

A

Andinistrator

Guest
Hallo Zusamen,

hierfür benötige ich einen Experten ob ich richtig liege: Mir geht es um M2 SSDs mit und ohne NVMe

Samsung SSD SM951-NVMe 256GB, M.2 (MZVPV256HDGL-00000) Preisvergleich | Geizhals Deutschland
auform: Solid State Module (SSM) • Formfaktor: M.2 2280 • Schnittstelle: M.2/M-Key (PCIe 3.0 x4) • lesen: 2150MB/s • schreiben: 1260MB/s • IOPS 4K lesen/schreiben: 300k/100k

Samsung SSD SM951 256GB, M.2 (MZHPV256HDGL-00000) Preisvergleich | Geizhals Deutschland
Bauform: Solid State Module (SSM) • Formfaktor: M.2 2280 • Schnittstelle: M.2/M-Key (PCIe 3.0 x4) • lesen: 2150MB/s • schreiben: 1200MB/s • IOPS 4K lesen/schreiben: 90k/70k

Nicht unschwer zu sehen, die IOPS sind mit NVMe höher - und günstiger.

Kann mir jemand sagen,
- Wie wird diese NVMe Variante angeschlossen? Ist hierfür ein extra Adapter überhaut notwendig oder kann ich das direkt ein eine x4 PCI3.0 Schnittstelle drücken?
- Die ohne NVMe hat je nach Board 1-2 M.2-Sockel 3 Typ M, hierfür gibt es auch Adapter wenn diese Slots belegt würden, x4 PCI3.0

Wo am Besten anschließen?
X99:
Northbringe mit 5820k - der hat 28 lanes per PCI3.0
die southbrigde hat nur 8 PCI2.0 lanes, also Flaschenhals

Z170
Northbrige: wenn GPU keine 16 lanes schluckt ok, sonst auch
Southbrige mit Z170, 20 PCI 3.0 lanes

Gibt es einen Unterschied, Vort-/Nachteil zwischen dem Anschluss north- oder southbridge (DMI2.0, 3.0)?
 
Zuletzt bearbeitet:
NVMe ist kein Anschluss sondern ein Übertragungsprotokoll. :schief:
Das PCIe3.0 x4 ist nur die Anbindung, damit ist NICHT der mechanische Slot gemeint.

Der physikalische Anschluss ist M.2, den hat ein Board entweder nativ oder man muss ihn mit entsprechenden PCIe-Controllerkarten nachrüsten.

Was deinen "Flaschenhals" angeht: Der existiert nicht. Dein PCIe2.0 x8 überträgt 4000 MB/s - das doppelte von dem was die SSD schafft - und nebenbei mehr als PCIe3.0 x4 (3940 MB/s). ;)
 
NVMe ist kein Anschluss sondern ein Übertragungsprotokoll. :schief:
Das PCIe3.0 x4 ist nur die Anbindung, damit ist NICHT der mechanische Slot gemeint.

Der physikalische Anschluss ist M.2, den hat ein Board entweder nativ oder man muss ihn mit entsprechenden PCIe-Controllerkarten nachrüsten.

Was deinen "Flaschenhals" angeht: Der existiert nicht. Dein PCIe2.0 x8 überträgt 4000 MB/s - das doppelte von dem was die SSD schafft. ;)

Vielen Dank. Demnach ist mit NVMe danke der Protokolls schneller? Und auch günstiger?

(Der Flaschenhals trifft dann nicht zu, wenn alle 8 lanes bei x99 kein lane sharing mit sata, usb, lan controller,... hätten.)
 
NVMe ist schneller, weil das Protokollformat auf SSDs ausgelegt ist (extrem viele Befehle auf einmal senden) und nicht auf HDDs (Befehle nacheinander senden).

Die reine Bandbreite ist auch in 99% der Fälle nicht entscheidend es sei denn du kopierst ständig GB-Weise risige Daten hin und her - oder anders gesagt in den allermeisten Fällen bemerkst du den Unterschied zwischen einer neuen NVMe-SSD und einer 5 Jahre alten SATA-SSD sowieso nicht. Im Alltag zählen Zugriffszeiten und 4K-Werte der Laufwerke, nicht sequentielle Lese- und Schreibraten, die dienen hauptsächlich dem Marketing weil die Zahlen am größten sind.
 
Verstanden, ob mit oder ohne NVMe Protokoll ist im Wesentlichen egal, wenn gleiche Größe dann einfach auf den Preis achten.

Wie ist bei bei der Anschlussart?

Wenn man x99 in der northbringe anschließt, z170 ist der southbridge? x99 hat nur DMI2.0 - kann es bzw. spielt das eine Rolle?
 
PCIe liefert überall die gleiche Bandbreite. Und die ist mehr als ausreichend um jede SSD dieser Welt auszulasten. Oder anders gesagt es ist völlig wurscht wo die SSD angeschlossen wird. ;)

Du musst dir darüber im Klaren sein, dass du in den allermeisten Fällen nicht über 100MB/s Schreib- oder Leseleistung rauskommst wenn du nicht spezielle Anwendungen nutzt die das brauchen (etwa Videoschneiden mit sehr hohen Auflösungen/RAW). Und die Schnittstelle limitiert nunmal nur genau da. Deswegen unterscheiden sich beispielsweise die Bootzeiten von Windows zwischen einer 5 Jahre alten SSD und einem neuen High-End Modell wenns hoch kommt um eine Sekunde obwohl die letzte SSD in der Theorie 10x so schnell ist wie die alte. Die ganze theoretische Leistung verpufft inder Realität im nichts wenn man sie nicht speziell braucht.
 
Wo liegt dann der Unterschied zwischen DMI2.0 und 3.0?

https://en.wikipedia.org/wiki/Direct_Media_Interface
DMI 2.0, introduced in 2011, doubles the data transfer rate to 2 GB/s with a ×4 link. It is used to link an Intel CPU with the Intel Platform Controller Hub (PCH), which supersedes the historic implementation of a separate northbridge and southbridge.[2]:14

DMI 3.0, released in August 2015, allows the 8 GT/s transfer rate per lane, for a total of four lanes and 3.93 GB/s for the CPU–PCH link. It is used by two-chip variants of the Intel Skylake microprocessors, which are used in conjunction with Intel 100 Series chipsets;[3][4] some variants of Skylake will have the PCH integrated into the die, effectively following the system on a chip (SoC) design layout.[5] On 9 March 2015, Intel announced the Broadwell-based Xeon D as its first platform to fully incorporate the PCH in an SoC configuration.[6]
 
Zuletzt bearbeitet:
In der Bandbreite zwischen CPU und PCH.

Diese ist aber schon bei DMI2.0 so hoch (4x 2 GB/s) dass sie eine SSD nie einengen kann.

Sicher? Ich verstehe x4 - also 4 lanes
DMI2.0
x1 500 MB/s
x1 500 MB/s
x1 500 MB/s
x1 500 MB/s
=> 2 GB/s

DMI 3.0
x1 985 MB/s
x1 985 MB/s
x1 985 MB/s
x1 985 MB/s
=> 3.9 GB/s
 
Ich habe google (musste es auch nachsehen) so verstanden dass es 4x 2 bzw. 4x 3.9 GB/s wären (also die lanes von PCIe nicht die gleichen sind wie die Lanes von DMI).

Aber selbst wenn es so ist wie dus gelesen hast (kann durchaus sein bzw. erscheint logisch) würde da ja nichts begrenzen. Üblicherweise muss man den Weg über den DMI/PCH ja auch gar nicht gehen wenn man die Geräte an die lanes anschließt, die direkt zur CPU führen.
 
Mich würde das Zusammenspiel interessieren, d.h. wenn ich einen x4 M2 in die Northbrithe oder in die Southbridge anstecke - d.h. ist es sinnvoller die Datenträger näher an der CPU zu haben?
 
Räumlich näher? Oder Architektonisch näher?

Vom Platz auf dem Board her ists egal, von der Architektur her dürfte die direkte CPU-Anbindung schneller (genauer: latenzärmer) sein als der Umweg durch PCH und DMI. Das hat aber alles rein theoretischen Charakter da man in der Praxis den Unterschied kaum bemerken dürfte - der bewegt sich wahrscheinlich im Mikrosekundenbereich.
 
Ok - demnach bleibt zu entscheiden wie viele GPUs man einsetzen möchte, wann einen GPU per x16 oder nur x8 PEG Lanes benötigt. High end GPUs (GTX980 oder Titan) sollen ja jetzt schon eine ungeteilte x16 lane verfügen, zwei davon würden also 32 lanes benötigen um voll ausgeschöpft zu werden. Da ist es ja nur noch den großen Bruder mit 40 Lanes, so hätte man noch Platz für 2x x4 PCI3.0 lanes.

Grundsätzlich war es aber schon immer so in der Architektur, Pheriphiere im Süden, Grafikkarten und RAM im Norden. Ich müsste mal gucken welche Daten per DMI ausgetauscht werden... .
 
Das mit den Grafikkarten ist das gleiche Thema - ja, High-End Karten nutzen wenn möglich 16 PCIe 3.0 Lanes. Der Punkt ist, dass der Performanceunterschied zu x8 oder gar x4 im kleinen einstelligen Prozentbereich ist. Sprich ob du deine GTX980Ti an 4 oder an 16 Lanes betreibst macht in der Performance weniger Unterschied als wenn du den GPU-Takt um 50 MHz veränderst. ;)
 
Zurück