AMD Ryzen Threadripper: RAID 0 mit 11 NVMe-SSDs erreicht 27 GiB/s

Mal ehrlich n Raid aus 2 NVMes und nochmal 2 NVMes wäre im realen Leben schon mehr als ausreichend.

Dee Schritt geht in die richtige Richtung, dass es noch etwas dauert, ist ja nicht tragisch, wers jetzt braucht, muss ebe zu anderem greifen, auch da gibts schon PCIe SSDs für 16x slots.
 
Was müsst ihr eigentlich mittlerweile zahlen, damit ihr die scheinbar neue Lichtgestalt der Computerwelt weiterhin "das PCHHX Mitglied" nennen dürft. Oder macht er das kostenlos für den den Traffic. den ihr ihm durch die immer wieder sehr exponierte Berichterstattung generiert?
 
Gibt es für dermaßen hohe Bandbreiten Anwendungszwecke?

Nur weil der 08/15-User bisher keinen Nutzen davon hat, bedeutet dass nicht das es nicht andere Anwender gibt die damit nichts anfangen. Der Sockel TR4 ist auch für "High-Performance-Compute". Da gibt es bestimmt jemand der die hohe Bandbreite gebrauchen kann. Und selbst wenn dass nur wenige sind, so können sich durch die gestiegene Leistung auch neue Anwendungsszenarien ergeben.
 
Der Vorteil von Optane liegt dann wohl klar auf der Hand:
Deutlich niedrigere Latenzen und höhere Bandbreite.
Nachteil: einiges teurer für die selbe Kapazität. Aber fürs OS und häufig gebrauchte Dateien/Speile dürfte der Vorteil deutlich spürbar sein.

Naja, es gibt ganz sicher Anwendungsfälle in denen das deutlich spürbar ist, aber für OS und bei Spielen ist der Vorteil eher theoretischer Natur. D.h. für den Normalo ist das aktuell kein Vorteil, nur für den, der dem das verkauft hat.
 
Nur weil der 08/15-User bisher keinen Nutzen davon hat, bedeutet dass nicht das es nicht andere Anwender gibt die damit nichts anfangen. Der Sockel TR4 ist auch für "High-Performance-Compute". Da gibt es bestimmt jemand der die hohe Bandbreite gebrauchen kann. Und selbst wenn dass nur wenige sind, so können sich durch die gestiegene Leistung auch neue Anwendungsszenarien ergeben.

Das ist die Denkfalle in die viele fallen. Ausserhalb des eigenen Denk-Universums gibt es halt nichts, da kommt man schnell verkürzt auf "ich brauch's nicht, also braucht es niemand".

Der Aufbau von der8auer ist ein interessanter Beweis für die Leistungsfähigkeit der Plattform, muss also nicht unbedingt einen praktischen Nutzen haben. So ein paar Punkte die mir einfallen:
  • RAID0 hat eine erhöhte Ausfallwahrscheinlichkeit, ausser als Scratchspace kaum zu gebrauchen.
  • Für hohe Leistung braucht man optimale IO-Pattern, IO-Ansteuerung, wer beim beliebten CrystalDiskmark nichtmal versteht, was QD32 wirklich bedeutet wird die NVMes nicht ausreizen können
  • Für eine praktische Anwendung wird es auch eine angepasste Anwendung nötig sein
  • Kosten/Nutzen, ganz billig ist der Spass nicht, mit RAID0 für Business Anwendungen eher ungeeignet
  • Wear Levelling, Over Provisioning und so. Neue SSDs dürften die beste Perfomance erreichen, Danach wird es schlechter, wenn man nicht pauschal mal alles discarded
  • Datenmenge. Wird im Artikel auch nicht genannt. Wurde das Ergebnis über mehrere TB erreicht, oder ist das nur ein Spitzenwert, der mal kurzzeitig aufgetreten ist.
  • Verwendetes OS, Software, usw...
 
In den Rechner noch zwei Intel X710 Quad NIC's und man hat eine recht flotte NAS Platform.
 
Zuletzt bearbeitet:
Bei den Threadripper Boards ist es meines Wissens nach so, dass jeder PCIe Slot seine festgelegte Anzahl Lanes hat, sodass, wie im Artikel beschrieben, durch die Verwendung der 11 SSDs eben nur noch 2 Slots übrig sind, die aber beide x8 angebunden sind, und es nicht möglich ist, ein einzelnes Gerät (z.B. Grafikkarte) mit vollen 16 Lanes anzubinden, sondern eben nur x8 möglich ist, auch wenn im anderen Slot nichts steckt. Das wird auch in diesem Artikel beschrieben: AMD Ryzen Threadripper: Max. 7 PCI-Express-3.0-Gerate fur 60 Lanes

Die Lanes sind star zugeordnet, tatsächlich spricht AMD ausdrücklich von einer Aufteilbarkeit bis runter auf meiner Erinnerung nach ×2-Links. Aber im gleichen Atemzug eben auch von maximal 7 Geräten insgesamt, weswegen es schwer wird, eine zweite sinnvolle Aufteilung neben ×16/×16/×8/×8/×4/×4/×4 zu finden. Bislang bin ich mir nicht einmal sicher, ob man die beiden ×8 problemlos zusammenlegen und dafür einen ×4 teilen könnte (zum Beispiel 10 GBit LAN + USB 3.1). Die bislang verfügbaren Mainboards bewegen sich alle innerhalb eines Limits von "maximal vier Geräte pro Die", wenn man den I/O-Hub als achten Nutzer mitzählt.
Leider ist es unmöglich, von AMD Details zu den Plattformeigenschaften zu erhalten. Ich habe schon bezüglich Promontory und PCI-E 3.0 respektive SATA in dicke Bretter gebohrt, aber keine Anworten gefunden. Die Multi-M.2-Karten werden zum Beispiel seit der Computex gezeigt, ich weiß aber immer noch nicht genau, welche Technik sie einsetzen.


Warum schauen eigentlich alle immer nur nach einem Massenspeicher als Zielpfad? Beim RAM greift die CPU doch auch auf einen Speicher zu, der aktuell (HEDT) über 80GB/s schafft (oder mit Dual-Channel CPUs ca. 38-42GB/s). Und mit 27GB/s wäre der Massenspeicher bei der Transferrate ja "fast" schon so schnell wie Dual-Channel RAM angebunden. Klar, bzgl. P/L sieht es da aktuell natürlich noch düster aus (11 NVMe-SSDs^^). Aber Massenspeicher mit annähernd RAM-Geschwindigkeit sollte doch schon bei der CPU einen Abnehmer gefunden haben, der damit häufiger etwas anzufangen weiß. Gerade wenn man diesen Umstand bei der Software-Entwicklung berücksichtigt (siehe zb. das Streaming von Rage!?).

Streaming ist normalerweise nicht durch die Geschwindigkeit des Massenspeichers limitiert; eher durch Entpackvorgänge. 27 GiByte Daten pro Sekunde zu verarbeiten ist eine enorme Herausforderung. Das wäre zum Beispiel ein 4k-60-FPS-HDR-Stream in Echtzeit pro CPU-Kern des Topmodells. Und bei 2,5 GB pro Sekunde und SSD muss man auch erst einmal genug Speicherplatz haben. Die hier gezeigten 960 Pro wären nach spätestens sieben Minuten leergesogen beziehungsweise vollgeschrieben und es gibt keine externe Schnittstellen, die Daten in dieser Menge annehmen oder anliefern könnte. Mir ist kein einziges Anwendungsszenario bekannt, dass solch große Datenmengen in so kurzen Zeitfenstern behandelt und nicht wesentlich effektiver durch einen großen RAM und Caching-Algorithmen bewältigt werden kann.
 
Nur weil der 08/15-User bisher keinen Nutzen davon hat, bedeutet dass nicht das es nicht andere Anwender gibt die damit nichts anfangen. Der Sockel TR4 ist auch für "High-Performance-Compute". Da gibt es bestimmt jemand der die hohe Bandbreite gebrauchen kann. Und selbst wenn dass nur wenige sind, so können sich durch die gestiegene Leistung auch neue Anwendungsszenarien ergeben.
Die Frage an sich war nicht abschätzig gemeint, sondern ernst. Ist ja doch ne enorme Transferrate

Gesendet von meinem HTC 10 mit Tapatalk
 
Warum schauen eigentlich alle immer nur nach einem Massenspeicher als Zielpfad? Beim RAM greift die CPU doch auch auf einen Speicher zu, der aktuell (HEDT) über 80GB/s schafft (oder mit Dual-Channel CPUs ca. 38-42GB/s). Und mit 27GB/s wäre der Massenspeicher bei der Transferrate ja "fast" schon so schnell wie Dual-Channel RAM angebunden. Klar, bzgl. P/L sieht es da aktuell natürlich noch düster aus (11 NVMe-SSDs^^). Aber Massenspeicher mit annähernd RAM-Geschwindigkeit sollte doch schon bei der CPU einen Abnehmer gefunden haben, der damit häufiger etwas anzufangen weiß. Gerade wenn man diesen Umstand bei der Software-Entwicklung berücksichtigt (siehe zb. das Streaming von Rage!?).

Die Auslagerung in den RAM bremst wegen der schlechten Latenzen schon oft und dann willst du eine SSD mit noch deutlich schlechteren Latenzen verwenden? Du bräuchtest für sinnvolle Anwendungen riesige Datenmengen mit einem kontinuierlichen Datenstrom. Für was braucht man sowas?

Gibt es für dermaßen hohe Bandbreiten Anwendungszwecke?
Wegen der sehr schlechten Latenzen wird eine sinnvolle Anwendung schwierig.
 
Mir ist kein einziges Anwendungsszenario bekannt, dass solch große Datenmengen in so kurzen Zeitfenstern behandelt und nicht wesentlich effektiver durch einen großen RAM und Caching-Algorithmen bewältigt werden kann.
RAM ist ja nicht beliebig erweiterbar, aktuell ist da selbst im HEDT bei 128GB Schluss - und die kosten mindestens 1000€. Und von wo kommen die Daten in den (RAM-) Cache? Schon das Laden/Speichern von VMs oder RAM-Disks dürfte von einem schnelleren Massenspeicher profitieren - wobei man sich letzteres wiederum bei fast 30GB/s quasi sparen könnte. Für die genannten 1000€ bekommt man zb. 11x 120GB M.2 mit 120GB (= 1,22TB Netto) bzw. 8x 250GB M.2 mit 250GB (= 1,78TB). Das ist eine ganze Menge "Massenspeicher" mit annähernd RAM-Geschwindigkeit.
Die Auslagerung in den RAM bremst wegen der schlechten Latenzen schon oft und dann willst du eine SSD mit noch deutlich schlechteren Latenzen verwenden? Du bräuchtest für sinnvolle Anwendungen riesige Datenmengen mit einem kontinuierlichen Datenstrom. Für was braucht man sowas?

Die Latenzen sind nur bei vielen kleinen Daten relevant, und auch dort nur, wenn sie nicht "am Stück" gelesen werden können (zb. weil sie verteilt gespeichert sind). Und "brauchen" ist relativ. Tatsache ist, dass der Massenspeicher nach wie vor der langsamste Speicher ist. Das wäre er mit 27GB/S zwar immer noch, aber er wäre damit "fast" auf RAM-Niveau. Und damit ergeben sich auch neue Möglichkeiten. Auch sollte ein 7x (vs 4GB/s M.2) bis 50x (vs SATA3-SSD) schnellerer Massenspeicher in irgendwelchen bisherigen Anwendungen einen Vorteil bringen.

Anders ausgedrückt, ich bezweifel (aus den genannten Gründen) einfach, dass ein solcher Massenspeicher unter keinen Umständen etwas bringt oder bringen kann. Übrigens rede ich von einem spürbaren (also nicht nur messbaren) Effekt, und nicht von "brauchen". :D
 
RAM ist ja nicht beliebig erweiterbar, aktuell ist da selbst im HEDT bei 128GB Schluss - und die kosten mindestens 1000€. Und von wo kommen die Daten in den (RAM-) Cache? Schon das Laden/Speichern von VMs oder RAM-Disks dürfte von einem schnelleren Massenspeicher profitieren - wobei man sich letzteres wiederum bei fast 30GB/s quasi sparen könnte.
Aktuell müssten maximal 1 TB pro CPU möglich sein.

Die Latenzen sind nur bei vielen kleinen Daten relevant, und auch dort nur, wenn sie nicht "am Stück" gelesen werden können (zb. weil sie verteilt gespeichert sind). Und "brauchen" ist relativ. Tatsache ist, dass der Massenspeicher nach wie vor der langsamste Speicher ist. Das wäre er mit 27GB/S zwar immer noch, aber er wäre damit "fast" auf RAM-Niveau. Und damit ergeben sich auch neue Möglichkeiten. Auch sollte ein 7x (vs 4GB/s M.2) bis 50x (vs SATA3-SSD) schnellerer Massenspeicher in irgendwelchen bisherigen Anwendungen einen Vorteil bringen.

Klein ist bei der Bandbreite sehr relativ. Selbst 4-8 GB sollten deutlich zu klein sein. Ich kenne auf jeden Fall kein sinnvolles Anwendungsszenario, aber bin natürlich für Vorschläge offen. Du könntest natürlich pausenlos Daten über das Netzwerk verteilen.
 
Aktuell müssten maximal 1 TB pro CPU möglich sein.
Ich hab primär von Mainstream und HEDT gesprochen, nicht von Servern. ;)
Klein ist bei der Bandbreite sehr relativ. Selbst 4-8 GB sollten deutlich zu klein sein.
Ich sprach deshalb von der Anordnung. Wenn alle Dateien am Stück eingelesen werden können, ist die Größe "fast" egal. Zb. kann es bei bestimmten Spielen von Vorteil sein, gepackte Archive (die mit hunderten oder tausenden Dateien gefüllt sind) als unkomprimierte Archive wieder abzuspeichern.
Ich kenne auf jeden Fall kein sinnvolles Anwendungsszenario, aber bin natürlich für Vorschläge offen. Du könntest natürlich pausenlos Daten über das Netzwerk verteilen.
Wenn der Massenspeicher eine solche Geschwindigkeit hat, kann man sich bei bestimmten Daten mit sehr hoher Wahrscheinlichkeit das Vorhalten im RAM sparen. Bei vielen parallelen Zugriffen (primär im Server-Bereich) braucht man (schon aktuell) nicht mal ein RAID, um solche Transferraten erreichen zu können.

Ich hab jedenfalls nach wie vor so meine Zweifel daran, das ein bis zu 50x schnellerer Massenspeicher nirgendwo einen Vorteil bringen soll. ;)
 
In Mainstream und HEDT ohne Server-Technologie gibt es keinen Threadripper ;-). Letzterer unterstützt Module bis 256 GiB, wobei meinem Wissen nach aktuell nur 128 GiB und somit 1 TiB RAM insgesamt verfügbar sind. Außer beim astronomischen Preis erreicht man damit natürlich immer noch nicht die Größe eines knappen Dutzend M.2-SSDs, aber letztlich erfolgen die Berechnungen aus Latenzgründen eben so oder so im Arbeitsspeicher. Ultra schnelle Massenspeicher beschleunigen nur Leeren und Füllen des RAM(-Caches) und genau hier liegt das Problem: Wieviele Anwendungen benötigen so viele Daten tatsächlich und wechseln im Abstand weniger Sekunden den kompletten Datensatz?
 
Eher keine, denn das würde bedeuten, dass der Anwender im Sekundenbruchteil die komplette Projektausrichtung ändert und plötzlich statt dem Homevideo ein Stream bearbeitet.

Allein das Tippen der Buchstaben zum Speichern des Projekts dauert ein zigfaches an Zeit ;)
 
Zurück