Asus Hyper Express im Test: Ein Raid 0 im 2,5-Zoll-Pelz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Asus Hyper Express im Test: Ein Raid 0 im 2,5-Zoll-Pelz

Zeitgleich mit M.2 und dem Z97 schlägt auch der geistige SATA-Nachfolger SATA Express auf. Nur leider gibt es dafür noch keine Laufwerke. Eine Ausnahme ist das Hyper Express, an dem Asus zurzeit arbeitet. PC Games Hardware macht den Test.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Asus Hyper Express im Test: Ein Raid 0 im 2,5-Zoll-Pelz
 
Irgendwie macht das ganze keinen Sinn, andere SSDs sind beim Lesen und Schreiben besser dran, wieso sollte sich jemand so etwas zu legen was langsamer als schon bewährtes ist? :huh:
 
Irgendwie macht das ganze keinen Sinn, andere SSDs sind beim Lesen und Schreiben besser dran, wieso sollte sich jemand so etwas zu legen was langsamer als schon bewährtes ist? :huh:
diese reinen Benchmarkbalken sagen aber insgesamt sowieso noch sehr wenig. Beim SSD Testen muss sich noch vieles ändern. So greifen die meisten blind zu diversen SSDs die bei den Benchmarks vorne sind, aber nach ein paar Monaten sind diese teilweise massiv langsamer, während andere um einiges schneller sind. 20140531_133258.jpg
 
Irgendwie macht das ganze keinen Sinn, andere SSDs sind beim Lesen und Schreiben besser dran, wieso sollte sich jemand so etwas zu legen was langsamer als schon bewährtes ist? :huh:

Das ganze sieht mir mehr nach einem Testobjekt für den SATA-Express Anschluss als wie ein wirklich finales Produkt; so wird es imo wohl kaum in den Handel kommen.


Ich hoffe allerdings, das die Hersteller schleunigst auf PCI-E 3 umsteigen, denn sonst ist der Gewinn von SATA-Express gegenüber SATA 6Gbit einfach viel zu gering.
 
diese reinen Benchmarkbalken sagen aber insgesamt sowieso noch sehr wenig. Beim SSD Testen muss sich noch vieles ändern. So greifen die meisten blind zu diversen SSDs die bei den Benchmarks vorne sind, aber nach ein paar Monaten sind diese teilweise massiv langsamer, während andere um einiges schneller sind.Anhang anzeigen 743966

Das ist nicht korrekt. Die IOPS-Messung im Bild bezieht sich nur auf einen Zeitraum, über den konstant schreibend auf die SSD zugegriffen wird. Gibt man der SSD nach dem Schreiben eine Atempause, erreicht die SSD nachher wieder die volle Geschwindigkeit. Wir machen den Test auch, über eine volle Stunde, zeigen aber nur dort Verläufe, wo es auch etwas zu sehen gibt, wie z.B. hier: Samsung XP941-SSD: Daumengroßes Geschwindigkeitswunder im M.2-Format mit Schönheitsmakel Der Test ist aber nicht besonders praxisnah, sondern fällt eher unter die Kategorie "Nice to know". Wann hast du das letzte Mal mehrere Minuten oder gar eine Stunde lang eine SSD voll ausgelastet? Consumer-SSDs müssen im täglichen Einsatz in der Regel ihre Leistung nur für wenige Sekunden halten können, alles darüber hinaus ist ein Sahnehäubchen.

Zudem möchte ich anmerken, dass ich die Ergebnisse von deinem Foto aus der c't absolut nicht nachvollziehen kann: Laut meinen Messungen erreicht die Crucial M550 selbst nach fünf Minuten und lange darüber hinaus noch Werte von 80.000 bis 90.000 IOPS.
 
diese reinen Benchmarkbalken sagen aber insgesamt sowieso noch sehr wenig. Beim SSD Testen muss sich noch vieles ändern. So greifen die meisten blind zu diversen SSDs die bei den Benchmarks vorne sind, aber nach ein paar Monaten sind diese teilweise massiv langsamer, während andere um einiges schneller sind.Anhang anzeigen 743966

Was aber so oder so nichts mit der hier getesteten Anbindungsvariante zu tun hat, schließlich könnte man auch andere SSDs in das Gehäuse setzen.
(wenn man denn akuten PCIe-Überschuss hat, zusätzliche Ausfallmöglichkeiten benötigt und Bandbreite opfern möchte, um wenige mm Höhe und einen zweiten Stromstecker einzusparen)
 
Also im Prinzip sind das einfach zwei mSATA SSDs, die in einem Gehäuse untergebracht und als Raid 0 verschaltet wurden. Und beide sind über zwei SATA 6GBit/s-Anschlüsse mit dem System verbunden. Da könnte man genau so gut zwei normale SATA-SSDs nehmen und hätte den gleichen Effekt.
Bin mal gespannt, was der Spaß kosten soll. Wird bestimmt bei 200€ liegen.
 
SATA Express haut mich jetzt nicht wirklich um...
Breite Stecker wie zu PATA-Zeiten, kaum gesteigerte Performance, und die Lösung mit dem Stromanschluss.. Naaa...
Da ist M.2 deutlich interessanter, außer für die Abermillionen SLI/CF Nutzer, die auf ihre PCIe Bandbreite angewiesen sind :D Aber wenn M.2 wirklich groß im kommen ist, werden evtl. die CPU Hersteller auf die Idee kommen, mehr Lanes bereitzustellen ;)
Zur Hyper Express... Ja ist halt noch ein Prototyp, es müsste noch etwas an der Performance gearbeitet werden, aber das ist ja glaub ich allen klar ;) Wobei ich mich frage, ob es sich das lohnt, weil ich persönlich in SATA Express nicht so große Zukunftschancen sehe..
 
Also im Prinzip sind das einfach zwei mSATA SSDs, die in einem Gehäuse untergebracht und als Raid 0 verschaltet wurden. Und beide sind über zwei SATA 6GBit/s-Anschlüsse mit dem System verbunden. Da könnte man genau so gut zwei normale SATA-SSDs nehmen und hätte den gleichen Effekt.

Nö, nicht genau gleich. 2 SATA-SDDs dürften höheren Durchsatz haben (2x 600 MB/s statt 2x 500 MB/s), schnellere Reaktionszeiten (PCIe-Zwischenstufe entfällt), wären ausfallsicherer (zusätzlicher RAID-Controller entfällt) und würden bessere Anbindungen an anderer Stelle bieten (zwei PCIe Lanes würden frei bleiben).


Da ist M.2 deutlich interessanter, außer für die Abermillionen SLI/CF Nutzer, die auf ihre PCIe Bandbreite angewiesen sind :D

Multi-GPU spielt da kaum eine Rolle. Mit einer Ausnahme nutzt afaik bislang kein Hersteller CPU-Lanes für die Anbindung, quasi alles geht über den Chipsatz. Eingeschränkte Nutzung ergibt sich somit für sämtliche sonstige Peripherie. Will man M.2 für höhere Geschwindigkeiten gegenüber SATA nutzen, wären schließlich schon 4 von 8 Lanes weg. Eine weitere geht ans LAN. Da du nur 4 SATA-Ports bleiben, sollte eine sechste für einen zusätzliche SATA-Controller einplanen. Soundkarte, etwaige zusätzliche USB3 Ports, PCI, zweite LAN und etwaige sonstige Erweiterungskarten dürfen sich dann um die verbliebenen zwei Lanes streiten.
Für kompakte Systeme sicherlich interessant, aber mehr als µATX-Format brauch man für die Boards imho gar nicht mehr zu benutzen.
 
Multi-GPU spielt da kaum eine Rolle. Mit einer Ausnahme nutzt afaik bislang kein Hersteller CPU-Lanes für die Anbindung, quasi alles geht über den Chipsatz. Eingeschränkte Nutzung ergibt sich somit für sämtliche sonstige Peripherie. Will man M.2 für höhere Geschwindigkeiten gegenüber SATA nutzen, wären schließlich schon 4 von 8 Lanes weg. Eine weitere geht ans LAN. Da du nur 4 SATA-Ports bleiben, sollte eine sechste für einen zusätzliche SATA-Controller einplanen. Soundkarte, etwaige zusätzliche USB3 Ports, PCI, zweite LAN und etwaige sonstige Erweiterungskarten dürfen sich dann um die verbliebenen zwei Lanes streiten.
Für kompakte Systeme sicherlich interessant, aber mehr als µATX-Format brauch man für die Boards imho gar nicht mehr zu benutzen.

Oh, klassisch meinerseits: "Sicheres Auftreten trotz totaler Ahnungslosigkeit" :D

Heißt das, dass GPUs über PCI-Lanes direkt mit der CPU verbunden werden und der Chipsatz komplett eigene PCI-Lanes hat zu der Peripherie?! Ich weiß nur, dass früher aller Kram an der Southbrigde per PCI hing und GPU, RAM an der Northbridge. Aber heute gibts ja nur noch einen Chip, weil der Mem-Controler inner CPU sitzt. Oder wie ist das nun? :D Könnte mich bitte jemand auf den neusten Stand bringen? ;D
 
Bei Intels PCH-Plattformen (Sockel 115x, 1356, 2011 - nicht aber 775 und 1366) sitzt in der CPU der Mem-Controller und ein PCIe-Controller mit 16 nutzbaren Lanes (115x . die anderen lasse ich mal außen vor, die haben eh genug). Die werden auf Desktopboards immer mit dem primären x16 Slot verbunden und da dann auch komplett für Single-GPU genutzt. Für Dual-GPU werden sie x8/x8 auf zwei Slots verteilt, seltener kommen Switches zum Einsatz, die x16/x16 draus machen, wobei die gemeinsame Bandbreite zur CPU natürich bei 1x16 bleibt. (wer so beknackt ist, Triple-Crossfire in der Mittelklasse zu praktizieren, bekommt auch Boards mit x8/x4/x4 von der CPU :stupid: )
Der Chip"satz" P(latform)C(ontroller)H(ub) (als Nachfolger der M(emory)CH Northbridges und I(nput/Output)CH Southbridges) ist über eine eigene Anbindung mit der CPU verbunden (die de facto PCIe2 x4 entspricht, weswegen frühe Leaks manchmal mehr Lanes für die CPU-internen Controller aufführen) und verfügt seinerseits über 8 Lanes. Da die Lanes von der CPU normalerweise für Grafik draufgehen, müssen alle anderen Geräte und sämtliche weiteren Erweiterungsslots über diese 8 Lanes versorgt werden.
Standard ist dabei LAN, sehr viele Boards verbauen eine PCIe->PCI-Bridge, um noch konventionelle PCI-Slots anbieten zu können. Damit bleiben 6 Lanes für
- alle x1 Slots auf dem Board
- einen etwaigen PCIe2.0 x4 Slot (mechanisch meist x16) auf dem Board (der sehr praktisch/zwingend nötig ist, wenn man schnelle Festplattencontroller, 10 GB LAN, schnelle PCIe-SSDs, dedizierte PhysX-Grafikkarten oder zukünftige Schnittstellen -z.B. TB, USB 3.1- nachrüsten möchte. Oder auch einfach nur, um mal eine Grafikkarte auf Funktion zu testen, ohne die primäre auszubauen)
- zusätzliche USB3 Anschlüsse (4 kommen direkt vom Chipsatz. Weitere 2 vom Chipsatz sind möglich, wenn dafür PCIe-Lanes oder SATA-Ports deaktiviert werden, alternativ verbaut man direkt Controller. Viele 9Xer Boards nutzen die SATA-oder-PCIe-Option für M.2 Slots, die ja SATA-oder-PCIe-brauchen)
- zusätzliche SATA-Anschlüsse (6 kommen direkt vom Chipsatz, wovon zwei jetzt aber oft für M.2/SATAe benötigt werden - alles andere erfordert zusätzliche Controller)
- hochwertigen Sound (egal ob extra Karte oder Chips von Karten auf dem Board: Sie brauchen eine Lane)
- zusätzliche LAN-Controller

Wie man sich unschwer vorstellen kann, wird das knapp. Einige (zu wenige) Platinen (meist ganz oben in der Preisskala) verbauen zwar einen PCIe-Switch, der 4 Lanes auf 2*4 aufteilt, aber das ist im High-End-Segment dann auch nur ein Tropfen auf den heißen Stein. Extreme Beispielrechnung:
Wollte man
2 LAN
2 x1 Slots
1 x4 Slot
PCI
6 jederzeit nutzbare SATA-Ports
2 eSATA-Ports
1 SATAexpress Port
und
1 M.2 Port mit voller Geschwindigkeit (4 Lanes)
auf einer Platine anbieten (und das ist noch kein absoluter Overkill, es gibt schließlich schon 1150-Boards mit 2x M.2 oder 10+ internen SATA-Ports), dann bräuchte man 16 bis 17 PCIe Lanes (zusätzlich zu den 16 der Grafikkarte, die direkt von der CPU kommen)
Haben tut man 8, mit Switch ganz selten mal 12. Alles andere wird über Splitter realisiert, die einzelne Komponenten abschalten, damit andere laufen können. In der Praxis sind es vor allem die Slots, die dran glauben müssen. Da hat man dann 2-3 x1 und einen x16 mit "bis zu" 4 Lanes physisch auf der Platine. Aber wenn man die restlichen Onboardfunktionen wirklich nutzt, werden die x1 abgeschaltet und beim "x4" kann man froh sein, wenn er noch zwei Lanes behält - oftmals ist er nur eine. Bei einigen Boards vermutlich gar keine. Dann kann man noch genau eine Erweiterungskarte einbauen -die Grafikkarte- und sich fragen, warum der ATX-Standard 7 Slots vorsieht. (und beten, dass wenigstens die Grafikkarte ihre 16 Lanes behalten durfte)


Edit: Wie man sieht: Mich stört das Thema ein Bisschen :ugly:
 
Danke für diese sehr ausführliche und gut verständliche Antwort!
Ist es denn so schwer für die Hardwareschiede mehr Lanes bereitzustellen? Oder wird dies einfach nicht als nötig angesehen?

Edit:
1. Gäbe es (natürlich kaum spürbare) Performance Verbesserungen, wenn man nicht benötigte Geräte im UEFI abschalten würde, oder wäre das egal, wenn diese nicht aktiv genutzt werden (z.B. onboard Sound)?
2. Wie sieht das grob angeschnitten bei AMD aus?
 
Zuletzt bearbeitet:
Mehr Lanes = aufwendige PCIe-Controller. Warum die soo selten/teuer sind, erschließt sich mir zwar auch nicht. Selbst So2011 CPUs mit ihren 40 Lanes verwenden für PCIe nicht mehr, als vielleicht die halbe Fläche eines DIEs+Cache. Bei Lanes von der CPU ergibt sich zwar zusätzlich das Problem, dass der Sockel aufwendiger wird - aber Lanes vom Chipsatz sollten eigentlich mit vertretbarem Aufwand machbar sein und die Verbindung CPU-Chipsatz könnte auch mal auf PCIe3-Geschwindigkeit aufgebohrt werden, so dass kein extremer Flaschenhals droht.

Bei AMD sieht es übrigens nur bedingt besser aus.
Die FX-Chipsätze für AMD3 haben zwar deutlich mehr Lanes (iirc 42 insgesamt), müssen aber auch die Grafikkarte anbinden und sind ihrerseits nur mit der Geschwindigkeit von ~10 PCIe3 Lanes an die CPU angebunden. Da kann man Genausogut Sockel1150 nehmen und der Grafikkarte 8 der CPU-Lanes klauen - mit PCIe3 x8 läuft die GPU genauso schnell, wie mit PCIe2 x16 auf AM3. Wenn es um die Anbindung von wirklich vielen Endgeräten geht, spart man sich ggf. einen PCIe-Switch, sonst gibt es keine Vorteile. (und z.B. für USB3 braucht man auf der veralteten Plattform sowieso extra Controller, für SATAe/M.2 auch,....)
FM2(+) wiederum hat iirc genauso insgesamt 24 Lanes, wie Sockel 1150. Theoretisch könnte AMD einen leichten Geschwindigkeits-Vorteil realisieren, weil hier 20 von der CPU kommen und 4 vom Chipsatz -> eigentlich könnte die Plattform mit 20x PCIe3 + 4x PCIe2 gegen Intels 16x PCIe3 und 8x PCIe2 antreten. Aber merkwürdigerweise unterstützten nur die ersten 16 Lanes von Kaveri 3.0 Geschwindigkeit, so dass doch Gleichstand herrscht.
Was ein echter Pluspunkt bei AMD ist: Der A88X ist der derzeit vielseitigste Chipsatz im Consumersegment. Im Vergleich zum Z87/97 hat er zwar zwei USB3 Ports weniger (aber vier sollten eigentlich reichen) und unterstützt nativ kein M.2/SATAe (was mit 2x PCIe2.0 aber ohnehin langsamer ist, als die 2x SATA3, die bei Intel dafür deaktiviert werden). Aber im Gegenzug hat er 8 SATA3 Ports und einen integrierten PCIe Controller. Bei Mittelklasse-Boards werden dafür meist zusätzliche Controller/Bridges verbaut, die je eine Lane verbrauchen - bei AMD bleiben diese für andere Zwecke frei.

Blöd nur, dass es keine Core i7 für FM2 gibt :ugly:
 
Zuletzt bearbeitet:
Zurück