News Asus Hyper M.2: Bis zu 4 NVMe-SSDs per PCIe 5.0 x16 mit 512 Gibit/s anbinden

Zumindest bei den Ladezeiten sicherlich. Mit einer Festplatte statt SSD kann man heute schon sehr alt aussehen. Alleine schon wegen der Ladezeiten will ich meine Spiele auch mindestens auf einer NVMe haben. Bei Daten bin ich auch Bereit, eine lahme QLC-SATA-SSD zu nutzen.
Völlig am Thema vorbei!?
Um HDDs gings nie, sondern nur ob der Speed einer einzelnen NVMe SSD gegenüber einem 4 fach RAID die durch diese Karte möglich wird spürbar/messbar wäre. HDDs kommen dagegen von nem anderen Stern.
Und warum nebendabei gegen QLC SSDs gebasht werden muss ergibt auch keinen Sinn. Ja, die sind schreiben langsamer - sobald der Cache voll ist wenn mans mal wieder krachen lässt und unmengen an Daten am Stück schreibt oder die Platte fast komplett voll ist.
Lesend sind die Teile mit TLC SSDs aber gleichauf und um was anderes gehts bei nem Installiertem Programm/Spiel meist nicht.
 
Um HDDs gings nie, sondern nur ob der Speed einer einzelnen NVMe SSD gegenüber einem 4 fach RAID die durch diese Karte möglich wird spürbar/messbar wäre.
Von NVMe habe ich da nichts gelesen. Die Karte kann maximal um die 40 GB/s lesen und schreiben (ggü. 10GB/s einer PCIe 5.0 x4 M.2 NVMe SSD), bedeutet, dass ein Spiel vermutlich im Millisekunden-Bereich schneller/langsamer lädt.

Und warum nebendabei gegen QLC SSDs gebasht werden muss ergibt auch keinen Sinn.
Naja, QLC SSDs sind bei hoher Schreiblast so schnell wie Festplatten, also ca. 100 MB/s. Ich habe letztens meine Steam-Bibliothek von NVMe/SATA auf eine U.2 kopiert. Das waren über 2 TB. Das hätte sehr unangenehm lange gedauert, wenn die neue nur eine QLC-SATA-SSD wäre. Die QLC-SSDs haben ja bei 2 TB Speicherplatz sowieso nur 250GB Cache, ist also schnell voll.
Zugegeben, für Spiele wäre das auch geradeso noch OK. Edit: Hauptsächlich möchte ich da geringe Ladezeiten haben, deshalb NVMe.
 
Zuletzt bearbeitet:
Moin zusammen. Wir sind überrascht über den Anklang der News hier. So ein Teil ist natürlich ein schönes Spielzeug für synthetische Benchmarks. Aber (Disclaimer: ernstgemeinte Frage) weiß denn jemand, in welchen halbwegs praktischen Anwendungsfall so ein SSD-Raid für einen Prosumer einen Sinn ergeben könnte?
 
Die QLC-SSDs haben ja bei 2 TB Speicherplatz sowieso nur 250GB Cache, ist also schnell voll.
Zugegeben, für Spiele wäre das auch geradeso noch OK. Edit: Hauptsächlich möchte ich da geringe Ladezeiten haben, deshalb NVMe.
250 GB bei 2 TB finde ich schon nicht schlecht. Fairerweise finde ich, dass diese Hybrid Lösungen mit schnellem Speicher oder Cache eigentlich langsamere Technologien durchaus brauchbar machen. Also QLC SSDs mit TLC Cache oder die CMR/PMR Area von SMR HDDs. Ich betanke letztere gerne mal mit 200-300 GB Schüben. Ich meine, so ab 60-90 GB wird es langsam. Beim Lesen ist die Platte super flott. Wenn bei SSDs die Schreibrate nach 100 GB einbricht, finde ich das auch nicht so dermaßen dramatisch. Die Menge muss man erst mal mit so einem riesigen Tempo schreiben können. Man müsste auf 1+ GBit/s kommen. Internetleitungen geben das selten her. Da muss man sich auch mal ganz ehrlich selbst fragen, wie häufig einen das ärgert und ob man dann nicht doch besser ~20% drauflegt und zur besseren SSD greift.

ASRock hat übrigens auch eine Quad m.2 Karte für gut 100 Euro im Angebot. Die hat "nur" PCIe 4.0, aber scheint von der Ausstattung mit dem DIP Switch m.2 Slots abschalten zu können, damit mehr Lanes für die anderen Slots benutzt werden können; so zumindest laut dem Video Review. Die beiden bzw. 3 Asus Karten scheinen bisher "dümmer" zu sein. Leider geht im Vergleich nicht hervor, wie sich die Karten von der Ausstattung her unterscheiden.

@PCGH_Manu den Usecase für einen RAID suche ich auch noch. Die Ladezeiten bei Spielen wird es vermutlich nicht so wirklich verbessern. Irgendwo stockt es dann doch wieder. Ich hatte damals, als SSDs noch kein Ding waren, mal Mafia auf eine RAMDisk geschmissen. Man möchte ja meinen, die Ladebildschirme müssten verschwinden, aber der übliche Stockpunkt war doch noch da. Da bottleneckt dann wahrscheinlich irgendwann einfach das Betriebssystem mit seinen Syscalls oder der Speicher. Diese Festspeicher zu GPU Technik ist auch noch nicht so weit verbreitet. Ob es sich alleine für die Entwickler lohnt, 20 GB an Texturen binnen weniger als einer Sekunde in die VRAM zu pumpen, bezweifle ich. Dann doch eher kurze Ladezeiten und dann im Hintergrund weiter laden. Gamer sind höchstens die Zielgruppe, wenn es darum geht, etliche SSDs in den Rechner zu packen, damit die Spielesammlung lokal verfügbar ist.
Einen Schönheitspreis gewinnen diese Erweiterungskarten auch nicht (bitte nehmt das nicht als Anlasse, fette Kühlkörper und RGB dranzuklatschen). Mal angenommen, wir reden hier über eine Schreibrate von weit mehr als 1 GB/s... Ich glaube kaum, dass das noch als Prosumer vernünftig auslastbar ist. Mir fallen dazu nur Medienbearbeitung mit unkompromierten Daten ein oder ggfs. auch Machine Learning Anwendungen.
Ich finde diese Karten auch verhältnismäßig günstig. Scheint ja auch nicht viel dran zu sein, weil 80% der Fläche einfach nur Trägermaße für die SSDs ist.
Erneut mit Bezug auf das Video Review sieht auch der Ersteller die Karte als Edge Case Produkt, für Leute, die einfach nur von der Kühlung profitieren wollen oder einfach nur 2 weitere m.2 SSDs anschließen wollen, weil das Mainboard nicht mehr anbietet. Wobei ich mit dem "Abschalten" über den Switch vorsichtig wäre. Die Verdrahtung scheint überwiegend direkt von dem m.2 Slot auf die PCIe Slot zu gehen.
Wenn ihr also ein nettes Spielzeug zum günstigen Preis mal testen wollt, kommt mit Sicherheit ein lesenswerter Artikel heraus bei dem man die Karte mit ihrer Leistung im RAID und einzeln sowie mit ihren Limitierungen vorstellen kann.
 
Moin zusammen. Wir sind überrascht über den Anklang der News hier. So ein Teil ist natürlich ein schönes Spielzeug für synthetische Benchmarks. Aber (Disclaimer: ernstgemeinte Frage) weiß denn jemand, in welchen halbwegs praktischen Anwendungsfall so ein SSD-Raid für einen Prosumer einen Sinn ergeben könnte?
nö.
Für mich wäre so eine Karte eine Möglichkeit bis zu vier extra M2-SSDs unterzubringen.
Auch die Geschwindigkeit wäre für kein extra Kaufgrund.
Wenn es das Vorgängermdell (PCIe 4.0) günstiger gibt würde das auch ausreichen.
 
Exakt so würde ich das auch sehen, das wäre eine Möglichkeit mehr SSD Speicher unterzubringen ... m2 Slots haben normale Mainboards nur 1-3 ... und da es m2 SSDs außerhalb der Serverformate nur bis maximal 8 TB gibt ...

Stellt sich halt die Frage ob man auf den Adapter vom Artikel oder auch das ASRock Ding 8 TB nvm SSDs packen könnte oder ob es da eine Größenbeschränkung gibt ...

@Schnitzelnator Du schreibst "PCIe x16 auf U.2-Adapter für 4 U.2-SSDs" ... welchen würdest Du da ins Auge fassen? Ich hatte mal geguckt aber so adhoc nichts gefunden, hast mal nen Link? Grade eben einen Adapter wo man mehr als eine SSD anschließen kann.
Nachteil von U.2/U.3 ist natürlich das man da eigene Stromanschlüsse vom Netzteil benötigt ...

Hintergrund meines Interesses: Ich habe einen neuen PC von April 2023, der hat eine 2 TB nvm für Windows/Spiele, dann hatte ich noch eine 2 TB SSD von Crucial ... da das aber nicht genug Speicherplatz ist, habe ich noch eine alte WD Red mit 10 TB eingebaut ... die sorgt dafür das das Gehäuse vibriert und somit brummt ... das nervt mich! Die würde ich gerne ausbauen. Da die aber ziemlich voll ist müsste ich entweder Daten löschen um dann eine 8 TB SSD einzubauen oder ich nehme eine größere und habe dann Platz ... m2 SSDs mit 8 TB gibt es aktuell nur 4 Stück:


EDIT: man liest ja immer von PCIe Bifurcation ... kann mein ASRock B650 PG Lightning so etwas überhaupt? :)

EDIT2: Offtopic, aber weiß einer wie man den PCGH Banner verklickert das er a) nicht die Onboard Grafik anzeigen soll und b) evtl. auch wie man den richtigen RAM Takt von 6000 da rein packt?
 
Zuletzt bearbeitet:
Stellt sich halt die Frage ob man auf den Adapter vom Artikel oder auch das ASRock Ding 8 TB nvm SSDs packen könnte oder ob es da eine Größenbeschränkung gibt ...
Ich wage mal zu behaupten, dass die Trägerkarte damit wenig zu tun hat sondern mehr dein Mainboard/CPU/NVMe Protokollversion.

m2 Slots haben normale Mainboards nur 1-3
Liegt vermutlich daran, dass die Hersteller die PCIe Lanes aufteilen müssen. Das ASRock X670E Pro RS hätte 5 m.2 Slots. Wobei das Blockdiagramm auch schön darstellt, dass 2 m.2 Slots direkt an die CPU angebunden sind, ein weitere am 1. (!) Chipsatz, der sich 4 Lanes mit einer Menge anderen Dingen teilen muss und unter anderem auch mit einem 2. (!!) Chipsatz, der noch mal 2 m.2 Slots bereitstellt, die sich ordentlich Bandbreite bis zur CPU teilen müssen.
In einen meiner Rechner habe ich auch das Problem, dass ich die 6 SATA Anschlüsse belegt hatte, eine 2. m.2 SSD eingebaut hatte und nur noch 4 SATA Anschlüsse hatte. :D
PCIe Lanes sind knapp. Das kannst du auch aus dem Datenblatt des Prozessors herauslesen wie beispielsweise für den 7800X3D: 28 Lanes/24 Usable. Wenn du 16 davon an die Grafikkarte abgibst, bleiben noch 8 übrig, die direkt an die CPU gehen. Die 4 "verlorenen" Lanes gehen an den Chipsatz. Bleiben also genau 8 Lanes übrig, die mit voller Geschwindigkeit laufen können. Über den Chipsatz kann man noch mehr Lanes bereitstellen, aber am Ende baut man ein riesiges Bottleneck über die 4 Lanes zur CPU auf.
Wenn du mehr suchst, musst du mal im Serverbereich schauen. Die AMD Epyc bieten 128 PCIe Lanes – gerne aufgeteilt auf z.B. 4 PCIe x16 Slots auf einem ASrock Rack Mainboard. Übel!
 
Du schreibst "PCIe x16 auf U.2-Adapter für 4 U.2-SSDs" ... welchen würdest Du da ins Auge fassen?
Mir selbst reicht eine 7TB NVMe U.2 SSD in meinem HTPC, deshalb habe ich nur einen M.2 auf U.2 Adapter. Da sind einfach nur die PCIe-Lanes an den SFF-8643 Port durchgereicht. Natürlich sind es gleich viele Lanes und somit ist kein PCIe-Bifurcation nötig. Aber dafür gibt es auch viel größere, schnelle SSDs:
Allerdings ist es jetzt quasi zu spät - die günstigen Preise sind bei den U.2-Platten schon wieder vorbei. Hab noch Glück gehabt - vor ein paar Tagen war es noch OK, selbst für private Nutzung.

Wenn das Board Bifurcation kann, gibt es auch PCIe x16-Adapter mit 4 SFF-Ports, wie diesen: https://www.ebay.de/itm/225726323076

Ansonsten bräuchte man eine Karte mit Controller. Und da gibt es natürlich dann auch ein Problem: Der Controller würde ja dann z.B. sagen: Hey, ich bin PCIe 3.0 oder 4.0-kompatibel, statt dass die Lanes einfach durchgeleitet werden an die SSD. Und das wäre dann schon einmal für die Leistung möglicherweise schlecht.
Zwar gäbe es vielleicht einen PCIe 4.0 x16-Controller mit vier SFF-Anschlüssen, aber das würde vermutlich bei den meisten das Budget sprengen aktuell.
 
Zuletzt bearbeitet:
Insgesamt 14 sind unrealistisch, das muss pro SSD gelten - einfach weil bei 14 Watt insgesamt, also unter 4W pro SSD, die allermeisten SSDs gar nicht funktionieren würden, erst Recht keine PCIe5.0-Modelle die locker weit über 10W kommen bei Burstlast.

Ja, die 56W würden auch noch aus dem Slot gehen. Aber.
Es wird noch eine gewisse Sicherheit für Peaks da sein da eine PCIe5-SSD kurzzeitig auch noch mehr ziehen kann und viel wichtiger - viele Boards bieten zwar Normkonform 75W pro Slot an - aber klappen zusammen wenn das in zwei Slots gleichzeitig passieren soll. Wer da eine Grafikkarte einsetzt die aus dem ersten Slot schon volle leistung will und dann noch aus einem zweiten Slot ebenfalls 75W haben will kann da schnell Probleme mit der Stabilität bekommen (manche Boards haben sogar einen Extra Stromanschluss seitlich zusätzlich zum ATX24er nur dafür, die Slots zu stabilisieren!).

Auf die Adapterkarte einen zusätzlichen 6-pol PCIe aufzulöten ist also schon die richtige Entscheidung.
Perfekt wäre, wenn der optional einsetzbar ist, also die Karte auch ohne funktionieren würde wenn der Slot stark genug ist und nur falls nicht der Zusatzstecker aushilft.

Letzteres wäre etwas aufwendiger, wenn man die Spezifikationen einhalten will, denn man darf eine Power-Rail des Netzteils nicht einfach mit einer anderen Parallel schalten. Echtes Multi-Rail (mit getrennten Wicklungen, kein Split-Rail mit getrennten Sicherungen) ist zwar ausgestorben, aber Specs sind Specs. Will man ein Bauteil wahlweise über Slot oder über Stecker versorgen, muss man also ein schaltendes Element dazwischenpacken. Man darf nicht einfach die 12-V-Adern beider Wege verbinden.

Mein Tipp: Der 6-Pin ist Pflicht und eine RMA-Reduzierungsmaßnahme. Das eigentlich beabsichtigte Arbeitgesbiet solcher Karten sind Prosumer-Workstations, in denen noch 2-3 High-End-Karten als Beschleuniger stecken. Bei kreativen Bastlern mit Riser gegebenenfalls mehr. Aber nicht unbedingt sauber durchgespeckte Profi-Modelle, deren Kunden kaufen ihren Adapter eher nicht in Asus ROG-Sparte, sondern einfach die dicken Retail-Gaming-Teile, die sich bis zu 75 W aus "einem" PEG ziehen wollen. Machen das drei Stück gleichzeitig, reicht ein 24-Pol-ATX-Stecker aber nicht mehr aus, um genug Strom nachzuliefern. Die meisten Platinen für diesen Markt haben deswegen zusätzliche Stromanschlüsse (Molex/SATA/6-Pin), aber man kennt ja die DAUs: "Optional lass ich weg". Und schon geht der vierfach-M.2-Karte mitten im Schreibvorgang der Strom aus, die Daten sind pfutsch, der Hersteller der Karte wird als schuldiger ausgemacht und ist Thema des nächsten Youtube-Videos...
Ruf-sichernde Maßnahme: Für ein paar Cent einen extra Stecker anlöten und schon kann der DAU das Ding nur noch mit separater, hoffentlich belastbarer Stromversorgung in Betrieb nehmen.


und wenn es einen zweiten 16x PCIe Steckplatz gibt est der auch nicht immer ~Bifurcation fähig.
Man hat also so zwar dann ggf. 8x Anbindung aber das wäre dann auch nur für eine SSD Karte.

Schade das man bei MoBos welche ein zweiten 16x PCIe Steckplatz mit Bifurcation (nur 8x angeschlossen) haben auch nicht 2x Übertragung möglich wäre.
So könnte man dann sich entscheiden vier SSDs mit 2x oder zwei SSDs mit 4x laufen lassen will.
Selbst mit 2x PCIe 3.0 wäre das noch knapp 2GB/s und deutlich schneller als SATA.
Mit 2x PCIe 4.0 übertragung dürften alle "alten" SSDS ala Samsungs 970 Evo Plus völlig versorgt sein und
mit 2x PCIe 5.0 übertragung dürften sogar viele neuen SSDs wie die Samsungs 990 Pro völlig versorgt sein.

Es gibt solche Adapter auch mit ×2-Steckplätzen, dann meist ×16 auf achtmal M.2 (was auch als ×8 auf viermal funktionieren kann). Aber die haben entsprechend ein anderes Routing der Leiterbahnen; ich denke nicht dass sich Umschalttechnik mit Splittern gegenüber zwei getrennten PCB-Designs lohnen würde. Allerdings gibt es sehr viel Mainboards, die Bifurcation bis auf ×4-Ebene Unterstützen denn bis auf ×2. Ich bin mir aktuell nicht einmal sicher, ob Ryzens das überhaupt können.


Gibt es aktuell überhaupt ein Board das 2 mechanisch, wie auch elektrisch angebundene PCIe 5 Steckplätze bietet? Mir wären nur welche bekannt, die mechanisch x16, aber elektrisch nur x8 zur Verfügung stellen.

Im Endanwender-Desktop: Nein. Es gibt ja keine CPU, die mehr als 24 PCI-E-5.0-Lanes zur Verfügung stellen kann und PCI-E-5.0-Switches sind viel zu teuer. Schon mehr als 16 Lanes für Erweiterungskarten mit garantierter 5.0-Geschwindigkeit ist sehr selten. Aber wenn du dir einen Epyc (bzw. bald Threadripper 7000 Pro) oder ein LGA4677-System kaufst (ab 1.100 Euro für CPU und Platine, 1.800 wenn der Takt stimmen soll), ist das absoluter Standard.


EDIT: man liest ja immer von PCIe Bifurcation ... kann mein ASRock B650 PG Lightning so etwas überhaupt? :)

Meine (interne) Testtabelle sagt: Ja. Als explizite Option zumindest bis 4/4/4/4 runter. Asrock war da schon früher führend und bei AM5 ist der Support allgemein sehr gut, da die Option Teil von AGESA respektive der Standard-AMD-Menüs ist. Selbst A620-Platinen bieten sie. Nur ob ×2 geht, weiß ich gerade nicht, wie weiter oben beschrieben. I/O-Hubs können sowas natürlich, aber CPU-Controller sind oft auf gröber beschränkt. Bei Intel kann der 5.0-Block zum Beispiel allgemein nur zwei Links aufbauen. Ich weiß nicht, ob 12+4 theoretisch möglich wäre, aber 8+4+4, wie bei früheren Plattformen, können die Mainboard-Hersteller schlicht aus technischen Gründen nicht mehr anbieten. Deswegen sind die Onboard-5.0-M.2 auf LGA1700-Platinen auch besonders sinnbefreit.


Mir selbst reicht eine 7TB NVMe U.2 SSD in meinem HTPC, deshalb habe ich nur einen M.2 auf U.2 Adapter. Da sind einfach nur die PCIe-Lanes an den SFF-8643 Port durchgereicht. Natürlich sind es gleich viele Lanes und somit ist kein PCIe-Bifurcation nötig. Aber dafür gibt es auch viel größere, schnelle SSDs:
Allerdings ist es jetzt quasi zu spät - die günstigen Preise sind bei den U.2-Platten schon wieder vorbei. Hab noch Glück gehabt - vor ein paar Tagen war es noch OK, selbst für private Nutzung.

Abwarten und Tee trinken. Wenn so ein Laufwerk prinzipiell rabattierbar ist, kommen die Angebote in Zyklen teilweise immer wieder. Ich habe meine U.2 auch gekauft, als sie das zweite Mal für 55 Prozent des normalen Preises angeboten wurde und später gab es die Chance noch weitere zwei-, dreimal. Jeweils so für eine knappe Woche. Nur die PX4800 und PX5800 scheinen von solchen Zyklen leider allgemein ausgenommen zu sein. :-(
@Intel: Ich brauche ein ... äh ... Testmuster. Genau. Für einen sehr, sehr, sehr zeitaufwendigen Test.
 
@Schnitzelnator Bei den Samsung OEM Dingern stört mich immer das dabei steht das es keinen Support für Endkunden gibt ... gibt ja aber auch u.2 Dinger mit Support ...

Prinzipiell: Mein Mainboard hat 3 m2 Slots, wovon aktuell nur einer belegt ist, der zweite wird aber komplett von der Grafikkarte verdeckt, der dritte ist ein pcie 4x2 ... also nur halbe Bandbreite ... das sollte mir eigentlich egal sein von der Leistung her ...

Ganz unten ist noch ein PCI Slot frei (PCIe 4.0 x1) aber ah ist der noch langsamer angebunden als die m2 Slots, dann ist die 4070ti auch sehr riesig da bleibt wenig Platz ... da würde sich daher evtl. son Adapter anbieten, dann könnte man die u.2 oder so SSD sonstwo verbauen und dahin ein Kabel machen ...

BTW: Die u2/u3 SSDs, bekommen die ihren Strom direkt oder müssen die auch noch ans Netzteil angeschlossen werden?
Hintergrund: Mein Gehäuse war wohl ein Fehlkauf (bequit silent base 802), weil ich komme ums Verrecken nicht mit der Hand bis zu den Anschlüssen hinten, kann also kein weiteres Kabel anstecken, außer ich baue das Netzteil aus, frage mich eh wie die das eingebaut haben (hab ich von Mindfactory zusammenschrauben lassen). Daher habe ich nur 3 Stromanschlüsse für SATA etc., daran hängen aktuell die eine HDD, die MX500 und die Lüftersteuerung.

PS: Die Lüftersteuerung ist aber eh schräg, sie hat 3 Einstellungen: 1, 2, 3 und Auto, 3 und Auto sind das gleiche weil volle Pulle :D

 
Bei den Samsung OEM Dingern stört mich immer das dabei steht das es keinen Support für Endkunden gibt ... gibt ja aber auch u.2 Dinger mit Support ...
Man hat 2 Jahre Gewährleistung durch den Händler. Davon 1 Jahr vor der Beweislastumkehr. Insofern ist man mindestens 1 Jahr lang safe, wenn etwas kaputt geht, und man bei einem anständigen Händler gekauft hat.
Bei Datenträgern muss man sich aber auch immer die Frage stellen, ob man die überhaupt nach 1 Jahr noch umtauschen wollen würde, wenn sie kaputt gingen - denn faktisch wären da ja sehr viele Daten drauf, die den Hersteller nichts angehen.
Ich habe z.B. privat schon einmal eine SSD umgetauscht, die erst ein paar Tage alt war und wo ich nur eine Neuinstallation gemacht hatte, bevor sie durch einen Defekt kaputt ging, aber z.B. im professionellen Bereich halte ich das Inanspruchnehmen des Supports bei einem Defekt für ziemlich ausgeschlossen. Auch privat würde ich das eher nicht machen, wenn der Datenträger schon länger in Benutzung war und man sehr viel über mich profilen könnte.
Es sei denn natürlich, man verschlüsselt die komplette SSD. Dann braucht man sich da kaum Sorgen machen.
Die u2/u3 SSDs, bekommen die ihren Strom direkt oder müssen die auch noch ans Netzteil angeschlossen werden?
Die müssen mit einem SATA-Stromstecker ans Netzteil angeschlossen werden. Man braucht dazu einen entsprechenden Stecker vom SFF-Anschluss auf dem PCIe-Adapter zu dem U.2-Anschluss, und das Kabel hat dann noch einen Anschluss für den SATA-Stromstecker.
Daher habe ich nur 3 Stromanschlüsse für SATA etc., daran hängen aktuell die eine HDD, die MX500 und die Lüftersteuerung.
Das wäre dann natürlich problematisch, weil man, wie erwähnt, die U.2-SSD auch noch per SATA-Stromstecker mit Strom versorgen muss.

Ein entsprechendes Kabel (Die Adapterkarte ignorieren) sieht so aus: https://m.media-amazon.com/images/I/41b5UGirboL._SL500_.jpg
 
Sind bei 100 Prozent Geschwindigkeit und unkomprimiert auch "nur" 4 GB/s, also gerade mal eine PCI-E-3.0-SSD auslastend. 5.0 könnte entsprechend mit ×4 spulen, ohne zu skippen respektive vier Takes parallel in Echtzeit lesen. Klar, wenn man dann konvertiert, arbeitet man nicht mehr in Echtzeit, sondern ASAP. Aber ganz ehrlich:
Wer arbeitet denn mit Videoinhalten dieser Größe komplett unkomprimiert? Selbst mit laschen oder verlustfreien Codes sinkt die Speichermenge extrem. Für 2160p24 werden teils unter 30 Mb/s angegeben, für "high frame rate" nennt Adobe 10 MB/s. Also selbst wenn man da nochmal Faktor vier drauf legt, weil man doppelte Qualität und doppelt hohe Framerate haben will, könnten moderne Festplatten Geschwindigkeit x5 und eine einzelne 5.0-SSD durchaus Faktor x300 erreichen. Aber welche CPU de- und encodiert dir 4K-Streams mit 36.000 Fps, sodass sich auch nur diese Geschwindigkeit ausreizen ließe?

(Anm.: Alle Angaben in der Annahme, dass man ein zweites Laufwerk als Ziel einbaut, was bei High-End-AM5 ja selbst mit 5.0 out of the box geht. Bei lesen und schreiben aufs gleiche Laufwerk dürften die Controller entsprechend früher limitieren, aber auch 10-18 kFps, also 5 Minuten p60-Material pro Sekunde, sind ... viel, glaube ich. :-))
 
Man hat 2 Jahre Gewährleistung durch den Händler. Davon 1 Jahr vor der Beweislastumkehr. Insofern ist man mindestens 1 Jahr lang safe, wenn etwas kaputt geht, und man bei einem anständigen Händler gekauft hat.
Bei Datenträgern muss man sich aber auch immer die Frage stellen, ob man die überhaupt nach 1 Jahr noch umtauschen wollen würde, wenn sie kaputt gingen - denn faktisch wären da ja sehr viele Daten drauf, die den Hersteller nichts angehen.
Ich habe z.B. privat schon einmal eine SSD umgetauscht, die erst ein paar Tage alt war und wo ich nur eine Neuinstallation gemacht hatte, bevor sie durch einen Defekt kaputt ging, aber z.B. im professionellen Bereich halte ich das Inanspruchnehmen des Supports bei einem Defekt für ziemlich ausgeschlossen. Auch privat würde ich das eher nicht machen, wenn der Datenträger schon länger in Benutzung war und man sehr viel über mich profilen könnte.
Es sei denn natürlich, man verschlüsselt die komplette SSD. Dann braucht man sich da kaum Sorgen machen.

Die müssen mit einem SATA-Stromstecker ans Netzteil angeschlossen werden. Man braucht dazu einen entsprechenden Stecker vom SFF-Anschluss auf dem PCIe-Adapter zu dem U.2-Anschluss, und das Kabel hat dann noch einen Anschluss für den SATA-Stromstecker.

Das wäre dann natürlich problematisch, weil man, wie erwähnt, die U.2-SSD auch noch per SATA-Stromstecker mit Strom versorgen muss.

Ein entsprechendes Kabel (Die Adapterkarte ignorieren) sieht so aus: https://m.media-amazon.com/images/I/41b5UGirboL._SL500_.jpg
Dein Link tut's nicht.
So wie ich ds sehe, braucht man nur so eine PCIe Adapter Karte, wo die U.2 eingesteckt wird und fertig, oder?
Sowas hier beispielsweise, oder?
 

Anhänge

  • Screenshot_20231010-174419.png
    Screenshot_20231010-174419.png
    458,7 KB · Aufrufe: 6
Wenn ich den Linktext koiere und einfüge, passt es auch. Wenn ich aber einfach drauf tippe, ist der Link viel länger und zeigt einen Fehler.

Wird so ein Kabel nur benötigt wenn man ohne PCIe Karte arbeitet, oder zusätzlich?
 
U.2 ist eigentlich ein für den Kabelbetrieb gedachter Formfaktor: Anschluss auf dem Mainboard => Kabel => Laufwerk. So wie bei SATA respektive SAS, als dessen Nachfolger U.2 fungiert. Hat man keinen nativen Anschluss auf dem Mainboard, kann man sich mit Adaptern von M.2 oder von PCI-E ×4 behelfen.
Die von dir verlinkte Karte ist eher ein Sonderfall, mit dem man das U.2-2,5-Zoll-Laufwerk direkt im Slot montiert und dann nichts weiteres mehr braucht. (Aber einen freien ×4-Slot muss man auch erstmal über haben. Auf den meisten Mainboards ist es viel leichter, von M.2 auszugehen.) Im Prinzip ist das ein Adapter mit integriertem Kabel in Form einer starren Platine. So wie es z.B. auch kleine SATA-SSDs gab, die man ohne Kabel direkt in den normalen SATA-Port auf dem Mainboard gesteckt hat.
 
"Disk on module" SATA war überwiegend für Server und embedded-Systeme gedacht, die man nach Möglichkeit auch einen modifizierten SATA-Stecker mit einem zusätzlichen 5-V-Kontakt hatten. (Wenn ich mich richtig erinnere seitlich auf der Spitze des ohnehin verdickten Endes, also im 90°-Winkel zu den normalen Kontakten, wo normalerweise gar nichts ist.) Ansonsten nutzte man sehr feine Kabel auf Molex- oder auf SATA-Stecker.

Ich hab übrigens mal geguckt: Die PCI-E-Slot-auf-U.2-Adapterkarten gibt es auch in vierfach-Ausführung. Wem die Asus-Karte also nicht dick genug ist, der kann auch eine Lösung für vier 2,5-Zoll-Laufwerke in sein Mainboard stecken.^^
 
Die PCI-E-Slot-auf-U.2-Adapterkarten gibt es auch in vierfach-Ausführung. Wem die Asus-Karte also nicht dick genug ist, der kann auch eine Lösung für vier 2,5-Zoll-Laufwerke in sein Mainboard stecken
Hab auch mal neulich daheim in meine Bastelkiste geschaut - habe mehrere in einfach-Ausfuhrung (aktiv in Benutzung, zusätzlich sogar mit 1x->4x-Adapter im 3.0x1-Slot), einen mit zweifach-Ausführung und in vierfach-Ausführung ebenfalls. Vielleicht bastle ich mal vier U.2-2,5"-er drauf wenn ich zuhause bin und poste dann das (hardware-porno-) Bild hier später ;)
 
Zurück