News Großer Performancesprung mit 26 GB/s: Micron stellt erste PCIe-6.0-SSD vor

Nein. Mehr Daten über eine andere Kodierung zu übertragen hat eine völlig andere Wärmesignatur
Grob lässt sich eine lineare Verknüpfung zwischen Datenmenge und Wärmeentwicklung herleiten. Mehr Daten = mehr Entropie = mehr Wärme. ChatGPT gibt mir recht:

Stimmt es dass je mehr Daten in der Computertechnik übertragen werden die Entropie steigt und auch die Wärmeentwicklung? Wie sind Entropie und Wärme miteinander verknüpft?


Ja, es stimmt, dass je mehr Daten in der Computertechnik übertragen werden, die Entropie steigt und auch die Wärmeentwicklung zunimmt. Dies hängt mit den grundlegenden Prinzipien der Informationstheorie und der Thermodynamik zusammen.

Entropie in der Informationstheorie​

In der Informationstheorie, die von Claude Shannon entwickelt wurde, ist Entropie ein Maß für die Unbestimmtheit oder den Informationsgehalt einer Nachricht. Wenn mehr Daten übertragen werden, steigt typischerweise die Entropie, weil mehr Informationen verarbeitet und übertragen werden müssen. Ein höherer Informationsgehalt bedeutet, dass mehr mögliche Zustände oder Nachrichten berücksichtigt werden müssen, was zu einer höheren Entropie führt.

Wärmeentwicklung und Energieverbrauch​

Jede Datenverarbeitung und -übertragung in einem Computer erfordert Energie. Diese Energie wird hauptsächlich in Form von elektrischer Energie zugeführt, die dann durch die Schaltkreise und Bauteile fließt. Ein Teil dieser Energie geht unweigerlich als Wärme verloren, was eine direkte Folge des zweiten Hauptsatzes der Thermodynamik ist, der besagt, dass bei jeder Energieumwandlung Entropie erzeugt wird.

Verknüpfung von Entropie und Wärme​

Entropie in der Thermodynamik ist ein Maß für die Unordnung eines Systems. Wenn ein Computer arbeitet, erzeugt er durch die elektrische Energie, die durch seine Komponenten fließt, Wärme. Diese Wärme ist eine Form von Energie, die auf mikroskopischer Ebene die Unordnung (Entropie) des Systems erhöht.
Die Verknüpfung zwischen der Informationstheorie und der Thermodynamik kann durch den Landauer'schen Grundsatz verdeutlicht werden. Rolf Landauer zeigte, dass die Löschung eines Bits an Information mit einer minimalen Wärmeerzeugung verbunden ist. Konkret besagt Landauers Prinzip, dass das Löschen eines Bits an Information mindestens kTln⁡2kT \ln 2kTln2 Joule Wärme erzeugt, wobei kkk die Boltzmann-Konstante und TTT die absolute Temperatur ist.

Zusammenfassung​

  • Datenübertragung und Entropie: Mit steigender Menge an übertragenen Daten nimmt die Entropie in der Informationstheorie zu, da mehr Informationen verarbeitet und transportiert werden.
  • Wärmeentwicklung: Die Verarbeitung und Übertragung von Daten erfordert Energie, die teilweise in Form von Wärme verloren geht.
  • Thermodynamische Entropie: Die bei der Datenverarbeitung erzeugte Wärme erhöht die thermodynamische Entropie des Systems.
  • Landauer'sches Prinzip: Es zeigt die Verbindung zwischen Informationsverarbeitung und Wärmeerzeugung und quantifiziert die minimale Wärmemenge, die beim Löschen eines Bits an Information entsteht.
Diese Prinzipien sind fundamental für das Verständnis der physikalischen Grenzen der Informationsverarbeitung und betonen die Notwendigkeit effizienter Energieverwendung in der Computertechnik.
 
Willkommen im neuen Internet. Wer keine Ahnung von technischen Details hat fragt einfach ChatGPT nach einer generellen Aussage über Entropie und versucht damit ein Totschlagargument für konkrete Problemstellungen zu finden obwohl letztere damit nur ganz am Rande was zu tun haben.

Was du da machst ist wie bei einer Diskussion ob ein Zweizylinder-Motor mit 2x 1 Liter Hubraum die gleichen Charakteristiken/Eigenschaften hat wie ein Vierzylinder-Motor mit 4x 0,5L Hubraum weil das ja alles wurscht ist damit zu begründen dass ChatGPT sagt "wenn man mehr Hubraum nutzt und Füllgrad, Kreisprozess, Entropie, Thermodynamik, Tribologie, [weitere Fachwörter einfügen],... dann braucht der Motor mehr Kraftstoff und gibt mehr Wärme ab."
Stimmt wenn alles andere gleich bleibt. Und natürlich entsteht mehr Wärme bei mehr Daten wenn alles andere gleich bleibt. Eben genau das ist aber nicht so weil die Laneverteilung, Codierung, Frequenz, Controller uvm eben NICHT gleich bleiben!

An der Stelle hat Bigboymann Recht - solche Diskussionen mit dir haben wirklich keinen Sinn.

EDIT: Mal zum Spaß, du hättest ChatGPT auch die eigentliche Frage stellen können:
1723061738183.png


Direkt im ersten Satz weiß sogar ne noch immer strunzhohle KI, dass es wie wir die ganze Zeit versuchen zu erklären NICHT egal ist ob 2 schnelle oder 4 langsame Lanes da sind.
 
Wenn mehr Daten übertragen werden, steigt typischerweise die Entropie, weil mehr Informationen verarbeitet und übertragen werden müssen. Ein höherer Informationsgehalt bedeutet, dass mehr mögliche Zustände oder Nachrichten berücksichtigt werden müssen, was zu einer höheren Entropie führt.
Beim nächsten Mal bitte wenigstens Wikipedia fragen. Die verrät dir nämlich als Erstes, dass es den Begriff „Entropie“ sowohl in der Informationstheorie als auch in der Thermodynamik gibt und beides völlig unterschiedliche Dinge sind, die man nicht einfach miteinander verwursten kann.

Im Kontext der Informationstheorie hängt die Entropie davon ab, wie viele verschiedene Symbole (also mögliche Zustände) es in einer Nachricht gibt, und mit welchen Wahrscheinlichkeiten diese auftreten. Je mehr verschiedene Symbole die Nachricht enthält und je gleichmäßiger diese auftreten, desto größer wird die Entropie und erreicht ihr Maximum, wenn alle möglichen Symbole mit gleicher Wahrscheinlichkeit auftreten.

Mathematisch sieht das so aus:
N = Anzahl der übertragenen Symbole in der Nachricht
K = Anzahl verschiedener Symbole/Zustände
N(k) = absolute Häufigkeit des Symbols mit Index k in der Nachricht
P(k) = Wahrscheinlichkeit des Symbols mit Index k
I(k) = Informationsgehalt des Symbols mit Index k
Η = Entropie der Nachricht (durchschnittlicher Informationsgehalt)
Ηmax = maximale Entropie (P(k) ist für alle Symbole 1/K)

Entropie.png

Solange sich die Anzahl der verschiedenen Symbole nicht ändert und diese im Mittel mit gleicher Wahrscheinlichkeit auftauchen (wovon bei Leitungscodes auszugehen ist), ist es für die Entropie im informationstheoretischen Sinn völlig irrelevant, wie lang die Nachricht ist. Egal, ob wir jetzt vom reinen Binärcode sprechen oder den Nachrichten/Informationen/Wörtern, die damit codiert werden. Ebenso wenig kann man aus der Entropie allein Rückschlüsse auf die Anzahl der Zustände ziehen. Wenn in einem ternären System (3 Zustände) Symbol 1 eine Wahrscheinlichkeit von 1/20 hat, Symbol 2 1/10 und Symbol 3 17/20, ist die Entropie 0,748 Bit/Symbol, das ist weniger als die maximale Entropie bei einem binären System (1 Bit/Symbol). Auch kann in einem Binärcode ein Symbol trotz nur zweier Zustände einen sehr hohen Informationsgehalt haben, indem es mit äußerst geringer Wahrscheinlichkeit auftaucht. Dadurch wird aber die Entropie wiederum erheblich kleiner. Beispiel: Taucht die 0 mit einer Wahrscheinlichkeit von 1 % auf, ist ihr Informationsgehalt 6,64 Bit, die Entropie des Binärcodes beträgt dann aber 0,081 Bit/Symbol. Die „KI“ hat dir also nicht nur die falsche Entropie geliefert, sondern sich auch bei der Definition dieser mal wieder als mehr K denn I erwiesen.
 
Zuletzt bearbeitet:
wow nun wird das ganze sogar Wissenschaftlicher,hätte nicht gedacht in welche Richtung es hier noch so gehen wird.
Naja gut,kann mir ja eigentlich egal sein wenn ich bedenke mit was ich noch unterwegs bin an PCI Express.
Und in Umkehrschluss je kleiner und weniger Daten es sind,desto kühler müsste ja dann die Festplatte sein wenn das nach oben so ist,dann geht es auch nach unten auch so den Weg.Das müsste die Logische Schlussfolgerung sein.
 
Der Fachredakteuer für SSDs ist @PCGH_Manu.
Aber ich hoffe, er nimmt sich deine Anschuldigungen zu herzen und stellt seinen standardisierten Testparcours um, sobald eine finale Offline-Version dieser "Männer-Software" erscheint, die reproduzierbare Tests über längere Zeiträume ermöglicht.

Manu ist definitiv die richtige Wahl. Mit seinem Bart sollte er in der Lage sein, die SSDs so richtig männlich zu testen. Wobei ich ihm raten würde, sich einen langfristig Vollbart von mindestens einem halben Meter länge wachsen zu lassen - sicher ist sicher.
 
Manu ist definitiv die richtige Wahl. Mit seinem Bart sollte er in der Lage sein, die SSDs so richtig männlich zu testen. Wobei ich ihm raten würde, sich einen langfristig Vollbart von mindestens einem halben Meter länge wachsen zu lassen - sicher ist sicher.
Ja er hat auch Vikinger Gene, das hilft.

Aber ich hab die Ergebnisse auch mal im Hardwareluxx vorgetragen.
Auch dort waren viele verwundert.

5800X3D mit HDD 10 min Ladezeit.
5800X3D mit 500mb/s Sata 5 min Ladezeit.
12900K mit 500mb/s Sata 5 min ladezeit.
5800X3D mit 2500mb/s nvme 2x PCIe 3.0 1 min Ladezeit.
Zen 1+ mit mit 2500mb/s nvme 2x PCIe 3.0 1 min Ladezeit.

Das ist für die leute dort auch Mysteriös, weil Zitat:
"Du kannst ja auch mal nachrechnen, was das bedeutet, wenn deine NMVe zwei Minuten mit 2.500 MB/s lesen würde (was sie müsste, wenn du dir weiter Verbesserungen versprichst) - das wären lockere 300 GB Daten - wenn ich richtig informiert bin, wäre das beim aktuellen Installationsordner jede Datei drei Mal. Kurzum muss also der Flaschenhals an einer anderen Stelle sein"

Aber die Tests sind eindeutig.
Getestet von mir, einem Kumpel.
Und etliche Youtube Videos, und hunderte Reddit Kommentare kommen zu dem gleichen Ergebnis.
Es ist Mysteriös und bedarf einem Test vom Vikinger @PCGH_Manu
Ich will die Crucial T7 in dem Test sehen. Ich wette es bringt Garantiert mehr als bei dem alten Test wo es nur Nanosekunden brachte.
 

Anhänge

  • Tim Taylor.jpeg
    Tim Taylor.jpeg
    9,7 KB · Aufrufe: 7
Zuletzt bearbeitet:
Offline Version davon wird es wohl nie geben, da es ein MMO ist.
Ob der Singleplayer Ableger Squadron 42 genau so Leistungshungrig wird, wage ich zu bezweifeln.

Dann werden diese Titel wohl auch nach Erscheinen nur für vereinzelte Specials, aber nicht für reguläre Laufwerkstests taugen. Software, die jederzeit ein automatisches Update für Code oder Inhalt bekommen kann und dann ihr verhalten ändert, ist für langfristige Testparcoure ungeeignet. Bei CPUs und GPUs leisten wir uns wegen großen Interesses den Luxus, regelmäßig nachzutesten (nutzen aber trotzdem nur Spiele, von denen die final schon etwas länger verfügbar ist und nur noch gelegentlich Patches erhält), aber für weniger im Leserfokus stehende Produktgruppen ist das nicht praktikabel.

Klar, wenn man "nackter Controller" gegen "Mainboardblech" setzt.
Ich bin bei meinem Vergleich eher von obligatorischem kleinen SSD-Kühlerchen ausgegangen (das war missverständlich geschrieben von mir - die richtig schnellen SSDs gibts ja eher nicht nackt bzw. dann sind die ja nach gefühlten 3 Sekunden am Drosseln) und da ist der Flächengewinn eher Faktor 3 als 30.


Das gibts tatsächlich sehr sehr selten. Aber ich hab ja schon ein anderes Beispiel genannt - meine olle 970Evo kommt durchaus bei 70°C Controller und 90°C NAND an (ich gehe davon aus dass "Temp2" der Nand ist...) wenn ich mehrere Stunden nur wenige MB/s gleichzeitig lese und schreibe. Und das ist ne PCIe3.0-SSD.
Die Kühlung ist hier zugegeben auch sehr... redneck konservativ (ein per Wärmeleitkleber auf den Controller gepapptes vRAM-Passiv-Alu-Kühlrippchen), aber diese Lösung gibts überhaupt nur deswegen weil ganz nackt die SSD tatsächlich Probleme bekommen hatte bei dem Workload und mal sekundenweise gar nicht ansprechbar war bzw. Latenzen aus der Hölle hatte.

Die andere Lösung ist übrigens, die Lüfter der RTX4080 von ihrem Zero-Fan zu befreien. Das kühlt die SSD darunter in Sekunden um >30K ab (und nebenbei den PCH auch noch um ~15K). Soviel zu Puffer gegen Ableitung^^

Die Standard-Kühlkörper sind natürlich nur unwesentlich kleiner als die Mainboard-seitigen. Da geht es weniger um die Kühlleistung und mehr um die Optik, schließlich bringt jede SSD einen anderen Stil von ersteren mit und selbst vom gleichen Hersteller passen sie selten optisch zu den Mainboards. Aber verglichen mit "nix" ist der Unterschied gigantisch, gerade auch hinsichtlich der Wärmekapazität. So ein Mainboard-SSD-Kühlblock hat locker die 10-fache Masse, wenn nicht mehr, des von dir verwendeten VRAM-Kühlers und macht so aus "Sekunden" "einige dutzend Sekunden". 90 °C NAND kommt mir übrigens zu viel vor, erst recht bei schwachen Schreibzugriffen. Aber ich kenne die SSD und ihre Sensorausstattung nicht.

Willkommen im neuen Internet. Wer keine Ahnung von technischen Details hat fragt einfach ChatGPT nach einer generellen Aussage über Entropie und versucht damit ein Totschlagargument für konkrete Problemstellungen zu finden obwohl letztere damit nur ganz am Rande was zu tun haben.

Was du da machst ist wie bei einer Diskussion ob ein Zweizylinder-Motor mit 2x 1 Liter Hubraum die gleichen Charakteristiken/Eigenschaften hat wie ein Vierzylinder-Motor mit 4x 0,5L Hubraum weil das ja alles wurscht ist damit zu begründen dass ChatGPT sagt "wenn man mehr Hubraum nutzt und Füllgrad, Kreisprozess, Entropie, Thermodynamik, Tribologie, [weitere Fachwörter einfügen],... dann braucht der Motor mehr Kraftstoff und gibt mehr Wärme ab."

Es ist noch wesentlich absurder, denn er vergleicht ja nicht die Gesamtheit der Eigenschaften. Die Motoren wären, wenn der Vierzylinder keine größeren Drehzahlen nutzt, immerhin beim Durchsatzvolumen gleich und damit potenziell auch bei der Leistung. Aber er vergleicht nur einzige Eigenschaft und die könnte man beim ewig holprigen Auto-Vergleich als "Zahl der Reifen" herleiten: Etwas, dass mit der Geschwindigkeit pro verbauter Einheit in überhaupt keinem Bezug steht.

Aber ich habe jetzt keine Zeit, dass näher auszuführen. Ich muss diverse alte PCI-Boards wieder in Betrieb nehmen. Bei Umkehr dieser Gleichung "höherer Takt = gleiche Leistung bei mehr Verbrauch" müssten die ja Strom produzieren und wir haben einen Planeten zu retten!

Manu ist definitiv die richtige Wahl. Mit seinem Bart sollte er in der Lage sein, die SSDs so richtig männlich zu testen. Wobei ich ihm raten würde, sich einen langfristig Vollbart von mindestens einem halben Meter länge wachsen zu lassen - sicher ist sicher.

@PCGH_Stephan !
 
90 °C NAND kommt mir übrigens zu viel vor, erst recht bei schwachen Schreibzugriffen
Mir auch. Aber es gibt nur zwei Sensoren bei der Evo und der erste ist definitiv der Controller da der Wert sofort auf den aufgeklebten Kühlkörper reagiert hat. Irgendwas an der SSD muss also die 90 erreichen sofern der Sensor nicht irgendnen Mist misst (scheint aber plausibel da der Wert mit der Last steigt und fällt und auch auf draufpusten durch GPU stark reagiert) und außer NAND ist ja praktisch gar nix da :ka:

Scheint der SSD aber egal zu sein, denn wo ein Controller über 75 Grad zu merklichen Rucklern führt scheinen die 90 Grad "woanders" seit Jahren völlig egal zu sein.
 
Beim nächsten Mal bitte wenigstens Wikipedia fragen. Die verrät dir nämlich als Erstes, dass es den Begriff „Entropie“ sowohl in der Informationstheorie als auch in der Thermodynamik gibt und beides völlig unterschiedliche Dinge sind, die man nicht einfach miteinander verwursten kann.
Falsch. Dazu einfach mal folgendes Video ansehn und hoffentlich verstehn (dazu auch noch andere Videos von Susskind bei Gelegenheit). Wiki als Informationsquelle hernehmen, süß.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Sagt der, der wenige Posts vorher ChatGPT benutzt hat dafür.
Kannste dir nicht ausdenken. :haha:
ChatGPT ist offensichtlich eine bessere Quelle als Wiki. Im besten Falle besitzt ChatGPT das "Wissen" von Wiki plus unendlich mehr, und auch neuere Themen, die bei Wiki nicht auftauchen. Ja ChatGPT macht abundzu "Fehler", wenn es zu ungenauen Fragen kommt zb, aber nicht bei dieser simplen Fragestellung, wo die Antwort eindeutig ist.
 
Ja er hat auch Vikinger Gene, das hilft.

Aber ich hab die Ergebnisse auch mal im Hardwareluxx vorgetragen.
Auch dort waren viele verwundert.
Da sollte keiner verwundert sein.
Was mich eher verwundert ist, das du es schaffst nicht das zu lesen, was andere dir geschrieben haben. Und dann einfach zu Antworten, als hätten andere dir etwas anderes geschrieben.

Dazu die Art und Weise.
5800X3D mit HDD 10 min Ladezeit.
5800X3D mit 500mb/s Sata 5 min Ladezeit.
12900K mit 500mb/s Sata 5 min ladezeit.
5800X3D mit 2500mb/s nvme 2x PCIe 3.0 1 min Ladezeit.
Zen 1+ mit mit 2500mb/s nvme 2x PCIe 3.0 1 min Ladezeit.

Das ist für die leute dort auch Mysteriös, weil Zitat:
"Du kannst ja auch mal nachrechnen, was das bedeutet, wenn deine NMVe zwei Minuten mit 2.500 MB/s lesen würde (was sie müsste, wenn du dir weiter Verbesserungen versprichst) - das wären lockere 300 GB Daten - wenn ich richtig informiert bin, wäre das beim aktuellen Installationsordner jede Datei drei Mal. Kurzum muss also der Flaschenhals an einer anderen Stelle sein"

Aber die Tests sind eindeutig.
Getestet von mir, einem Kumpel.
Und etliche Youtube Videos, und hunderte Reddit Kommentare kommen zu dem gleichen Ergebnis.
Es ist Mysteriös und bedarf einem Test vom Vikinger @PCGH_Manu
Ich will die Crucial T7 in dem Test sehen. Ich wette es bringt Garantiert mehr als bei dem alten Test wo es nur Nanosekunden brachte.
 
Sämtliche externen Schnittstellen sind wiederum zu lahm für so schnelles schreiben,
100Gbit LAN kann schon einiges, habs aber erst einmal in der Praxis gesehen, Video Cutter die externe Festplatten (glaube SAN) an einem Storageserver hatten. Dennoch kommt man damit, in den Bereich von 10GByte/s und damit dann durchaus in Bereiche um NVMEs mal ordentlich ins Schwitzen zu bringen.
Aber so ein Storageserver kostet dann auch mal 100.000 und mehr.

Ansonsten sag ich ja durch die Bank weg, alles übergab von PCIe 3 ist im Bereich der SSDs für Consumer jedenfalls Overkill. Da gehen 6 Sekunden drauf und der RAM ist voll, realistisch merken wird man das nicht.
Grob lässt sich eine lineare Verknüpfung zwischen Datenmenge und Wärmeentwicklung herleiten. Mehr Daten = mehr Entropie = mehr Wärme. ChatGPT gibt mir recht:
Liest du eigentlich was du schreibst? Aus der reinen Geschwindigkeit mit der man Daten verschiebt, lässt sich genau nix herleiten. Produziere mal einen SSD Controller in 3nm oder gar 18A, dann geht bei gleicher Geschwindigkeit der Verbrauch und damit die Wärme einfach so um 70% zurück (im Vergleich zum heute noch üblichen 12nm Prozess).
 
100Gbit LAN kann schon einiges
Ich gehe mal davon aus Torsten meinte den Privatbereich.^^

Wenns in die Industrie geht... da gibts externe Schnittstellen die schneller sind als jede SSD auf dem Markt, auch wenns PCIe6 wäre. Hier sowas:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

100 Gigabytes (!) pro Sekunde an jedem der 64 Ports, das Teil kann threoretisch 6,4 Terabytes pro Sekunde schaufeln. An 100 GiB/s kommste schon mit DRAM schwer hin geschweige denn mit NAND.
:ugly:
 
100 Gigabytes (!) pro Sekunde an jedem der 64 Ports, das Teil kann threoretisch 6,4 Terabytes pro Sekunde schaufeln. An 100 GiB/s kommste schon mit DRAM schwer hin geschweige denn mit NAND.

:ugly:
Achtung wenn ich es noch richtig im Kopf habe, kann zwar jedes interface das aber er kann dann den ganzen Traffic nicht mehr Forwarded.
Ich meine Throughput ende war bei 4.8 Terabyte /sekunde
 
Wenns in die Industrie geht.
Soweit war ich dann noch nicht, aber selbst da, machst halt RAID 0 mit mehreren NVMEs, oder RAM Disks.


100 Gigabytes (!) pro Sekunde an jedem der 64
200GByte an 32 Ports geht auch, ist aber schon echt extrem.

Auf der anderen Seite ist das ja in einer Art und Weise npch Kindergarten, wenn man bedenkt welche Leistungen Unterseekabel besitzen, da gehen dann 2000GByte die Sekunde durch und da kommen ja gerade nich andere Lösungen im Petabit Bereich,


So, aber genug der Sinnlosigkeit. Für den Heimanwender ist es wurscht, NVME Disks, sind so lange es gute sind, egal bei welchem Standard schnell genug für die allermeisten Consumer, Sinn gibt es eigentlich nur, wenn man auf die Lanes achten muss und vieleicht 4 NVMEs an einem 4 Lane Anschluss betreiben muss, dann macht dies sicherlich einen Unterschied
 
Zurück