PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Vor über zehn Jahren wurde PCI-Express vorgestellt, aber noch immer ist die Schnittstelle ein Mysterium für viele Anwender. Dank des kreativen Umgangs der Mainboardhersteller mit Lanes und Switches nimmt das Unverständnis sogar noch zu - Zeit für einen grundlegenden Artikel.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Gewohnt super von Herr Vogel aufbereitet!
Da machen sogar derart trockene Themen Spaß,Danke dafür!
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Eine (tabellarische) Auflistung welcher Sockel und welcher Chipsatz nun wieviele CPU und wieviele Controller Lanes zur Verfügung stellt wäre noch super gewesen!
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Eine (tabellarische) Auflistung welcher Sockel und welcher Chipsatz nun wieviele CPU und wieviele Controller Lanes zur Verfügung stellt wäre noch super gewesen!

gibts doch als Link:
Eine erste Auflistung der Fähigkeiten von CPUs und PCHs/FCHs findet sich in unserer Plattform-Übersicht, den dort aufgeführten Lane-Kontingenten stehen diverse Endgeräte gegenüber.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Gut gemacht! :daumen::pcghrockt:
Hab hier "bloß" die Erstausgabe von "So funktioniert Ihr Computer" liegen; stammt der Artikel aus der Neuauflage?
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

viele schauen heut zu tage gar nicht mehr so intensiv in die Details, viele schauen nur noch auf die Optik.

bitte mehr davon.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Hallo wie sieht es denn aus wenn man ne mittelklasse Grafikkarte an 16x, elektrisch 4x anschließt ?
wie viel Leistung kommt da durch? zb. Gtx 750 ti mit AMD Athlon 5350

Auf nem Asrock Ami1h itx
http://www.asrock.com/mb/AMD/AM1H-ITX/?cat=Specifications
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Sehr schöner Artikel,

vielen Dank dafür. Gerne auch mehr davon.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Chapeau! Selten einen so guten Artikel gelesen.

Wenn ich mich mal zurückerinnere. PCIe wurde zusammen mit dem Sockel 775 eingeführt, damals als 1.1 mit 16 Lanes für die Grafikkarte und nur ein oder zwei 1x Slots. Mit dem P43 kam erstmals PCIe 2.0, aber auch meistens nur für die Grafikkarte und die 1x waren weiterhin 1.1. Und seit die Grafikkarten-Lanes im Prozessor integriert sind, ging das Aufteilen für Multi-GPU so richtig los. Seit Haswell ist sowieso Schicht im Schacht mit den ganzen Zusatzcontrollern, die nachträglich integriert wurden.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Grüss euch!

Ein sehr guter Artikel.
Bei den Mainboard Layouts muss man wirklich genau schauen. Habe es gerade erst selbst gemerkt.
Wollte mir das neue Asus Z170 Maximus Hero kaufen. Obwohl es nur einen M2 slot hat, dachte ich mir die zweite M2 kann ich eh über eine zusatzkarte im dritten PCI-E x16 der mit 4 Lanes an das Chipset angebunden ist im RAID fahren. Am 150€ Z170-A funktioniert es ja auch. Aber nach Rücksprache mit Asus Kundendienst geht das M2 RAID am Hero nicht.
Man braucht laut ihnen einen "Spezial Sockel" (keine ahnung was das sein soll) und die Option im BIOS die das Hero nicht bietet.
Finde es schade von Asus das sie diese Funktion am 230€ teuren Republik of Gamer Board nicht bieten.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Das mit den Sata Ports hab ich nicht ganz verstanden? Wird pro Port eine Lane genutzt oder pro Controller?

Und wenn dann diese dynamischen Switches wie beim ASMedia die Lanes quasi nicht nur für sich beanspruchen, wäre es dann nicht besser immer zuerst die ASMedia sata Ports zu nutzen?
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Ganz ganz vielen Lieben Dank Torsten! Eine tolle kleine Noob Einführung :)
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Gut gemacht! :daumen::pcghrockt:
Hab hier "bloß" die Erstausgabe von "So funktioniert Ihr Computer" liegen; stammt der Artikel aus der Neuauflage?

Nein, der Artikel wurde exklusiv für online erstellt. Einen Teil der Informationen hatten wir aber auch schon in der 12/2014.


Hallo wie sieht es denn aus wenn man ne mittelklasse Grafikkarte an 16x, elektrisch 4x anschließt ?
wie viel Leistung kommt da durch? zb. Gtx 750 ti mit AMD Athlon 5350

Auf nem Asrock Ami1h itx
http://www.asrock.com/mb/AMD/AM1H-ITX/?cat=Specifications

In dieser Leistungsklasse habe ich ehrlich gesagt noch keine Tests gemacht. Eine Kombination aus GTX 780ti und i7-5960X verliert maximal 5% an Leistung, wenn man sie von PCI-Express-×16-3.0 auf -×8-2.0 einbremst. Allein der Unterschied zwischen ×8 3.0 auf ×8 2.0 beträgt dabei 4%, bei einer weiteren Reduktion auf ×4 2.0 würde ich also mindestens 9%, eher aber 12-15% Leistungsverlust gegenüber gängigen ×16-3.0 Benchmarks erwarten. In wie weit sich dieser Wert auf eine 750ti in einem AM1 System überträgen lässt, kann ich aber nicht abschätzen. Die niedrige CPU- und Speicher-Performance wiegen vermutlich schwerer.



Chapeau! Selten einen so guten Artikel gelesen.

Wenn ich mich mal zurückerinnere. PCIe wurde zusammen mit dem Sockel 775 eingeführt, damals als 1.1 mit 16 Lanes für die Grafikkarte und nur ein oder zwei 1x Slots. Mit dem P43 kam erstmals PCIe 2.0, aber auch meistens nur für die Grafikkarte und die 1x waren weiterhin 1.1. Und seit die Grafikkarten-Lanes im Prozessor integriert sind, ging das Aufteilen für Multi-GPU so richtig los. Seit Haswell ist sowieso Schicht im Schacht mit den ganzen Zusatzcontrollern, die nachträglich integriert wurden.

PCI-Express 2.0 für Peripherie hat Intel offiziell mit dem P55-PCH eingeführt, tatsächlich wurde die zugehörige Geschwindigkeit sogar erst mit der 6er Serie unterstützt. Zusatzcontroller gibt es weiterhin in großer Zahl, im Moment vor allem USB 3.1, zusätzliche SATA-Ports, Netzwerkcontroller und übrigens muss auch der PCI-Bus auf aktuellen Intel-Mainboards mit einer PCI-E<->PCI-Bridge realisiert werden.


Grüss euch!

Ein sehr guter Artikel.
Bei den Mainboard Layouts muss man wirklich genau schauen. Habe es gerade erst selbst gemerkt.
Wollte mir das neue Asus Z170 Maximus Hero kaufen. Obwohl es nur einen M2 slot hat, dachte ich mir die zweite M2 kann ich eh über eine zusatzkarte im dritten PCI-E x16 der mit 4 Lanes an das Chipset angebunden ist im RAID fahren. Am 150€ Z170-A funktioniert es ja auch. Aber nach Rücksprache mit Asus Kundendienst geht das M2 RAID am Hero nicht.
Man braucht laut ihnen einen "Spezial Sockel" (keine ahnung was das sein soll) und die Option im BIOS die das Hero nicht bietet.
Finde es schade von Asus das sie diese Funktion am 230€ teuren Republik of Gamer Board nicht bieten.

Der "Spezial-Sockel" dürfte eine stark vereinfachte Begründung gewesen sein.
In der Praxis unterstützt Intels Z170 PCH drei PCI-E-RST (Rapid Storage) Kanäle mit je vier Lanes, die untereinander RAID-Verbünde bilden können. Je nach Implementation kann es aber sein, dass der ×4-Slot des Maximus Hero nicht aus diesen 12 Lanes versorgt wird oder/und dass sich seine Lanes auf mehrere dieser Kanalbündel verteilen. Im normalen PCI-Express-Betrieb ist dies kein Problem und auch Software-RAID sollte funktionieren, aber für einen Chipsatz-basierten RAID müssen eben die richtigen Lanes genutzt werden.
Meine Empfehlung: Zunächst eine etwas günstigere, ausreichend schnelle SSD kaufen und später aufrüsten, wenn Modelle mit deutlich über 3 GB/s verfügbar sind. M.2-RAIDs sind nur so lange im Vorteil, wie SSDs auf Geschwindigkeiten von knapp über 2 GB/s beschränkt sind. Sobald schnellere Modelle auf den Markt kommen, kann aber auch ein einzelner M.2 mit knapp 4 GB/s das Interface zwischen PCH und CPU vollständig auslasten.


Das mit den Sata Ports hab ich nicht ganz verstanden? Wird pro Port eine Lane genutzt oder pro Controller?

Und wenn dann diese dynamischen Switches wie beim ASMedia die Lanes quasi nicht nur für sich beanspruchen, wäre es dann nicht besser immer zuerst die ASMedia sata Ports zu nutzen?

In der neuen PCH-Generation sind alle potentiellen SATA-Ports auch PCI-Express-3.0 tauglich. Das heißt man kann einen HSIO entweder für ein SATA-Gerät oder für eine universell einsetzbare Lane nutzen. Beim Einsatz von eigenständigen Controllern ist das Verhältnis meist 1:2. Man schließt den Controller über eine Lane an, dieser akzeptiert dann zwei SATA-Geräte.

Nicht verwechselt werden darf hierbei ein zusätzlicher SATA-Controlle (z.B. von ASMedia) mit einem PCI-E-Switch (die ASMedia ebenfalls anbietet). Ersterer ist unflexibel, ein Controller benötigt eine Lane – er ermöglicht aber den Anschluss von SATA-Geräten. Letzterer ist flexibel und ermöglicht mehreren Geräten den Zugriff auf eine PCI-Express-Lane – unterstützt aber kein SATA. Natürlich kann man aber einen Zusatzcontroller hinter einem Switch betreiben – siehe Asus Z170-Deluxe.

Als Endnutzer sollte man immer zuerst die nativen SATA-Ports des PCH nutzen, sofern dies möglich ist. Sie sind schneller und treibertechnisch unproblematischer als Zusatzcontroller – auch wenn die Unterschied ggf. unspürbar klein sind. Erst wenn einem native Ports ausgehen, auch weil deren Ressourcen ggf. an andere PCI-Express-Geräte umgeleitet werden, würde ich auf Zusatzcontroller zurückgreifen. Es nützt schließlich nichts, wenn ein halbes dutzend Geräte dank Switch effizient an einem einzige HSIO hängen, andere HSIOs aber gar nicht genutzt werden.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

PCI-Express 2.0 für Peripherie hat Intel offiziell mit dem P55-PCH eingeführt
Wo kommt dann der PCIe2.0 Slot auf meinem P43 Board her?
muss auch der PCI-Bus auf aktuellen Intel-Mainboards mit einer PCI-E<->PCI-Bridge realisiert werden.
Nicht auf meinem B75 Board :P Das unterstützt PCI noch nativ, wohl als letzter Chipsatz überhaupt. Ich weiß schon, dass das eher eine Ausnahme ist.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Der 2.0 Slot auf deiner Sockel-775-Platine dürfte für die Grafikkarte und nicht für die kleiner Peripherie gedacht sein ;-). Die 4er Northbridges konnten alle (und als erste) 2.0. Aber die ICHs, die in der Folgegeneration in den PCHs aufgingen, mussten noch einige Jahre darauf verzichten.


Das mit dem B75 könnte passen. Vom DIE verschwunden ist der Controller meines Wissens nach erst mit den Haswell-Chipsätzen. Vorher hat Intel ihn schon 1-2-Generationen lang bei den normalen Z- und H-Retail-Modellen deaktiviert. Die Q- und gegebenenfalls auch B- sowie die Xeon-Versionen konnten ihn aber noch nutzen.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Achso das meinst du. Wobei es dem Slot ziemlich egal sein dürfte, was da eingebaut wird. Ich kann im Bios ja auch einstellen, ob PCI oder PCIe Grafikkarte. Vielleicht hole ich mal eine alte Matrox raus für PCI :D
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Nein, der Artikel wurde exklusiv für online erstellt. Einen Teil der Informationen hatten wir aber auch schon in der 12/2014.




In dieser Leistungsklasse habe ich ehrlich gesagt noch keine Tests gemacht. Eine Kombination aus GTX 780ti und i7-5960X verliert maximal 5% an Leistung, wenn man sie von PCI-Express-×16-3.0 auf -×8-2.0 einbremst. Allein der Unterschied zwischen ×8 3.0 auf ×8 2.0 beträgt dabei 4%, bei einer weiteren Reduktion auf ×4 2.0 würde ich also mindestens 9%, eher aber 12-15% Leistungsverlust gegenüber gängigen ×16-3.0 Benchmarks erwarten. In wie weit sich dieser Wert auf eine 750ti in einem AM1 System überträgen lässt, kann ich aber nicht abschätzen. Die niedrige CPU- und Speicher-Performance wiegen vermutlich schwerer.





PCI-Express 2.0 für Peripherie hat Intel offiziell mit dem P55-PCH eingeführt, tatsächlich wurde die zugehörige Geschwindigkeit sogar erst mit der 6er Serie unterstützt. Zusatzcontroller gibt es weiterhin in großer Zahl, im Moment vor allem USB 3.1, zusätzliche SATA-Ports, Netzwerkcontroller und übrigens muss auch der PCI-Bus auf aktuellen Intel-Mainboards mit einer PCI-E<->PCI-Bridge realisiert werden.




Der "Spezial-Sockel" dürfte eine stark vereinfachte Begründung gewesen sein.
In der Praxis unterstützt Intels Z170 PCH drei PCI-E-RST (Rapid Storage) Kanäle mit je vier Lanes, die untereinander RAID-Verbünde bilden können. Je nach Implementation kann es aber sein, dass der ×4-Slot des Maximus Hero nicht aus diesen 12 Lanes versorgt wird oder/und dass sich seine Lanes auf mehrere dieser Kanalbündel verteilen. Im normalen PCI-Express-Betrieb ist dies kein Problem und auch Software-RAID sollte funktionieren, aber für einen Chipsatz-basierten RAID müssen eben die richtigen Lanes genutzt werden.
Meine Empfehlung: Zunächst eine etwas günstigere, ausreichend schnelle SSD kaufen und später aufrüsten, wenn Modelle mit deutlich über 3 GB/s verfügbar sind. M.2-RAIDs sind nur so lange im Vorteil, wie SSDs auf Geschwindigkeiten von knapp über 2 GB/s beschränkt sind. Sobald schnellere Modelle auf den Markt kommen, kann aber auch ein einzelner M.2 mit knapp 4 GB/s das Interface zwischen PCH und CPU vollständig auslasten.




In der neuen PCH-Generation sind alle potentiellen SATA-Ports auch PCI-Express-3.0 tauglich. Das heißt man kann einen HSIO entweder für ein SATA-Gerät oder für eine universell einsetzbare Lane nutzen. Beim Einsatz von eigenständigen Controllern ist das Verhältnis meist 1:2. Man schließt den Controller über eine Lane an, dieser akzeptiert dann zwei SATA-Geräte.

Nicht verwechselt werden darf hierbei ein zusätzlicher SATA-Controlle (z.B. von ASMedia) mit einem PCI-E-Switch (die ASMedia ebenfalls anbietet). Ersterer ist unflexibel, ein Controller benötigt eine Lane – er ermöglicht aber den Anschluss von SATA-Geräten. Letzterer ist flexibel und ermöglicht mehreren Geräten den Zugriff auf eine PCI-Express-Lane – unterstützt aber kein SATA. Natürlich kann man aber einen Zusatzcontroller hinter einem Switch betreiben – siehe Asus Z170-Deluxe.

Als Endnutzer sollte man immer zuerst die nativen SATA-Ports des PCH nutzen, sofern dies möglich ist. Sie sind schneller und treibertechnisch unproblematischer als Zusatzcontroller – auch wenn die Unterschied ggf. unspürbar klein sind. Erst wenn einem native Ports ausgehen, auch weil deren Ressourcen ggf. an andere PCI-Express-Geräte umgeleitet werden, würde ich auf Zusatzcontroller zurückgreifen. Es nützt schließlich nichts, wenn ein halbes dutzend Geräte dank Switch effizient an einem einzige HSIO hängen, andere HSIOs aber gar nicht genutzt werden.


Ich frag mich warum Intel da nicht mehr auf den QPI setzt
Der hat fuer diese Faelle echt genug Bandbreite geboten mit um die 30GB/s, und jetzt nur der lahme DMI? Da gibts ja immer ne rush hour bei soviel Endgeraeten

Warum Intel.. warum... warum nicht mal nen QPI statt DMI? dann ises egal ob da 10 M2 SSDs dranhaengen..
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

QPI erreichte ursprünlich knapp 10 GB/s und Richtung, in der Haswell-Generation sind es 16 GB/s und Richtung. Alle höheren Werte zählen die Sende- und Empfangsleistung zusammen. QPI braucht hierfür aber bereits 40 Datenleitungen, während DMI gerade einmal 8 nutzt. Würde man den Aufwand für das RSA- und Latenz-optimierte QPI-Interface in PCI-Express investieren, wären 20 zusätzliche PCI-Express-Lanes auf Seiten der CPU sowohl schneller als auch nützlicher. Insgesamt ist dies aber zuviel Aufwand für den Desktopmarkt.

(Ich frage mich allerdings auch, warum Intel keine QPI<->PCI-E-Bridge nach Vorbild des X58 mehr anbietet. Ein Xeon E5 2000 in einem Single-CPU-System könnte so über seine ungenutzten QPI-Schnittstellen einen dritten und vierten PCI-Express-3.0-×16-Slot für HPC-Beschleunigerkarten bereitstellen.)
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

viele schauen heut zu tage gar nicht mehr so intensiv in die Details, viele schauen nur noch auf die Optik.

In den meisten Fällen sind die PCIe-Lanes beim Kauf auch relativ egal. Der Großteil der Käufer benutzt einen x16-Slot + SATA-Ports und gut ist.
 
AW: PCGH erklärt PCI-Express: Lanes, Routing, Sharing, Switches - PCI-Express-Wirrwarr entschlüsselt

Zunächst einmal danke für den informativen Artikel, allerdings sind mir da noch einige Dinge unklar.
Und zwar nehmen wir mal diese CPU hier als Ausgangspunkt, Intel i5 6500:
Intel® Coreâ„¢ i5-6500 Processor (6M Cache, up to 3.60 GHz) Spezifikationen
Der hat ja laut Spezifikation 16 PCIe 3 Lanes zu "vergeben", davon gehen, wenn ich den Artikel richtig verstanden habe, ja erstmal 8 Lanes zu dem einen PCIe 3 x16 Port für die Grafikkarte und die anderen Lanes werden dann über einen Switch der Grafikkarte und dem PCH zur Verfügung gestellt, wobei der PCH ja effektiv nur eine PCIe 2 x8, also quasi eine PCIe 3 x4, zur CPU besitzt.
Was bringen mir in diesem Zusammenhang beispielsweise die 20 PCIe 3 Lanes von Z170, die gesamte Kommunikation vom LAN-, SATA-, USB-Controller muss doch über die CPU laufen, also ist doch hier quasi schon bei PCIe 3 x4 Schluss.
 
Zuletzt bearbeitet:
Zurück