Vergleich PCIe 3.0 x 16 zu PCIe 3.0 x 8 zu PCIe 3.0 x 4

R

Rotkaeppchen

Guest
Hallo Zusammen,

ich war mal wieder gelangweilt auf der Suche nach guten Tests zu dem Thema und stieß auf diese alte Seite mit einer GTX 980, die mit unterschiedlichsten Anbindungen getestet wurde. Ich hätte erwartet, dass ab dieser Grafikkartenleistung ein PCIe 3.0 x 16 irgendeinen Vorteil bringt, ab in der überwiegenden Zahl der Spiele ist PCIe 3.0 x 8 Anbindung sogar einen Hasenfurz schneller. Faszinierend! Selbst eine PCIe 3.0 mal 4 Anbindung zeigt fast keinerlei Leistungseinbruch.

GeForce GTX 980 PCI-Express Scaling | techPowerUp
Nachtrag:
NVIDIA GeForce GTX 1080 PCI-Express Scaling | TechPowerUp


Mich verwundert des extrem geringe Einfluss. Ich dachte immer, meine drei R9-295X, die ich in einem Arbeitsrechner testweise zusammenarbeiten lies, würden durch die Anbindung ausgebremst. Pustekuchen....
 
Zuletzt bearbeitet von einem Moderator:
Bei Single-GPU mag die PCI-e-Anbindung irrelevant wirken, aber bei Multi-GPU kann sie schon wichtig sein, falls alle beteiligten GPU an einer Sache arbeiten müssen, z.b. miteinander kommunizieren in CF/SLI. Wenn jede GPU nur ihr eigen Ding macht (Bitcoin, DC), braucht man ebenfalls keine große Bandbreite.
 
Schau Dir den Test an, PCIe 3.0 x 4 reicht für eine GTX 980 völlig aus. Es ist also überhaupt kein Problem, mit Sockel 1150 drei zu betreiben.
 
Bei Single-GPU mag die PCI-e-Anbindung irrelevant wirken, aber bei Multi-GPU kann sie schon wichtig sein, falls alle beteiligten GPU an einer Sache arbeiten müssen, z.b. miteinander kommunizieren in CF/SLI. Wenn jede GPU nur ihr eigen Ding macht (Bitcoin, DC), braucht man ebenfalls keine große Bandbreite.
Die Sache sind dann halt die Einzelfälle. Schätze ich. Ryse und Wolfenstein sind halt eben nicht so irrelevant. Was die Spiele gegenüber anderen im Vergleich anders machen ist ja auch angeschnitten. Ich würde ja zu gern wissen wie sich Einzelfeatures aufschlüsseln. Ich könnte mir gut vorstellen das zerstörbar Umwelt oder eben auch KI Einheiten in Masse da eine größere Kommunikation zwischen CPU und GPU vorraussetzen. Zudem wäre es interessant zu sehen was im Fall von Übertaktung rauskommt. Wohl aber ist in dem System auch dem Testsystem der 1600er Speicher als dritter im Reigen nicht ganz so dufte (GeForce GTX 980 PCI-Express Scaling | techPowerUp). Dennoch interessant zu sehen.

Was mir eine wenig fehlt ist Anwendungstest. Rendern auf der GPU etwa und in wie weit hier die PCIe Bandbreite reinspielt wäre ggf auch interessant zu sehen.

Schau Dir den Test an, PCIe 3.0 x 4 reicht für eine GTX 980 völlig aus. Es ist also überhaupt kein Problem, mit Sockel 1150 drei zu betreiben.
Von den Einzelkartenwerten ist eine SLI/CF Performance nicht ohne weiteres ableitbar. Das ist Äpfel mit Birnen vergleichen. Sockel 1150 ist für Multi GPU brauchbar, das man es deshalb machen sollte ist aber noch lang nicht gesagt. Mal davon ab kommt hier dann auch CPU und RAM stärker zu tragen.
 
Zuletzt bearbeitet:
Man errechne den Speicherdurchsatz der Grafikkarte (Speichertakt x Busbreite x Datenrate pro Datenbus / 8) und gleicht die Summe mit den Megatransfer (MT/s) von einer einzelnen Speicherbahn ab, mal den jeweiligen Faktor zur tatsächlich anliegenden Anbindung.

Als Beispiel: Die GeForce 9800 GT entspricht PCIe 2.0 @ x8 und läuft schwammig, sobald nur x6 anliegt, aber profitiert nicht von mehr als x8.
Wie viel Speicherbahnen @ PCI 2.0 / 3.0 (engl.; Lane) optimal sind hängt von der jeweiligen Grafikkarte ab und von dem Prozessor, denn der kann im Normalfall keine zwei Grafikkarten mit je x16 beschalten, ausgenommen von einigen Haswell-E-Modellen wie den Intel Core i7-5820K, sodass der tatsächliche Leistungssprung ausbleibt, welchen man noch @ x8 im Falle des Beispiels wahrnimmt.

Nichtsdestotrotz rate ich dennoch zum Kauf eines Mainboards mit voller Beschaltung auf mindestens zwei PEG-Slots, denn irgendwo muss dieser Effekt doch oberhalb @ x8 pro PEG-Slot spürbar gegeben sein.
 
Zuletzt bearbeitet:
Nichtsdestotrotz rate ich dennoch zum Kauf eines Mainboards mit voller Beschaltung auf mindestens zwei PEG-Slots, denn irgendwo muss dieser Effekt doch oberhalb @ x8 pro PEG-Slot spürbar gegeben sein.
Die Sache wird dann halt interessant, wenn man Aufrüstung einbezieht. Man nehme nur die 2012er Intel Plattform. Oder AMDs AM3er. Zu dieser Zeit war noch 680 und 7950er angesagt. Mittlerweile sind wir zwei Graka Architekturen weiter. Und die Leistung hat zugenommen. Noch eine Architektur drauf und das ist wenn man hier einige die meinen nicht aufzurüsten, weil es noch langt wäre dann schon die dritte Iteration, wo es zwar langt aber eben dann doch bremst. Letztendlich ist es halt auch eine individuelle Frage, weil wer eben Spiele zockt die sich nicht daran stören ist halt fein raus. Wer Ryse spielt mag die 10% Leistungseinbuße nicht hinnehmen, schon gleich gar nicht mit ner übertakten 980er TI oder so.
 
Naja, Ende 2016 oder 2017, bis dahin vergeht noch viel Zeit. ;)

Da läuft noch sehr viel Wasser den Rhein runter. :D
 
Man errechne den Speicherdurchsatz der Grafikkarte (Speichertakt x Busbreite x Datenrate pro Datenbus / 8) und gleicht die Summe mit den Megatransfer (MT/s) von einer einzelnen Speicherbahn ab, mal den jeweiligen Faktor zur tatsächlich anliegenden Anbindung.

Als Beispiel: Die GeForce 9800 GT entspricht PCIe 2.0 @ x8 und läuft schwammig, sobald nur x6 anliegt, aber profitiert nicht von mehr als x8.
Wie viel Speicherbahnen @ PCI 2.0 / 3.0 (engl.; Lane) optimal sind hängt von der jeweiligen Grafikkarte ab und von dem Prozessor, denn der kann im Normalfall keine zwei Grafikkarten mit je x16 beschalten, ausgenommen von einigen Haswell-E-Modellen wie den Intel Core i7-5820K, sodass der tatsächliche Leistungssprung ausbleibt, welchen man noch @ x8 im Falle des Beispiels wahrnimmt.

Nichtsdestotrotz rate ich dennoch zum Kauf eines Mainboards mit voller Beschaltung auf mindestens zwei PEG-Slots, denn irgendwo muss dieser Effekt doch oberhalb @ x8 pro PEG-Slot spürbar gegeben sein.
Was ich mich frage ist, ob der HBM Speicher nicht auch Einfluss darauf haben wird. Zu 980er Grakfikkarten mit ollen GDDR5 ist das ja nochmal nen Unterschied.
Ryse und Wolfenstein sind mir in der Tat entgangen, oder ich habe es falsch bewertet. Hier für alle die Bilder:
GeForce GTX 980 PCI-Express Scaling | techPowerUp
GeForce GTX 980 PCI-Express Scaling | techPowerUp
Ajo - im mittelwert über alle Spiele tun die Ausreißer sich gut verstecken. Und schwups kommen halt Beurteilungen rum, die erst bei nährer Betrachtung aufsehen erzeugen.
Warten wir ab, ob ZEN Ende 2016 dann gleich mit PCIe 4.0 raus kommt.
PCI Express 4.0 verspätet sich

Könnte aber auch 2017 werden. Da sind Grafikkarten wohl schneller:
PCie 4.0 will feature 16GT/s, new connector will arrive after 2017
Ich würde meinen das AMD Zen zurückhalten sollte bis die PCIe 4.0 Standards aufs Board packen können. Auch ein leichter wenn auch nicht tragischer Umstand ist nicht zuletzt bei AM3/+ Boards die nur PCIe 2.0 Anbindung vs. die nur ein Quartal später erschienen Intel CPUs deren Boards dann schon 3.0 mitbrachten. Das ist zwar eben zu Anfang nicht sonderlich bestimmend gewesen. Aber bei den Upgradezyklen die sich nunmehr herausgebildet haben, eben mittlerweile "relefant". Ich würde mich darüber freuen wenn 4.0 an Board wäre. Ist jedenfalls ein Kaufargument.
 
Zuletzt bearbeitet:
Freilich warum nicht, ich bin gerne solidarisch. ;)

Die Frage ist nur, ob in 20-30 Jahren, unsere Enkel diesen unüberlegten Murks

finanziell noch stemmen können. :D

Mit Sicherheit. ^^

Das Geld entsteht im Kredit, den die Landesbank bei der Entstehung der Banknote von der Zentralbank aufnimmt (realistisch niemals zurückzahlt) und diesen Schuldschein als Treiber durch die Wirtschaft kurbelt.
Geld entsteht allerdings nicht im Überfluss, ohne dass der Leitzins und der Zinseszins inflationär ansteigt und infolgedessen der Wert der Währung sinkt, demzufolge wandert diese Blase zurück an den Urheber, sodass lediglich eine Maschine am Laufen erhalten bleibt, die nicht mehr produziert als sie einnimmt, ergo aber der Zinseszins exorbitant zunimmt, sodass der Umsatz gen Null beträgt und der Schuldschein an Wert zugelegt hat.
 
Zuletzt bearbeitet:
Was ich mich frage ist, ob der HBM Speicher nicht auch Einfluss darauf haben wird. Zu 980er Grakfikkarten mit ollen GDDR5 ist das ja nochmal nen Unterschied.

Ich hab ehrlich gesagt Schwierigkeit darin, das zu errechnen.
Ich weiß gar nicht, ob HBM per Double-Data-Rate-Methode funktioniert.
Die Google-Suche verrät, dass es 256 Bit pro Channel sind (DDR).
4096 Bit * 500 MHz * 2 / 8000 Bit = 512 GB

Wenn diese Rechnung so stimmt, dann ist schon nach dem Single-Data-Rate-Verfahren die maximale Bandbreite von 256 Gigatransfer pro Sekunde (GT/s) in je Richtung erreicht.
Wenn mit dem Speichertakt auch die Speichergröße demnächst weiter zunimmt und dadurch auch die Speicheranbindung pro Chip, dann werden die 256 GT/s rein rechnerisch gewaltig überschritten.

Ich hoffe, in meiner Berechnung ist ein Fehler, auf den mich das PCGH-Team aufmerksam machen wird, denn andernfalls kann selbst PCI-Express 4.0 zum Flaschenhals werden, wenn gegenüber PCI-Express 3.0 diese komischerweise unveränderten Angaben in der Tabelle so stimmen.
PCIe - PCI Express (1.1 / 2.0 / 3.0 / 4.0)

Diese HBM-Kalkulation überfordert meinen Verstand - überlasse ich besser den Logikgatter.


Korrektur:
Passt so! Ich Traumtänzer.
In meiner Berechnung ist doch schon der Durchsatz in beiden Richtungen inbegriffen, also sind es in je Richtung 256 GB/s.
Allerdings bei x32: Welches Mainboard, mit üblichen x16, kann diese Bandbreite schon bereitstellen?

Und was die GeForce GTX Titan X und die GeForce GTX 980 Ti anbelangt ...
384 Bit * 1750 MHz * 2 / 8000 = 168 GB (85 GT/s je Richtung)
Dafür langt PCIe 2.0 @ x16. ^^
Ein Geschwindigkeitszuwachs per PCIe 3.0 @ x8 oder @ x16 ist allenfalls messbar, aber kaum spürbar.
 
Zuletzt bearbeitet:
Mit Sicherheit. ^^

Das Geld entsteht im Kredit, den die Landesbank bei der Entstehung der Banknote von der Zentralbank aufnimmt (realistisch niemals zurückzahlt) und diesen Schuldschein als Treiber durch die Wirtschaft kurbelt.
Geld entsteht allerdings nicht im Überfluss, ohne dass der Leitzins und der Zinseszins inflationär ansteigt und infolgedessen der Wert der Währung sinkt, demzufolge wandert diese Blase zurück an den Urheber, sodass lediglich eine Maschine am Laufen erhalten bleibt, die nicht mehr produziert als sie einnimmt, ergo aber der Zinseszins exorbitant zunimmt, sodass der Umsatz gen Null beträgt und der Schuldschein an Wert zugelegt hat.

Kompliziert geschrieben, letztendlich stimmt die Bilanz nicht mehr. ;)

Wenn einer Gewinn macht, muss es halt Verlierer geben, die diesen Verlust finanzieren. ;)
 
Zurück