PCI-E-Mythos untersucht: x16/x16 gegen x8/x8

Super Beitrag...Hat mich eh mal interressiert...

Also kann ich feststellen 1 Grafikkarte die nur mit 8x Lanes angesprochen wird, weil ich z.B. ne Zusatzkarte eingesteckt habe bringt annähernd die selbe Geschwindigkeit, wie mit vollen x16.
 
Wie siehts mit 290(X) aus?
Da die keine SLI Brücke haben, pushen die doch mehr über die Lanes, oder?

Jepp, genau deswegen meine Frage nach Crossfire weiter oben.
Ich besitze ein Board mit PLX Switch und 2 290er - gerade diese Kombination wäre für mich für einen Test spannend.
Sollte es wirklich fast nichts ausmachen dann würde ich von den X99ern und den teuren CPUs mit den vielen Lanes auch weiterhin Abstand halten.
 
Was mich mal (nur theoretisch!) interessieren würde:

Mein Billig-Board von Asrock unterstützt ja auch Crossfire, allerdings nur x16/x4!

Ist das überhaupt sinnvoll einsetzbar, oder schreiben die Crossfire nur als Werbegag dazu?
 
und wie siehts aus mit pcie 2.0? 8 lanes entsprechen hier 4 lanes von pcie 3.0....und mein sandy kann das leider nicht, hab geliebeugelt mit nem 970er sli gespann, aber wenn das nacher um 20% gedrückt wird bringt mir das auch nix
 
Also wenn 8x/8x PCIe3.0 (entspricht 16x/16x PCIe2.0) ca. 8% langsamer ist (Bei COD) als 16x/16x PCIe3.0, würde ein wechsel von 16x/16x PCIe2.0 auf 16x/16x PCIe3.0 auch eben die 8% Mehrleistung bringen?
 
Eigentlich schöner Test aber warum denn nicht in 4k gebencht? :huh: Das wäre doch eher ein Einsatzgebiet für so ein Monstergespann.
Da man für 4K auch vier GPU´s benötigt.;)

Danke vorab für den Test, bin schon auf die nächste Printausgabe gespannt.
Die Werte aufm aktuellen Sockel sind schon gering.
& es ist schon übel zu hören das 16/16 bei meinem alten Sockel garnix bringt.:ugly:
 
Zuletzt bearbeitet von einem Moderator:
Was mich mal (nur theoretisch!) interessieren würde:

Mein Billig-Board von Asrock unterstützt ja auch Crossfire, allerdings nur x16/x4!

Ist das überhaupt sinnvoll einsetzbar, oder schreiben die Crossfire nur als Werbegag dazu?

Für Crossfire-Kompatibilität werden keine Anforderungen an das Mainboard gestellt, außer dass zwei Grafikkarten verbaut werden können. Daher ist in der Praxis jedes Mainboard mit einem zweiten mechanischen x16-Slot "Crossfire tauglich". Die meisten Hersteller bewerben dies aber nicht übermäßig und von einer Nutzung ist auch abzuraten. Der zweite Slot wird in solchen Fällen über den Chipsatz angebunden. Das heißt es handelt sich um x4 2.0 (entspricht 3.0 x2), die Latenzen fallen etwas höher aus und die spärliche Bandbreite wird auch noch für Netzwerkverbindungen und die Laufwerke benötigt.
Entsprechende Tests werden wir vermutlich nicht durchführen, da diese günstigen Mainboards normalerweise nicht von potentiellen 2x-R9-290-Käufern genutzt werden. Ich vermute aber, dass ein Crossfire-Verbund unter solchen Umständen spürbar langsamer wäre, als eine Einzelkarte.


Also wenn 8x/8x PCIe3.0 (entspricht 16x/16x PCIe2.0) ca. 8% langsamer ist (Bei COD) als 16x/16x PCIe3.0, würde ein wechsel von 16x/16x PCIe2.0 auf 16x/16x PCIe3.0 auch eben die 8% Mehrleistung bringen?

Davon ist auszugehen - zumindest in einem System mit 2x 780ti und einer 3,5 GHz Haswell-CPU. Bei deutlich schwächerer Hardware kann es natürlich sein, dass auch die reduzierte PCI-E-Bandbreite noch keinen Flaschenhals darstellt.
 
Hi Torsten!

Also doch was für die Werbung, hat mich halt nur mal interessiert.

Ein vollwertiger PCI-E genügte mir bisher immer.

Der 2. PCI 2.0 x4 Slot genügt, mal von irgendwelchen kranken Raidkarten, auch für alle Erweiterungskarten.

Aber vielen Dank für die Rückmeldung, und die Bestätigung meiner Vermutung.
 
Zuletzt bearbeitet:
Ja ne is klar. Sorry, ich wusste nicht das es hier SLI ler gibt die mit ner 4K Auflösung & min. 24 FPS zufrieden sind.:lol:

Benchmark-Ergebnisse: Battlefield 4 - AMD Radeon R9 295X2 im Test: 4K-Gaming-Karte mit Flüssigkühlung
Wer meint 32xAA aufdrehen zu müssen, bekommt so niedrige Frameraten. :D

50-60 FPS.

2014-08-01 21:19:59 - bf4
Frames: 15147 - Time: 235936ms - Avg: 64.200 - Min: 39 - Max: 103

Ultra, 0xAA, Kein Post Processing, 3840x2160, Silk Road 64 Player
PCGH Benchmarkscene, aus dem Rohr bist zum Metall gerannt, Fraps auf 20 Sek. gestartet als ich vorne stand.

2014-08-02 16:59:35 - bf4
Frames: 1145 - Time: 20000ms - Avg: 57.250 - Min: 49 - Max: 66

Tja man kann es wohl ganz gut zocken, wenn man nicht absichtlich das Spiel mit völlig überzogenen Grafikeinstellungen laufen lässt. Ich weis nicht warum PCGH immer die Grafik bei 4k Tests so weit aufreist das es nicht mehr spielbar ist aber das wird schon irgend einen Grund haben. Warscheinlich wollen die Monitorhersteller die ganzen 1080p Kisten die im Lager verstauben noch an den Mann bringen.
Mit dem System aus meiner Signatur.

Deswegen wäre ich auch ganz stark dafür UHD zu testen, weil es selbst ohne ein High End System sehr gut läuft.
 
Wieso kann man die Lane Anzahl nicht variieren? z.B: x10, x12, x14 (...). :huh:
Damit könnte man dem maximalen Limit an PCI-E Lanes entgegenwirken und hätte kaum Leistungseinbuße.
Liegt das jez an Intel bzw AMD, an den Mobo Herstellern, an AMD/Nvidia oder stecken sie alle unter einer Decke?? :ugly:
 
Wieso kann man die Lane Anzahl nicht variieren? z.B: x10, x12, x14 (...). :huh:
Damit könnte man dem maximalen Limit an PCI-E Lanes entgegenwirken und hätte kaum Leistungseinbuße.
Liegt das jez an Intel bzw AMD, an den Mobo Herstellern, an AMD/Nvidia oder stecken sie alle unter einer Decke?? :ugly:

Strenggenommen letzteres: Die PCI-SIG (zu der u.a. Nvidia und Intel gehören) hat nur x1, x2, x4, x8, x16 und x32 spezifiziert. (Und x2 meines Wissens nach auch erst mit 3.0).
 
Dumme Frage:

Gibt es einen Benchmark oder ein Tool, das die maximale Übertragungsrate über den Bus in das GPU VRAM misst?

Im Moment habe ich meine eine GTX680 über einen 8x PCIe 2.0 Bus angebunden. Theoretisch müsste mein neuer Rechner, mit 16x 3.0 ja die vierfache Rate schaffen, was bei texturintensiven Spielen (Skyrim!) eigentlich spürbar sein sollte.

Mich würde interessieren, ob die tatsächliche Rate tatsächlich die theoretischen Werte erreicht.
 
Zurück