PCI-Express: Standards 4.0 und 5.0 verdoppeln jeweils die Bandbreite

Ein großer Vorteil wäre schon heute, dass man nicht mehr so viele Lanes benötigt, um die gleiche Datendurchsatz zu erreichen. Die Bereitstellung von PCIe Lanes von der CPU her ist aufwändig, benötigt viel Platz und ist daher teuer.
Bei PCIe4 könnten Grafikkarten ganz regulär mit nur 8 Lanes angebunden werden und hätte die gleiche Transferrate wie jetzt mit 16 Lanes.

Dann könnte man bei gleicher Laneanzahl pro Prozessor Multi-GPU mit 2x8Lanes betreiben und das wäre dann wie 2x 16Lanes PCI-Express 3.0.
 
Kann man aber auch andersrum auslegen: Im Gegensatz zu "üblichen optimierten" Spielen nutzt Ashes halt mal die Bandbreite anstatt einfach den Videospeicher zuzuknallen.

Zum Thema: Für uns Consumer gibt es bei den x16 Slots abseits ob das die Grafikkarte auch nutzt noch ein weiteres Problem: Sofern man keine CPU mit vier Speicherkanälen besitzt, ist DDR4 einfach zu langsam: Selbst DDR4-3200 schafft pro Channel "nur" etwa 25 GByte/s :ugly:.

Sprich, entweder wir bekommen einen neuen RAM-Standard, oder wir brauchen DDR4-5000 oder so...

Zweimal 25 GB/s (oder zweimal 32 GB/s mit DDR4-4000) reichen nicht nur für einmal 16 GB/s (/20 GB/s inklusive PCH respektive 20/24 GB/s bei AMD) bequem aus, sondern haben auch noch Reserven für eine Verdoppelung. 28- und 44-Lane-Prozessoren haben dann ihrerseits ja auch mehr als zwei Speicherkanäle :-)
 
Kann man aber auch andersrum auslegen: Im Gegensatz zu "üblichen optimierten" Spielen nutzt Ashes halt mal die Bandbreite anstatt einfach den Videospeicher zuzuknallen.

ne, leider wirklich nicht. Das spiel macht so ziemlich alles genau so wie es die hardware am meisten auslastet und auch wirklich garnichts so das es effizient läuft. zB werden jeden Frame abertausende Drawcalls gesendet um jede Einheit einzeln zu zeichnen und das Partikelsystem läuft auf der CPU was dazu führt das ständig alles von der CPU zu GPU gesendet werden muss.
Auch AsyncCompute befehle werden missbraucht um normale Computebefehle zwischenzuschieben nur damit sie sagen können sie nutzen es.

ist ähnlich wie der vulcan/dx11/12 Api-overhead Benchmark - gut um gewisse Features zu Testen, mehr auch nicht.


btw - das Videospeicher vollknallen:
genau dafür ist er ja da, oder stell dir mal den Extremfall vor das für jedes neue Bild alle Texturen von ner alten HDD neu geladen werden müssen - Farbe trocknet schneller als das rendert.


Was heißt schlecht programmiert? PCIe 3.0 ist schon so lange Standard und es wird nicht annähernd genutzt. Der einzige mir bekannte Titel der noch deutlich von PCIe 3.0 profitiert ist Ryse: Son of Rome und das ist nun wirklich nicht schlecht optimiert.

Uhm - schau dir Ashes an, es braucht nicht viel wirkliche Leistung und hat auch nicht viel zu bieten, frisst aber alles was der PC hat nur um zu Benchmarken.
ja, das ist dann, für ein Spiel, schlecht geschrieben.
Bei Ryse - keine Ahnung was das Spiel so viel herrumstreamed, Sinnvoll ist es aber nicht wenn man 8 GB VRam hat und dann aber nur 4 genutzt werden und dauernd Sachen gestreamed werden müssen.
 
Damit wird Thunderbolt für externe GPUs so langsam richtig gut.
Da die Bandbreite von PCIe 3.0 auf 4.0 auch verdoppelt wird, dann hat man letztendlich wohl nur höhere Latenzen
und kaum Einbußen in der Performance oder?
 
Damit wird Thunderbolt für externe GPUs so langsam richtig gut.
Da die Bandbreite von PCIe 3.0 auf 4.0 auch verdoppelt wird, dann hat man letztendlich wohl nur höhere Latenzen
und kaum Einbußen in der Performance oder?

Bis es Thunderbolt 4 mit PCIe4 gibt, wird es aber nicht ne ganze weile dauern und noch viel länger, bis es die eGPU Gehäuse damit gibt, wenn man schaut, wie bisher die Verfügbarkeit aussieht. :(

Außerdem wäre für PCIe4 wohl die Leistungslänge im Thunderbolt zu lang. Die maximale wird nämlich halbiert.
 
Klingt erstmal ganz gut aber bis Grafikkarten davon gebrauch machen wird noch eine Weile dauern und bis dahin kann es sein das ein neuer Standard kommt der nicht für den Serverbereich gedacht ist.
 
beschwert ihr euch über fortschritt:what:? wenns andersherum ist, ists schaisse und nun werden ressourcen offen gelegt welche aktuell noch nicht beansprucht werden aber es ist auch nicht gut...sicher wird selbst aktuell nicht immer die bandbreite von pcie 3.0 gebraucht aber ist doch schön das weiter gedacht wird. das schlimmste ist doch wenn rechenleistung durch mangelnde bandbreite beschränkt wird oder was?
 
Zweimal 25 GB/s (oder zweimal 32 GB/s mit DDR4-4000) reichen nicht nur für einmal 16 GB/s (/20 GB/s inklusive PCH respektive 20/24 GB/s bei AMD) bequem aus, sondern haben auch noch Reserven für eine Verdoppelung. 28- und 44-Lane-Prozessoren haben dann ihrerseits ja auch mehr als zwei Speicherkanäle :-)

Aber nicht für didirektionalen Datenverkehr.

Zum Glück braucht man das bei GPUs nicht wirklich.

ne, leider wirklich nicht. Das spiel macht so ziemlich alles genau so wie es die hardware am meisten auslastet und auch wirklich garnichts so das es effizient läuft. zB werden jeden Frame abertausende Drawcalls gesendet um jede Einheit einzeln zu zeichnen und das Partikelsystem läuft auf der CPU was dazu führt das ständig alles von der CPU zu GPU gesendet werden muss.
Auch AsyncCompute befehle werden missbraucht um normale Computebefehle zwischenzuschieben nur damit sie sagen können sie nutzen es.
Und deine Vorschläge so viele Einheiten zu zeichnen sind? Instancing hat ne Menge Nachteile, besonders wenn die Einheiten animiert sind, und Partikelsysteme ausschließlich auf der GPU zu berechnen ist schwer. Und selbst wenn man das macht würde das das Bandbreitenproblem nicht lösen, denn dann müsste man in jedem Frame die Paramter aller Hitboxen der Einheiten übertragen.
btw - das Videospeicher vollknallen:
genau dafür ist er ja da, oder stell dir mal den Extremfall vor das für jedes neue Bild alle Texturen von ner alten HDD neu geladen werden müssen - Farbe trocknet schneller als das rendert.
Stimmt, aber man kann es schlau machen, oder man lädt einfach am Levelanfang alle Texturen der kompletten Welt und müllt so den Videospeicher voll. Streaming von Ressourcen ist extrem wichtig, anders wären Open-World Spiele wie Witcher 3 kaum möglich. Ob Ashes das jetzt braucht oder nicht ist streitbar, aber du kannst es den Entwicklern doch nicht vorwerfen hier optimiert zu haben? Immerhin haben alle GPUs seit der HD 7970 die Bandbreite von PCIe 3.0 zur Verfügung.
Uhm - schau dir Ashes an, es braucht nicht viel wirkliche Leistung und hat auch nicht viel zu bieten, frisst aber alles was der PC hat nur um zu Benchmarken.
ja, das ist dann, für ein Spiel, schlecht geschrieben.
Hast du ein Spiel mit vergleichbaren Ausmaßen (Anzahl der Einheiten, Partikelsysteme, etc.), was deutlich besser läuft als Ashes?
 
Wie genau ist das eigentlich mit Ryzen und PCIe 4.0, ist man da mit AM4 auf PCIe 3.0 für Zen2 und 3 gelocked?
Oder ist es evtl. möglich mit neuen Boards PCIe 4.0 mit Zen 2 oder 3 Chips zu unterstützen und gleichzeitig abwärtskompatibilität für die aktuellen Ryzen zu haben.
Sonst ist ist man mit AM4 ja später im Nachteil wenn M.2 Karten mehr Bandbreite als x4 3.0 verwenden können.
 
Rein theoretisch könnten zukünftige Ryzen CPUs mit PCIe 4.0 auf Sockel AM4 setzen. Neue Boards wären dann aber Pflicht.

Eine Abwärtskompatibilität auf ältere Ryzen CPUs und PCIe 3.0 wäre theoretisch auch möglich. Vergleichbares gab es bereits bei So. 1155 mit Sandy Bridge und Ivy Bridge.
 
Sonst ist ist man mit AM4 ja später im Nachteil wenn M.2 Karten mehr Bandbreite als x4 3.0 verwenden können.

man ist immer im nachteil wenn technik später mehr kann als die aktuelle:schief:...leider ist grad die verbindung zum ryzen-entwicklerteam abgebrochen, ich berichte später...;)
 
Ach kommt schon Leute, der Artikel war jetzt aber wirklich fachlich nicht gut geschrieben. Das konnt ihr besser.
 
Rein theoretisch könnten zukünftige Ryzen CPUs mit PCIe 4.0 auf Sockel AM4 setzen. Neue Boards wären dann aber Pflicht.

Eine Abwärtskompatibilität auf ältere Ryzen CPUs und PCIe 3.0 wäre theoretisch auch möglich. Vergleichbares gab es bereits bei So. 1155 mit Sandy Bridge und Ivy Bridge.

PCIe3 geht aber nur wenn man einen Ivy auf einem Z77 hat.
 
Kann man aber auch andersrum auslegen: Im Gegensatz zu "üblichen optimierten" Spielen nutzt Ashes halt mal die Bandbreite anstatt einfach den Videospeicher zuzuknallen.

Zum Thema: Für uns Consumer gibt es bei den x16 Slots abseits ob das die Grafikkarte auch nutzt noch ein weiteres Problem: Sofern man keine CPU mit vier Speicherkanälen besitzt, ist DDR4 einfach zu langsam: Selbst DDR4-3200 schafft pro Channel "nur" etwa 25 GByte/s :ugly:.

Sprich, entweder wir bekommen einen neuen RAM-Standard, oder wir brauchen DDR4-5000 oder so...

Das verstehe ich nicht ganz. Wieso sollte DDR4 zu langsam sein? Ich kann aus den höheren DDR Standards nicht wirklich etwas abgewinnen. Faktisch gesehen sinkt eher nur der Energieverbrauch von einer Generation zur nächsten, die Leistung bleibt aber realistisch gesehen gleich und sieht man außerhalb von Benchmarks kaum in der realen Welt. Wenn es nach mir ginge, hätten wir locker bei DDR3 bleiben können. Ich sehe keinerlei Unterschied zwischen DDR3 1866/2133/2400 und DDR4 2666/3000/3200/3466/3600. Die höheren Datenübertragungsraten werden einfach von den höheren Latenzen aufgefressen, real bleibt einfach nichts übrig. Ein "langsamer" DDR3 Ram mit guten Timings ist oft schneller als ein "schneller" DDR4 Ram mit verhältnismäßig schlechten Timings. Hinzu kommt auch noch der Fakt, das DDR3 mitlerweile auch Taktraten bis knapp über 3000 unterstützt. Wer in ein gutes DDR4 Kit investiert, kann sich DDR5 komplett sparen und überspringen. Ich für meinen teil kann es kaum erwarten mein B350 Board durch ein besseres zukünftiges AM4 Board mit PCIe4.0 zu wechseln. Damit kann ich locker eine sehr lange Zeit auskommen und auf einen Zen3 günstig upgraden, wenn es irgendwann notwendig sein sollte.
 
@PCGH

Weil das zum Thread hier passen würde:

1. Wie sieht es mit PCIe4.0 allgemein aus? Im Internet geht das Gerücht um, das PCIe4.0 Karten NICHT mit PCIe3.0 Slots kompatibel sein werden, was alle jetzigen und zukünftigen PCIe3.0 Sockel von zukünftigen Upgrades ausschließen würde. Ist da etwas dran?
2. Dies betrifft hauptsächlich AM4: Ist es PCIe technisch eine CPU mit PCIe4.0 in ein jetziges PCIe3.0 Board einzubauen? Theoretisch ist PCIe4.0 ähnlich wie USB abwärtskompatibel, also müsste eine Querkompatibillität (PCIe4.0 CPU auf PCIe3.0 Board oder PCIe3.0 CPU auf PCIe4.0 Board) theoretisch möglich sein, mit der Einschränkung, das auf den langsameren Standard heruntergeschalten wird?
 
@PCGH

Weil das zum Thread hier passen würde:

1. Wie sieht es mit PCIe4.0 allgemein aus? Im Internet geht das Gerücht um, das PCIe4.0 Karten NICHT mit PCIe3.0 Slots kompatibel sein werden, was alle jetzigen und zukünftigen PCIe3.0 Sockel von zukünftigen Upgrades ausschließen würde. Ist da etwas dran?
2. Dies betrifft hauptsächlich AM4: Ist es PCIe technisch eine CPU mit PCIe4.0 in ein jetziges PCIe3.0 Board einzubauen? Theoretisch ist PCIe4.0 ähnlich wie USB abwärtskompatibel, also müsste eine Querkompatibillität (PCIe4.0 CPU auf PCIe3.0 Board oder PCIe3.0 CPU auf PCIe4.0 Board) theoretisch möglich sein, mit der Einschränkung, das auf den langsameren Standard heruntergeschalten wird?

1.: Die PCI-Sig ist leider sehr zurückhaltend, was Spezifikationseinsicht angeht. Als ich zum letzten Mal etwas von Modifizierungen an den Slots gehört habe, wurde aber sehr auf Abwärtskompatibilität geachtet.
2.: Von den PCI-E-Spezifkationen her sollte das möglich sein. Vorraussetzung für eine praktische Nutzung sind aber PCI-E-4.0-CPUs/-Boards mit dem gleichen Sockel wie 3.0-Exemplare. Bislang gibt es hierzu keine Angaben von den Herstellern.
 
Was macht die PCI-SIG sonst noch ausser neue Standards zu bringen? Bis jetzt habe ich nix anderes über sie gelesen auf PCGH :)
 
Was macht die PCI-SIG sonst noch ausser neue Standards zu bringen? Bis jetzt habe ich nix anderes über sie gelesen auf PCGH :)

Sie macht nur genau das!

From Wikipedia schrieb:
The PCI-SIG or Peripheral Component Interconnect Special Interest Group is an electronics industry consortium responsible for specifying the Peripheral Component Interconnect (PCI), PCI-X, and PCI Express (PCIe) computer buses.
 
Zurück