AMD: Benchmarks von Ryzen Threadripper, volle 64 PCI-E-Lanes, Details zu Ryzen-Mobil-CPUs

PCGH schrieb:
Außerdem wird jeder Threadripper-Prozessor 64 PCI-Express-Lanes (Intel bisher max. 44) im aktuellen Standard 3.0 haben. 48 von diesem Lanes sind für Grafikkarten vorgesehen. Damit sind voll angebundene Bestückungen mit drei Grafikkarten möglich. Die restlichen 16 Lanes versorgen Peripherie.

Ich tippe bei den meisten Boards auf x16/x16/x8/x8
 
Mich interessiert es ja sehr, ob die Mainboard Hersteller die 64 Lanes an Grafikkarten Slots anheften oder ob sie daraus M.2 Slots machen und eben nur 48 Lanes an die Grafikkarten Slots lassen.
Mannnnn -- bin ich neugierig. :D
Habt ihr bei der Computex nicht ein paar Mainboards eingesackt? ;)

Mark ist noch nicht wieder zurück, aber normalerweise nehmen es die Hersteller übel wenn man vor den Mainboard-Wänden den Schraubendreher auspackt :-)

Bislang habe ich noch keine Routing-Informationen von den Herstellern erhalten, aber Bildern zu Folge könnte ×16/×8/×16/×8 das neue Standard-Layout am oberen Marktende werden. Abzuwarten bleibt, ob die ×8er sich dabei Lanes von den ×16ern klauen, oder nicht – auf den meisten Bildern sieht man erstaunlich wenig PCI-E-Splitter, aber die könnten mangels Platz auch auf die Rückseite wandern.

Ohne Informationen und Testmuster ist für mich auch weiterhin unklar, ob Threadripper 64 Lanes oder 64 freie Lanes hat. In Anbetracht der bisherigen Angaben und den vorliegenden Informationen zu Zeppelin tippe ich klar auf Ersteres. Das heißt vier Lanes werden zwingend für den I/O-Hub reserviert und eine 4×16-Konfiguration ist gar nicht möglich. Zumal von den 60 verbleibenden Lanes in dieser Klasse mindestens 8 für M.2 genutzt werden sollten und auf den bislang gezeigten Platinen geht der Trend klar zur Dritt-SSD. Privat wäre ich ja für ×16/×16/×4(×8)/×4(×0)/M.2/M.2/U.2/10GB-LAN/Thunderbolt 3/Promontory als Top-Konfiguration.
 
Zuletzt bearbeitet:
Aber wenn einer der 3 M.2 mit den U.2 shared wäre das schon ein Fortschritt und es gibt ja auch noch die PCIE Adapterkarten für M.2.
Das sollte eigendlich genug sein um Kollege threshold zufriedenzustellen.
Ich würde mir bei so einem Systen eher mehr U.2 Ports wünschen weil die U.2 Platten meist schon nen Kühlkörper haben und so besser performen können.
 
Wie ich in dem anderen Thread geschrieben habe, ich finde die Plattform mega. Ein Berg voll nativer Lanes von der CPU ist immer noch das beste. Man hat soviele Möglichkeiten. :daumen:
Und joar, ich bevorzuge auch U.2 vor M.2. Hab ja keinen Karnickelstall als Gehäuse :D
 
Ohne Informationen und Testmuster ist für mich auch weiterhin unklar, ob Threadripper 64 Lanes oder 64 freie Lanes hat. In Anbetracht der bisherigen Angaben und den vorliegenden Informationen zu Zeppelin tippe ich klar auf ersteres, das heißt vier Lanes werden zwingend für den I/O-Hub reserviert und eine 4×16-Konfiguration ist gar nicht möglich. Zumal von den 60 verbleibenden Lanes in dieser Klasse mindestens 8 für M.2 reserviert sein sollten und auf den bislang gezeigten Platinen geht der Trend klar zur Dritt-SSD. Privat wäre ich ja für ×16/×16/×4(×8)/×4(×0)/M.2/M.2/U.2/10GB-LAN/Thunderbolt 3/Promontory als Top-Konfiguration.

Dann hoffe ich, dass ihr bald Testmuster bekommt und alle Fragen beantworten könnt.
Der Vergleich Threadripper vs. Skylake X wird wohl der Battle dieser Dekade sein.
Solange muss mein alter Krempel noch durchhalten. :ugly:

Ist ja immer die Frage, was man alles gleichzeitig nutzen kann ;)
Also ich denke grade M.2 und U.2 werden sharen, wenn einfach zu viele Anschlüsse verbaut sind :D

Bei 64 Lanes gehe ich stark davon aus, dass du alles gleichzeitig nutzen kannst und nebenbei noch ein paar USB 3.1 Sticks beschreiben kannst.
Das ist ja das, wovon ich seit gefühlt 10 Jahren träume -- endlich genug Lanes für alles. :hail:
 
Beim Sockel 1151 verhindert der (in der Praxis selten relevante) DMI-Flaschenhals, dass Peripheriegeräte mehr als 4 GB/s zur und 4 GB/s von der CPU gleichzeitig nutzen können, das ist richtig. Aber beim AM4 lässt sich über den I/O-Hub gar kein 4-GB/s-Gerät anbinden und über die CPU maximal eins. Trotz der höher integrierten Plattform ist der AM4 deswegen bei nahezu allen Szenarien mit hoher Peripherie-Datenlast im Nachteil. Die theoretische Maximalleistung für Kopiervorgänge zwischen M.2-SSDs beträgt beim AM4 ohne Flaschenhals zum Beispiel 2 GB/s, bei Sockel 1151 mit Flaschenhals 4 GB/s.

Vier Lanes direkt an der CPU sind eben nicht wertvoller als vier Lanes hinter einer vier Lane breiten Zwischenstrecke. (Extrem Latenzkritische Anwendungen ausgenommen – aber um GPU-Anbindung geht es hier nicht.) Bei acht versus acht oder 12 versus 12 Lanes sähe die Sache anders aus und AMDs Konzept wäre stark im Vorteil – aber die praktische Umsetzung beinhaltet eben auch Sparmaßnahmen die verhindern so ein Duell gar nicht erst stattfinden lassen. Das kann man als "kosteneffizient" schönreden und Bristol-Ridge-Einsteigersysteme wären anders auch kaum denkbar. Aber im Threadripper-Enthusiast-Markt ist der Spar-I/O-Hub eben nicht konkurrenzfähig und muss mit umso besser ausgestatten CPUs kompensiert werden. Ein "nur" verdoppelter Ryzen hätte hier niemanden vom Hocker gerissen.

boah, der nachteil der ryzen-plattform ist da jetzt aber sehr sehr weit hergeholt.
wieviele m.2-platten hat der normal-user? eine, wenn überhaupt, und eine normale HDD.......

mit den PCIE-lanes bei der neuen plattform bin ich dann aber wieder deiner meinung, abwarten was tatsächlich verwirklicht wird und 2x m.2 wäre schön, das datengrab SATA kann dann gerne am IO-HUB mit dranhängen...

stelle mir grad vor was passiert wenn einer am messestand den schrauber zückt *grinsbreit*

mfg
robert
 
Zuletzt bearbeitet:
Bei 64 Lanes gehe ich stark davon aus, dass du alles gleichzeitig nutzen kannst und nebenbei noch ein paar USB 3.1 Sticks beschreiben kannst.
Das ist ja das, wovon ich seit gefühlt 10 Jahren träume -- endlich genug Lanes für alles. :hail:

Man muss nur die Ausstattung des Boards kennen und dann heisst es rechnen. ;)
Es wird aber auf jeden Fall viel möglich sein.

Mich irritiert nur die Aussage von PCGH, welche ich weiter vorne zitiert habe. Dies könnte man nämlich so interpretieren, als würde es eine feste Zuordnung der Lanes geben. Sprich 48 sind nur durch PCIe Slots nutzbar und die restlichen 16 durch Peripherie. Ich hoffe aber doch mal, dass die Zuordnung flexibel ist und somit freie Lanes durch nicht belegte PCIe Slots für andere Dinge (z.B. mehr als 4 Stck. NVMe Laufwerke) nutzbar sind.

Ach ja, aber unterm Strich ist das alles so herrlich overkill und ich freu mich schon wieder drauf neue Boards zu gucken.
 
naja, wenn zb 48 Lanes fest an 3 PCIE3.0 x16-steckplätze gebunden sind, holt man sich eben einen passenden controler für entsprechend schnelle platten.
nebenbei würden sich dann auch reine PCIE-laufwerke mit PCIE3.0 4x lohnen, oder eben 4 laufwerke auf PCIE3.0 x16 karte, halt eben so das der PCIE-steckplatz ausgereizt wird. das könnte also sogar den markt der PCIE-steckkarten für laufwerke ankurbeln.

mfg
robert
 
Mich irritiert nur die Aussage von PCGH, welche ich weiter vorne zitiert habe. Dies könnte man nämlich so interpretieren, als würde es eine feste Zuordnung der Lanes geben. Sprich 48 sind nur durch PCIe Slots nutzbar und die restlichen 16 durch Peripherie. Ich hoffe aber doch mal, dass die Zuordnung flexibel ist und somit freie Lanes durch nicht belegte PCIe Slots für andere Dinge (z.B. mehr als 4 Stck. NVMe Laufwerke) nutzbar sind.

Das ist ja eine Sache der Mainboard Hersteller, wie sie oder wohin die PCIe Lanes der CPU herausgeführt werden.
Das siehst du ja schon bei den Boards, wo die 16 Lanes der CPU auf 2x8 geteilt werden können oder eben nicht.
Als Hersteller kannst du das schon so machen, wie du das gut findest.
 
naja, wenn zb 48 Lanes fest an 3 PCIE3.0 x16-steckplätze gebunden sind, holt man sich eben einen passenden controler für entsprechend schnelle platten.
nebenbei würden sich dann auch reine PCIE-laufwerke mit PCIE3.0 4x lohnen, oder eben 4 laufwerke auf PCIE3.0 x16 karte, halt eben so das der PCIE-steckplatz ausgereizt wird. das könnte also sogar den markt der PCIE-steckkarten für laufwerke ankurbeln.

mfg
robert

Ja, das stimmt schon. Aber das war auch nur nen Beispiel mit den Laufwerken. Man kann ja noch viel mehr an Lanes anbinden. ;)

Davon ab glaube ich aber auch nicht, dass es eine feste Zuordnung gibt. Sondern dass man das Routing frei gestalten kann.
Ist wahrscheinlich wieder ein Fall von ungenauer Ausdrucksweise.
 
Beim Sockel 1151 verhindert der (in der Praxis selten relevante) DMI-Flaschenhals, dass Peripheriegeräte mehr als 4 GB/s zur und 4 GB/s von der CPU gleichzeitig nutzen können, das ist richtig. Aber beim AM4 lässt sich über den I/O-Hub gar kein 4-GB/s-Gerät anbinden und über die CPU maximal eins. Trotz der höher integrierten Plattform ist der AM4 deswegen bei nahezu allen Szenarien mit hoher Peripherie-Datenlast im Nachteil. Die theoretische Maximalleistung für Kopiervorgänge zwischen M.2-SSDs beträgt beim AM4 ohne Flaschenhals zum Beispiel 2 GB/s, bei Sockel 1151 mit Flaschenhals 4 GB/s.

Vier Lanes direkt an der CPU sind eben nicht wertvoller als vier Lanes hinter einer vier Lane breiten Zwischenstrecke. (Extrem Latenzkritische Anwendungen ausgenommen – aber um GPU-Anbindung geht es hier nicht.) Bei acht versus acht oder 12 versus 12 Lanes sähe die Sache anders aus und AMDs Konzept wäre stark im Vorteil – aber die praktische Umsetzung beinhaltet eben auch Sparmaßnahmen die verhindern so ein Duell gar nicht erst stattfinden lassen. Das kann man als "kosteneffizient" schönreden und Bristol-Ridge-Einsteigersysteme wären anders auch kaum denkbar. Aber im Threadripper-Enthusiast-Markt ist der Spar-I/O-Hub eben nicht konkurrenzfähig und muss mit umso besser ausgestatten CPUs kompensiert werden. Ein "nur" verdoppelter Ryzen hätte hier niemanden vom Hocker gerissen.
Ähmm, ja, das muss ich zugeben. Ich habe die ganze Zeit völlig übersehen, dass das wohl typischste Szenario zum Herauskitzeln der Limits durch die I/O-Hub-Begrenzung, also kopieren von M.2-PCIe3x4 nach M.2-PCIe3x4, auf AM4 ja gar nicht möglich ist... :what:
...für das wohl zweittypischste Szenario, das runterkopieren von Massen an Zeugs über USB, SATA (:-$) und Lan, bietet der Plattformaufbau aber nach wie vor einen Vorteil.

Für 2066-299 vs. SP3-X399 spielt das aber alles eh keine Rolle. Dort geht das AMD-Konzept doch voll auf, schließlich bieten sie dort konkurrenzlose 8xCPU-USB 3.0, keinen Nachteil was zusätzliche Controller angeht (sie "brauchen" Lan, Intel "braucht" USB 3.1) und eben einen Haufen an Lanes...
...einen großen Fortschritt gegenüber dem hoffnungslos veralteten X99 stellen eh beide dar.
 
Ja, das stimmt schon. Aber das war auch nur nen Beispiel mit den Laufwerken. Man kann ja noch viel mehr an Lanes anbinden. ;)

Davon ab glaube ich aber auch nicht, dass es eine feste Zuordnung gibt. Sondern dass man das Routing frei gestalten kann.
Ist wahrscheinlich wieder ein Fall von ungenauer Ausdrucksweise.

Die Zuordnung ist in weiten Teilen den Mainboard-Herstellern überlasen. Bislang haben diese aber keinen Gebrauch davon gemacht, Lanes aus ungenutzten Grafikkartensteckplätzen für M.2 umzuleiten, obwohl es sich gerade bei den 28-Lane-LGA-2011-v3-CPUs wirklich angeboten hätte. (Einzige Ausnahmen: Asrock Z97 Extreme6. Damals war das die einzige Möglichkeit für 32 GB/s M.2.)

Ähmm, ja, das muss ich zugeben. Ich habe die ganze Zeit völlig übersehen, dass das wohl typischste Szenario zum Herauskitzeln der Limits durch die I/O-Hub-Begrenzung, also kopieren von M.2-PCIe3x4 nach M.2-PCIe3x4, auf AM4 ja gar nicht möglich ist... :what:
...für das wohl zweittypischste Szenario, das runterkopieren von Massen an Zeugs über USB, SATA (:-$) und Lan, bietet der Plattformaufbau aber nach wie vor einen Vorteil.

LAN, SATA und USB sind so langsam, dass die I/O-Hub-Anbindungen nicht zum Flaschenhals werden. Selbst 10-GBit-LAN, USB 3.1 und zweimal SATA gleichzeitig aktiv sind, wäre DMI 3.0 noch nicht überfordert – ganz abgesehen davon, dass typischerweise die Hälfte der Verbindungen lesend und die andere schreibend genutzt wird, wen man von der einen auf die andere Verbindung kopiert. Die einzigen Schnittstellen, die aktuell schnell genug sind um CPU-I/O-Hub-Verbindungen zu überlasten sind M.2, U.2 und Thunderbolt 3. Und selbst bei diesen muss man zwei Stück in gleicher Richtung arbeiten lassen, weswegen die ganze Angelegenheit glücklicherweise eine eher theoretische Frage ist. Noch geht es, selbst für Oberklasse-Anwender, eher um die Frage, ob man überhaupt mehrere Peripherie-Geräte dieser Leistungsklasse verbauen kann?
Bei AMD lautete die Antwort bislang "nein", was sich mit Threadripper aber glücklicherweise ändert. Dann gibt es nicht nur High-End-CPUs, sondern auch einen High-End-Unterbau dafür.

Für 2066-299 vs. SP3-X399 spielt das aber alles eh keine Rolle. Dort geht das AMD-Konzept doch voll auf, schließlich bieten sie dort konkurrenzlose 8xCPU-USB 3.0, keinen Nachteil was zusätzliche Controller angeht (sie "brauchen" Lan, Intel "braucht" USB 3.1) und eben einen Haufen an Lanes...
...einen großen Fortschritt gegenüber dem hoffnungslos veralteten X99 stellen eh beide dar.

:top:
 
Zurück