AMD Ryzen 3000: Mainboard-Hersteller bereiten sich mit AGESA-Updates auf nahenden Start vor

Das problem bei Threadripper ist ne gute Spur "schlimmer", da muss ja ein kern der keine RAM-Anbindung hat über Infinityfabric und Fremdkern bis zum RAM laufen was vergleichsweise ewig dauert. Das hier ist ne weniger problematische Geschichte.

Es gibt halt die Optionen sagen wir mal ganz grob (erfundene Zahlen)
1.) Beide Chiplets Vollzugriff auf RAM über Cache --> jeder Kern bekommt 50 GB/s und hat ne Latenz von 60 ns. Oder
2.) Jeder Chiplet hat seine eigene private Direktverbindung --> jeder Kern bekommt 25 GB/s und hat ne Latenz von 40 ns.

Version 1 liefert mehr Cinebenchpunkte, Version 2 liefert mehr Spieleperformance.

Persönlich wäre mir 1 lieber da ich erstens eher arbeite als spiele und zweitens die CPU-Spieleleistung sowieso mehr als ausreichend ist (vor allem wenn man nen UHD-TFT benutzt). Ich befürchte aber Version 2 wird eher kommen da das nunmal wesentlich besser verkauft werden kann. Dann kannste sagen "hier wir haben in der Spieleleistung 20 oder 30% draufgelegt und im Cinebench haben wir auch 500 Punkte mehr als Intel". Anders müsstest du ja sagen "wir sind in Spielen 10% schneller und [ab hier liest keiner weiter] haben im Cinebench 800 Punkte mehr als Intel".

Mit Punkt 2 haste aber das UMA/NUMA Problem, ich denke nicht das AMD diesen weg geht. Genau deswegen liegt doch dee IMC im IO Chip um nicht mehr splitten zu müssen.

Hast du eigentlich irgendeine Basis deiner Annahme?
Ich lese heute zum ersten mal über solche Überlegungen.
 
Zuletzt bearbeitet:
Hast du eigentlich irgendeine Basis deiner Annahme?
Ich lese heute zum ersten mal über solche Überlegungen.

Im Wesentlichen tonnenweise an Nerddiskussionen auf verschiedensten Plattformen. Suche einfach mal nach Ryzen 3000, bei Tools stellste dann innerhalb der letzten Woche oder sowas ein um halbwegs aktuell zu bleiben und dann lieste mal wahllos ein paar Threads in Nerdforen (PCGHX, CB, HWL, Reddit, was weiß ich). Man erkennt sehr schnell User die sich in der Thematik etwas auskennen (und denen egal ist obs AMD oder Intel ist :ugly:) und da findet man viele viele auch fundierte bzw. tatsächlich mögliche Vartianten über diese Dinge. :)
 
Ok. Ich finde die These zwar möglich aber sehr unwahrscheinlich. Der sinn des IO Dies ist doch u.a. von dem Gehoppse zwischen den Ryzen Dies wegzukommen und praktiech ein Einheitliches RAM Interface zu bekommen.
Mit deinem Vorschlag hätte man zwar eine einheitliche Latenz aber sonst sogar noch eine krassen Nachteil in halbierter Bandbreite. Das sind 25 GB/s bei extrem scharfen Timings und 3200 MHz. Das kannst du nem 8 Kerner nicht zumuten! Mit 2666 RaM und laschen Timings wäre man wohl bei unter 20GB/s
Und halbe Bandbreite dürfte mehr Anwendung schaden als 10-20ns RAM Latenz.


Und in echt Bandbreiten intensiven Anwendungen wird der AM4 16 Kerner eh "verhungern"
 
Zuletzt bearbeitet:
Ich würde auch eher von einer einheitlichen RAM-Anbindung ausgehen. Denn der große L3 sollte die meisten RAM-Zugriffe unnötig machen (Lokalitätsprinzip) und somit die Latenz im Mittel sogar senken.
 
Da würde ich mich anschließen :nicken:
Auch weil die aktuellen Threadripper ja schon das NUMA-Node Problem haben und das wäre schon irgendwie bescheuert wenn AMD dieses bei den großen Modellen á la Threadripper/Epyc durch den I/O-Die behebt und dafür bei den kleineren einführt.

Hoffe mal das die 16 Kern Modelle tatsächlich auf den X370 Boards laufen. Da würde ich sofort zuschlagen (und weitere 32GB RAM bei Gelegenheit gleich mitnehmen :ugly: ) und die Stromversorgung sollte für das Crosshair ja eigentlich kein Problem darstellen.
 
Mein aktueller "Kenntnisstand" (sprich worauf sich die Gerüchteküche der Nerds mehr oder weniger geeinigt hat) ist:
- Ryzen3000 kommt mit einem DualChannel RAM-Interface, das Taktraten in der Größenordnung um DDR4-3600 erlaubt.
- Bei allen Ryzen 3000 bis einschließlich 8 Kernen (= 1 Chiplet) haben entsprechend alle Kerne Zugriff auf die volle Bandbreite
- Bei allen Ryzen 3000 mit mehr als 8 Kernen (= 2 Chiplets) hat jeweils ein Chiplet direkten Zugriff auf einen RAM-Channel, so dass die Single-Core Leistung je nach Anwendung bei Multichiplet-Ryzens sinkt.
- Ein Teil des I/O-Chips ist mit einer großen Menge L3-Cache ausgestattet, um durch einen großen schnellen Puffer die Nachteile des Chipletkonzeptes hinsichtlich Speicheranbindung zu minimieren (ähnlich der L4-CPUs von Intel wie dem 5775C)

Naja mal abwarten bis AMD die Archiktektur komplett vorstellt, vorher ist das eh nur Spekulation. Aber ja könnte so sein. Die 16 Kerner sind ja quasi für Anwendungen gedacht, wäre doof wenn gerade da die Leistung fehlen würde. Ich hoffe AMD hat das im Griff. Da gibt es sicher möglichkeiten das beide Chiplets auf den kompletten Speichercontroller zugreifen können. Wenn es ein Problem ist, dann muss nunmal die Hardware erkennen wann 1 Channel besser 2 ist.
 
Ich warte Ryzen 3000 entspannt ab, bis er auf herz und Niere getestet wurde. Dann schaue ich mal, ob es sich lohnt, meinen 2950X gegen einen Zen 2 für TR4 zu tauschen.
 
So oder so, der Ryzen 5 3600X wird immer interessanter,
wenn der tatsächlich mit 8Kernen/16Threads und vollem Zugriff auf den RAM (Dualchannel für alles, wegen Single Chiplet und Low Latency),
teilweiser Fehlerkorrektur, DDR4 3600Support, hohem Takt bis an die 5GHz und effektiv mit einem IPC plus von um die 20-30% zur ersten Generation daherkommt.

Das wird dann ein garantiertes Upgrade, welches sich auch lohnt und bei dem ich den schon vorhandenen RAM sogar voll ausfahren könnte. :)

Ich bin und bleibe gespannt. :daumen:
 
So oder so, der Ryzen 5 3600X wird immer interessanter,
wenn der tatsächlich mit 8Kernen/16Threads und vollem Zugriff auf den RAM (Dualchannel für alles, wegen Single Chiplet und Low Latency),
teilweiser Fehlerkorrektur, DDR4 3600Support, hohem Takt bis an die 5GHz und effektiv mit einem IPC plus von um die 20-30% zur ersten Generation daherkommt.

Das wird dann ein garantiertes Upgrade, welches sich auch lohnt und bei dem ich den schon vorhandenen RAM sogar voll ausfahren könnte. :)

Ich bin und bleibe gespannt. :daumen:

Die Leute drehen bei der IPC total durch, nach allem was wir Wissen gibt es zumindest bei AVX Workload eine Steigerung.

Es reicht schon wenn der Takt erhöht wird und sich die Latenzen nicht verschlechtern. 20 % mehr IPC ist halt nichts was der Enduser wirklich merkt. Ob ich nun mit 30 FPS oder 36 FPS im CPU Limit klebe ist egal - beides ist zu wenig.
 
Auch die vielen Kerne steigern im CPU-Limit die FPS, da die Hintergrundprozesse auf die vom Spiel weniger genutzten verteilt werden können.
 
Die Leute drehen bei der IPC total durch, nach allem was wir Wissen gibt es zumindest bei AVX Workload eine Steigerung.

Es reicht schon wenn der Takt erhöht wird und sich die Latenzen nicht verschlechtern. 20 % mehr IPC ist halt nichts was der Enduser wirklich merkt. Ob ich nun mit 30 FPS oder 36 FPS im CPU Limit klebe ist egal - beides ist zu wenig.

Ne, das macht mit unter einen ordentlichen Unterschied je nachdem in welcher region man sich bewegt.
 
Das problem bei Threadripper ist ne gute Spur "schlimmer", da muss ja ein kern der keine RAM-Anbindung hat über Infinityfabric und Fremdkern bis zum RAM laufen was vergleichsweise ewig dauert. Das hier ist ne weniger problematische Geschichte.

Es gibt halt die Optionen sagen wir mal ganz grob (erfundene Zahlen)
1.) Beide Chiplets Vollzugriff auf RAM über Cache --> jeder Kern bekommt 50 GB/s und hat ne Latenz von 60 ns. Oder
2.) Jeder Chiplet hat seine eigene private Direktverbindung --> jeder Kern bekommt 25 GB/s und hat ne Latenz von 40 ns.

Version 1 liefert mehr Cinebenchpunkte, Version 2 liefert mehr Spieleperformance.

Persönlich wäre mir 1 lieber da ich erstens eher arbeite als spiele und zweitens die CPU-Spieleleistung sowieso mehr als ausreichend ist (vor allem wenn man nen UHD-TFT benutzt). Ich befürchte aber Version 2 wird eher kommen da das nunmal wesentlich besser verkauft werden kann. Dann kannste sagen "hier wir haben in der Spieleleistung 20 oder 30% draufgelegt und im Cinebench haben wir auch 500 Punkte mehr als Intel". Anders müsstest du ja sagen "wir sind in Spielen 10% schneller und [ab hier liest keiner weiter] haben im Cinebench 800 Punkte mehr als Intel".
Ich denke, bei 16 Kernen braucht man bei 1.) und 2). DDR5, weil Dual Channel die CPU zu sehr kastriert. 60ns und 40ns klingen nach Best Case Scenarios. 80ns und 60ns mit dem IO-Chip dazwischen wären eher der Fall, es sei denn, da ist ein mega L4-Cache. Ich erwarte den meisten Leistungszuwachs bei FP- Leistung wegen AVX mit 256bit an Stelle von 128bit wie bei Zen+.
 
Zuletzt bearbeitet:
Ich hab doch extra dabei geschrieben erfundene Zahlen, ich hätte auch 10 oder 500 ns benutzen können. :schief:

Das mit dem bandbreitenverhungern ist so ne Sache da es extremst anwendungsabhängig ist. Es gibt Anwendungen da kannste übertrieben gesagt wenn sie läuft den RAM ausbauen da alles in den Cache passt und es gibt andere Anwendungen da wärste mit nem OctaChannel auf 8 Kernen noch 30% schneller als mit nem QuadChannel.

Es kommt halt immer drauf an was man will - aber jemand, der Anwendungen hat die von extremen bandbreiten profitieren UND hier zeitkritisch unterwegs ist (also wos nicht egal ist ob die CPU 10% schneller oder langsamer ist) wird kein normales Desktopsystem sondern ein HEDT oder Workstation-gerät betreiben. Für das was in dieser Zielgruppe hier zählt bzw. Druck auf die Konkurrenz ausübt und Marktanteile gewinnt ist die Strategie schon passend.

Persönlich freue ich mich auch auf stark verbessertes AVX - weil genau das für meine Anwendung einen großen Vorteil bietet (weswegen der 9900K einen 2700X aktuell ziemlich zersägt). Doppelte AVX-Performance bei doppelter Kernzahl... da wird die Säge umgedreht.
 
Schon lange nicht mehr auf eine CPU so gespannt gewesen, wenn das Ding gut wird kann ich meinen 4770K in Rente schicken. Freut mich ebenfalls das RAM Preise sowie SSD Preise ordentlich runtergegangen sind. Hoffentlich verkackt das AMD aus irgend einem Grund nicht. Hab echt bock auf ne aufrüst Orgie XD. Intel kann mir mit ihrer Zahnpasta oder mies verlöteten CPU`s echt den Buckel runterrutschen....
 
Ist zwar nicht so, als ob man von nem 1700X jetzt schon zwingend aufrüsten müsste, aber ich hab richtig Bock auf Zen 2 und irgendwie finde ich auch so ne TR4 Plattform mit Quad-Channel und overkill an PCIe-Lanes immer attraktiver... mal gucken, was das Jahr so bringt :D

Grüße!
 
Ich hab doch extra dabei geschrieben erfundene Zahlen, ich hätte auch 10 oder 500 ns benutzen können. :schief:

Das mit dem bandbreitenverhungern ist so ne Sache da es extremst anwendungsabhängig ist. Es gibt Anwendungen da kannste übertrieben gesagt wenn sie läuft den RAM ausbauen da alles in den Cache passt und es gibt andere Anwendungen da wärste mit nem OctaChannel auf 8 Kernen noch 30% schneller als mit nem QuadChannel.

Es kommt halt immer drauf an was man will - aber jemand, der Anwendungen hat die von extremen bandbreiten profitieren UND hier zeitkritisch unterwegs ist (also wos nicht egal ist ob die CPU 10% schneller oder langsamer ist) wird kein normales Desktopsystem sondern ein HEDT oder Workstation-gerät betreiben. Für das was in dieser Zielgruppe hier zählt bzw. Druck auf die Konkurrenz ausübt und Marktanteile gewinnt ist die Strategie schon passend.

Persönlich freue ich mich auch auf stark verbessertes AVX - weil genau das für meine Anwendung einen großen Vorteil bietet (weswegen der 9900K einen 2700X aktuell ziemlich zersägt). Doppelte AVX-Performance bei doppelter Kernzahl... da wird die Säge umgedreht.
Ich dachte, die Latenzen sind nicht aus den Fingern gesaugt, weil sie auch heute erreichbar sind bzw. realistisch klingen. 40ns wäre zu gut, 60ns wäre nicht gut aber annehmbar.
Ja, in 7z mit LZMA2 kann man beides wunderbar erreichen:devil:Das Prinzip ist es ja, wenn man 16 Kerne kauft, dann sollte man sie in jeder Situation komplett nutzen können, egal ob die Anwendung speicher- oder kernlimitiert ist, sonst verschenkt man Geld/Leistung :kaffee:
Wird mal Zeit, dass Triple-Channel Dual-Channel beerbt, wie es mal Dual-Channel mit Single-Channel gemacht hat, falls 12+ Kerne wirklich mainstream werden sollten.

Bei AVX hoffe ich vor allem auf verbesserte Emulator-Performance:ugly:
 
Zurück