beastyboy79
Software-Overclocker(in)
Ich warte ja noch auf das Abfahrtsignal des HYYYYYYYYYYYPETRAINS
Das problem bei Threadripper ist ne gute Spur "schlimmer", da muss ja ein kern der keine RAM-Anbindung hat über Infinityfabric und Fremdkern bis zum RAM laufen was vergleichsweise ewig dauert. Das hier ist ne weniger problematische Geschichte.
Es gibt halt die Optionen sagen wir mal ganz grob (erfundene Zahlen)
1.) Beide Chiplets Vollzugriff auf RAM über Cache --> jeder Kern bekommt 50 GB/s und hat ne Latenz von 60 ns. Oder
2.) Jeder Chiplet hat seine eigene private Direktverbindung --> jeder Kern bekommt 25 GB/s und hat ne Latenz von 40 ns.
Version 1 liefert mehr Cinebenchpunkte, Version 2 liefert mehr Spieleperformance.
Persönlich wäre mir 1 lieber da ich erstens eher arbeite als spiele und zweitens die CPU-Spieleleistung sowieso mehr als ausreichend ist (vor allem wenn man nen UHD-TFT benutzt). Ich befürchte aber Version 2 wird eher kommen da das nunmal wesentlich besser verkauft werden kann. Dann kannste sagen "hier wir haben in der Spieleleistung 20 oder 30% draufgelegt und im Cinebench haben wir auch 500 Punkte mehr als Intel". Anders müsstest du ja sagen "wir sind in Spielen 10% schneller und [ab hier liest keiner weiter] haben im Cinebench 800 Punkte mehr als Intel".
Hast du eigentlich irgendeine Basis deiner Annahme?
Ich lese heute zum ersten mal über solche Überlegungen.
Mein aktueller "Kenntnisstand" (sprich worauf sich die Gerüchteküche der Nerds mehr oder weniger geeinigt hat) ist:
- Ryzen3000 kommt mit einem DualChannel RAM-Interface, das Taktraten in der Größenordnung um DDR4-3600 erlaubt.
- Bei allen Ryzen 3000 bis einschließlich 8 Kernen (= 1 Chiplet) haben entsprechend alle Kerne Zugriff auf die volle Bandbreite
- Bei allen Ryzen 3000 mit mehr als 8 Kernen (= 2 Chiplets) hat jeweils ein Chiplet direkten Zugriff auf einen RAM-Channel, so dass die Single-Core Leistung je nach Anwendung bei Multichiplet-Ryzens sinkt.
- Ein Teil des I/O-Chips ist mit einer großen Menge L3-Cache ausgestattet, um durch einen großen schnellen Puffer die Nachteile des Chipletkonzeptes hinsichtlich Speicheranbindung zu minimieren (ähnlich der L4-CPUs von Intel wie dem 5775C)
So oder so, der Ryzen 5 3600X wird immer interessanter,
wenn der tatsächlich mit 8Kernen/16Threads und vollem Zugriff auf den RAM (Dualchannel für alles, wegen Single Chiplet und Low Latency),
teilweiser Fehlerkorrektur, DDR4 3600Support, hohem Takt bis an die 5GHz und effektiv mit einem IPC plus von um die 20-30% zur ersten Generation daherkommt.
Das wird dann ein garantiertes Upgrade, welches sich auch lohnt und bei dem ich den schon vorhandenen RAM sogar voll ausfahren könnte.
Ich bin und bleibe gespannt.
Die Leute drehen bei der IPC total durch, nach allem was wir Wissen gibt es zumindest bei AVX Workload eine Steigerung.
Es reicht schon wenn der Takt erhöht wird und sich die Latenzen nicht verschlechtern. 20 % mehr IPC ist halt nichts was der Enduser wirklich merkt. Ob ich nun mit 30 FPS oder 36 FPS im CPU Limit klebe ist egal - beides ist zu wenig.
Ich denke, bei 16 Kernen braucht man bei 1.) und 2). DDR5, weil Dual Channel die CPU zu sehr kastriert. 60ns und 40ns klingen nach Best Case Scenarios. 80ns und 60ns mit dem IO-Chip dazwischen wären eher der Fall, es sei denn, da ist ein mega L4-Cache. Ich erwarte den meisten Leistungszuwachs bei FP- Leistung wegen AVX mit 256bit an Stelle von 128bit wie bei Zen+.Das problem bei Threadripper ist ne gute Spur "schlimmer", da muss ja ein kern der keine RAM-Anbindung hat über Infinityfabric und Fremdkern bis zum RAM laufen was vergleichsweise ewig dauert. Das hier ist ne weniger problematische Geschichte.
Es gibt halt die Optionen sagen wir mal ganz grob (erfundene Zahlen)
1.) Beide Chiplets Vollzugriff auf RAM über Cache --> jeder Kern bekommt 50 GB/s und hat ne Latenz von 60 ns. Oder
2.) Jeder Chiplet hat seine eigene private Direktverbindung --> jeder Kern bekommt 25 GB/s und hat ne Latenz von 40 ns.
Version 1 liefert mehr Cinebenchpunkte, Version 2 liefert mehr Spieleperformance.
Persönlich wäre mir 1 lieber da ich erstens eher arbeite als spiele und zweitens die CPU-Spieleleistung sowieso mehr als ausreichend ist (vor allem wenn man nen UHD-TFT benutzt). Ich befürchte aber Version 2 wird eher kommen da das nunmal wesentlich besser verkauft werden kann. Dann kannste sagen "hier wir haben in der Spieleleistung 20 oder 30% draufgelegt und im Cinebench haben wir auch 500 Punkte mehr als Intel". Anders müsstest du ja sagen "wir sind in Spielen 10% schneller und [ab hier liest keiner weiter] haben im Cinebench 800 Punkte mehr als Intel".
Ich dachte, die Latenzen sind nicht aus den Fingern gesaugt, weil sie auch heute erreichbar sind bzw. realistisch klingen. 40ns wäre zu gut, 60ns wäre nicht gut aber annehmbar.Ich hab doch extra dabei geschrieben erfundene Zahlen, ich hätte auch 10 oder 500 ns benutzen können.
Das mit dem bandbreitenverhungern ist so ne Sache da es extremst anwendungsabhängig ist. Es gibt Anwendungen da kannste übertrieben gesagt wenn sie läuft den RAM ausbauen da alles in den Cache passt und es gibt andere Anwendungen da wärste mit nem OctaChannel auf 8 Kernen noch 30% schneller als mit nem QuadChannel.
Es kommt halt immer drauf an was man will - aber jemand, der Anwendungen hat die von extremen bandbreiten profitieren UND hier zeitkritisch unterwegs ist (also wos nicht egal ist ob die CPU 10% schneller oder langsamer ist) wird kein normales Desktopsystem sondern ein HEDT oder Workstation-gerät betreiben. Für das was in dieser Zielgruppe hier zählt bzw. Druck auf die Konkurrenz ausübt und Marktanteile gewinnt ist die Strategie schon passend.
Persönlich freue ich mich auch auf stark verbessertes AVX - weil genau das für meine Anwendung einen großen Vorteil bietet (weswegen der 9900K einen 2700X aktuell ziemlich zersägt). Doppelte AVX-Performance bei doppelter Kernzahl... da wird die Säge umgedreht.