AMD Ryzen 3000: Engineering Sample mit 16 Kernen soll 4,2 GHz erreichen

Der die 4-chip Threadripper sind auch ein wirklich eigenartiges Konstrukt. Wenn man Arbeit hat die sehr gut parallelisierbar ist und weder viele noch schnell Daten braucht dann sind sie super. Wenn nicht dann ist man mit nem 2-chip Threadripper besser dran -.-
 
Ich freue mich langsam echt auf den 12 Kerner :wow:
Wenn der echt gut sein sollte, könnte er doch statt des 8 Kerns kommen :D
 
Wenn das ES 4,2 Ghz auf allen Kernen schafft dann vielleicht die finale CPU 4,5Ghz.
Vielleicht dann 1-2 Kerne auf 4,7-4,9 Ghz.
Das wäre trotzdem sehr ordentlich.:)

Und wegen dem I/O Chip lasse ich mich mal überraschen. Wenn da tatsächlich L4 Cache drin stecken sollte, könnte das für einen ordentlich Perfomance Schub sorgen.
Hat man ja schon bei Intel Broadwell gesehen. Der hatte bei deutlich geringeren Takt quasi die selbe Leistung.
Aber ich weiß nicht ob man das so direkt vergleichen kann. Wegen der unterschiedlichen Architekturen.
 
Wenn L3 in den Chiplets steckt ist der große I/O Chip eben ein Berg von L4. :D

Außer große Cachemengen gibt es einfach keinen sinnvollen Bestandteil, der einen IO-Chip derart groß ausfallen lassen würde. Und wenn ich mehrere Untereinheiten an Chips miteinander performant verbinden möchte muss ich zwingend einen großen schnell angebundenen Zwischenspeicher verwenden sonst verhungern die Chiplets elendig beim Versuch miteinander zu arbeiten. Siehe Threadripper 2990WX die "hinteren" beiden CCX ohne direkte RAM-Anbindung. Das bremst je nach anwendung derart, dass man ganz ohne diese 16 schlecht angebundenen Kerne schneller wäre (die gut angebundenen kerne können die Aufgabe in dem Fall schneller mit erledigen als die zusätzlichen hinteren kerne brauchen um überhaupt an die Daten zu kommen).

Was glaubst du, welcher Art von L4 eventuell in dem I/O stecken könnte?
Wäre eDRAM sinnvoll oder welche anderen Lösungen gäbe es?
 
Was glaubst du, welcher Art von L4 eventuell in dem I/O stecken könnte?
Wäre eDRAM sinnvoll oder welche anderen Lösungen gäbe es?

Ich persönlich sehe keinen Grund, warum man in einem I/O-Die auf Basis eines 14 nm-Prozesses den Teil des Prozessors unterbringen sollte, der einen so großen Teil des verfügbaren Platzes braucht. Des Weiteren: Cache lebt von seinen kurzen Latenzen. Ich weiß nicht, wie sinnvoll es wäre, den auf einem weiteren Chip unterzubringen, auch wenn es "nur" L4-Cache ist.
gRU?; cAPS
 
Das kommt drauf an wie schnell die Anbindung ist. Von der Fläche her und der Performance würde ich auf klassischen SRAM tippen - was natürlich nur dann Sinn hat wenn die Anbindung zu den Chiplets auch die enormen Datenraten und extrem kurzen Latenzen von SRAM umsetzen kann (ein L4 der 300 GB/s übertragen kann hat wenig Sinn wenn er nur mit 50 GB/s angebunden ist). eDRAM erscheint mir dagegen zu langsam, der verbesserte InfinityFabric sollte schon die genannten 50 GB/s erreichen wo DRAM so seine Probleme bekommen sollte, speziell bei mehreren InfinityFabrics zu mehreren Dies.
Da der I/O von Ryzen3000 technisch sicherlich vergleichbar zu den I/Os der EPYCs ist und hier 8 Chiplets gleichzeitig Daten haben wollen halte ich eDRAM für recht unwahrscheinlich, einfach weil er dafür zu langsam ist. Die viel größere Speichermenge die möglich wäre gegenüber SRAM halte ich nicht für entscheidend - als L4 zur Kommunikation zwischen Chiplets sind 32 MB schneller SRAM garantiert sinnvoller als 256 MB langsamer eDRAM.

Ich persönlich sehe keinen Grund, warum man in einem I/O-Die auf Basis eines 14 nm-Prozesses den Teil des Prozessors unterbringen sollte, der einen so großen Teil des verfügbaren Platzes braucht. Des Weiteren: Cache lebt von seinen kurzen Latenzen. Ich weiß nicht, wie sinnvoll es wäre, den auf einem weiteren Chip unterzubringen, auch wenn es "nur" L4-Cache ist.
gRU?; cAPS
Wir haben ein Multi-Chiplet Design. Der Cache (wie auch immer er aussieht) ist NICHT dafür da, die Performance zu steigern - er ist dazu da um zu verhindern, dass die Performance bei chipletübergreifenden Aufgaben ins bodenlose fällt. ;-)
AMD macht das nicht weil sie damit besonders schnell werden sondern weil es technisch zwingend notwenig ist um nicht in ungünstigen Situationen einzubrechen.
Ich könnte mir eine inklusive Cachehierarchie vorstellen (alle Daten der kleinen Caches sind in den hheren enthalten) - dann hätte notfalls jeder Kern Zugriff auf die Daten eines jeden anderen Kerns. Das erzeugt zwar eine höhere Latenz - die aber viel niedriger ist als die die entstünde wenn Kern 1 üfer den IF auf den L2-Cache von kern 15 zugreifen will.
 
Also wenn man sich mal die Größe vom Zen 1 Chip anguckt und mit dem 14nm I/O Die von Zen2 vergleicht sind die fast gleich groß. Vielleicht ist auf dem I/O Die SRAM und man spiegelt den L3 Cache der Chiplets da rein ?

Oh Alk war schon schneller ;D
 
Ich denke nicht, dass der potentielle Cache im I/O-Die der Mainstream Ryzen die Inter Core Latenz verbessern soll, weil die Chiplets wohl direkt miteinander verlinkt werden. Ich denke eher, dass die RAM Latenzen verbessert werden sollen.
 
Mal sehen ob 16kerne ausreichen um die leistung eines aktuellen Intel Quad Cores in sachen FPS zu erreichen. Ich denke erst bei 25-30kernen loool
 
Mal sehen ob 16kerne ausreichen um die leistung eines aktuellen Intel Quad Cores in sachen FPS zu erreichen. Ich denke erst bei 25-30kernen loool

Das ist wirklich die größte Frage hier.

Es wäre so schade, wenn der 16 Kern Zen2 2 fps in 720p hinten liegt. Das würde echt das wichtigste Kriterium überhaupt sein.
Das der dann doppelt soviele Kerne hat, zukunftssicherer und innovativer durch PCIe 4.0, generell sicherer (Spectre, Meltdown und Co.), weniger Strom verbraucht und nebenbei in allen anderen relevanten Anwendungen schneller ist, kann und darf hier keine Rolle spielen.

1. Abwarten und Tee trinken und
2. Kopf -> Tisch
 
Zuletzt bearbeitet:
16 Kerne? Ok krass.
Ich hätte nicht gedacht, dass die sofort alle 16 Kerne rausklatschen, eher im nächsten Jahr zum Refresh.

Aber ist es mittlerweile nicht auch etwas zu spät für die Engineering Samples?
Langsam müssen die doch definitiv fertig sein mit dem Optimieren und Takt festlegen...

Ich werde wahrscheinlich wie geplant beim 12 Kerner zuschlagen, aber je nachdem wie heftig der 16 Kerner reinknallt, werde ich mich vielleicht nicht zurückhalten können. :devil:
 
Wenn sie das Backend dermaßen aufbohren, um in AVX 256bit gleichzuziehen und auch sonst nette Features einbauen, werden sie sicher aufschließen/überholen, taktmäßig werden sie bei Intel herauskommen, , alles hängt davon welcher L4 im I/O verbaut ist und welche Latenzen, respektive Spieleleistung daraus generiert werden kann.
 
Falls es einen L4 Cache gibt, sollte die Abhängigkeit vom System-RAM abnehmen, was eigentlich vorteilhaft wäre, weil auch RAM mit moderaten Taktraten und Timings in Games kein Bottleneck (mehr) darstellen würde.
 
Die besten Chiplets werden anfangs ohnehin EPYC und später Threadripper vorbehalten sein.

Wobei Threadripper von der Roadmap gestrichen wurde, hatte ich neulich erst gelesen.:) Aber selektiert wurde ja schon bei beim Ryzen 1. Intel macht das ja auch schon seit Ewigkeiten. Nvidia mit ihren A Chips ebenfalls, wobei das ja wieder gestrichen werden soll.

Die Sache von den IO Die ist halt noch sehr spekulativ. Ich hoffe in einen Monat weiß man mehr. Damit diese Gerüchte endlich aufhören.:)
 
Zuletzt bearbeitet:
Zurück