Special AMD Ryzen 9 7950X3D im Test: Der Gipfel der CPU-Entwicklung

Auch MCM ist nicht unendlich skalierbar. Die einzelnen Chips müssen verbunden werden und je mehr Chips du hast, desto komplexer wird das.
Kommt doch sehr stark auf die Art der Verbindungen an, in Reihe schalten würde ja grds. funktionieren und quasi endlos skalierbar sein, würde halt die Latenznachteile maximieren.

Server und mittlerweile auch Großrechner zum Beispiel wechseln seit Jahren sogar in Gegenrichtung von bis-zu-acht-Sockeln pro System auf Single- oder Dual-CPU-Blades
?
Ist das nicht eher sogar die gleiche Richtung, nur in einer anderen Auflösung?
Von großen "Einserverplattformen" auf eben "MSM- MultiServerModul"Plattform?

Im Prinzip schreibst du ja bereits meinen ersten Satz nieder, dort wo eben die Interconnect Geschwindigkeiten nicht gebraucht werden, ist MCM quasi endlos skalierbar, da selbst ein einfaches in Reihe schalten (jeweils ein Eingang und ein Ausgang je Modul) ausreichend sein kann. AMD, oder aber auch Intel haben in ihren jetzigen Ansätzen aber immer den Ansatz, Latenzabhängige Anwendungen zu befeuern und da gebe ich dir natürlich Recht, endlos skalierbar ist es nicht, der Aufwand wird exponentiell steigen.


weil sich die Kosten-Nutzen-Rechnung
In meinen Augen ist MCM kein reiner Kosten-Nutzen Rechner. MCM ist, eben auf Grund der geringeren weiteren Skalierbarkeit des monolithischen Designs in vielen Belangen überlegen. Wenn man in Zukunft aus Graphen / Kohlenstoffnanoröhrchen oder was auch immer, 100% fehlerfrei Chips wachsen lassen kann, wird MCM wieder in die Kiste zurückwandern. Aber nach aktuellem Stand der Technik ist MCM dem monolithischen Ansatz dauerhaft überlegen.
Ich denke gerade im Bereich des hybriden Ansatzes in Hinsicht auf RT Berechnungen/Rasterizer könnte das mit MCM spannend werden. Man könnte ja so eigene GPU Cluster nur für die RT Berechnungen "drauf kleben" bzw. entwickeln und beliebig in die ein oder andere Richtung skalieren. Kenne mich zwar mit Arch Design nicht aus, aber in meiner Vorstellung schwebt sowas herum...
Sehe ich auch als wichtigen und richtigen Ansatz. Verschiedene Grafikkarten oder besser GPUs haben verschiedene Anforderungen. Könnte mir gerade im Profisegment durchaus Karten vorstellen die nur eine sehr kleinen GPU Die haben, dafür aber eben massiv "KI Kerne", oder auch umgekehrt. Man gewinnt hier, gerade auch in Zeiten der spezialisierten Recheneinheiten gewiss eine Menge Variabilität.
 
Dann sag mir was ein FHD Nutzer mit 3070 aus so einem Test ziehen soll wenn er seine CPU upgraden möchte weil er CPU limitiert ist. Er sieht am Ende nur das eine 4090 in 4k GPU Limitiert ist und nun?
Na immerhin hat er dann schon zwei Extreme gesehen und eine Interpolation ist deutlich sinnvoller möglich als nur mit einem Extrem. Wie gesagt, interpoliere mir mal bitte aus den hier vorliegenden Tests die Effizienz eines 7950X3D in meinem UseCase UWQHD mit einer 6900XT @Stock!

Aber noch einmal, damit du vieleicht doch noch verstehst, was ich sagen will. Der 720p Test ist in meinen Augen völlig korrekt und für sich genommen nicht zu beanstanden. Auch halte ich ihn, wenn man eine Entscheidung treffen muss, für den wichtigsten Test.
Lediglich ergänzend würde ich mir einen 4K Test wünschen (wie gesagt, gerne auch in stark verkürzter Form und nur drei oder vier Games, die sich am "extremsten" herauskristallisieren.
 
@PCGH_Dave
Kannst du mir vielleicht sagen welches Game den Schnitt beim 13700K so nach oben zieht?
Ich habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
 
Und wer hat die schnellste CPU in

Der 7950X3D liegt in Spielen "nur" 24% über dem 5800X3D. Wo wird sich dann der 7800X3D einordnen ? Ist er 5-10% schneller ? Lohnt sich da ein ganzer Plattformwechsel ? Ich sage nein! Da wartet man wohl eher noch auf die nächste Gen.
Lohnen hängt heutzutage extrem vom Einsatzzweck ab. Die wichtigste € Frage ist, wofür benötigt man die CPU Leistung. Ist für 95% der Gamer aktuell fast unmöglich CPU's wirklich in Spielen auszureizen. Fast immer bremst die GPU bis auf wenige Ausnahmen wie Anno z.B.. Und wenn man z.B. wie ich Anno nicht spielt ist so eine cpu komplett sinnlose € Rausschmiss. Ich dem Spiel (Hunt Showdown) das ich ausschließlich zocke wir selbst ein kleiner 100€ core I5 10400f nie über 50% ausgelastet. Denke für viele Gamer ist es oft sinnvoller locker 4-6 CPU Gen zu überspringen. Ich warte z.b. bis ich die cpu Leistung wirklich brauche und das dauert noch lange. Bis dahin ist wahrscheinlich dircet storage standard, jedes 100€ Board kommt mit Pci5.0, 32 GB DDR5 6000 kosten 80€ Intel core I5 17600k für 250€ kommt mit 10 P + 15 E cores inkl. 3D cache daher. ?
Meine Gpu Rtx6070ti hat dann endlich auch vernünftige 20GB vram so dass Raytracing in 4K bei 144hz/fps kein Problem sind.
 
Na immerhin hat er dann schon zwei Extreme gesehen und eine Interpolation ist deutlich sinnvoller möglich als nur mit einem Extrem. Wie gesagt, interpoliere mir mal bitte aus den hier vorliegenden Tests die Effizienz eines 7950X3D in meinem UseCase UWQHD mit einer 6900XT @Stock!

Aber noch einmal, damit du vieleicht doch noch verstehst, was ich sagen will. Der 720p Test ist in meinen Augen völlig korrekt und für sich genommen nicht zu beanstanden. Auch halte ich ihn, wenn man eine Entscheidung treffen muss, für den wichtigsten Test.
Lediglich ergänzend würde ich mir einen 4K Test wünschen (wie gesagt, gerne auch in stark verkürzter Form und nur drei oder vier Games, die sich am "extremsten" herauskristallisieren.
But why. einfach in den GPU Test anschauen. und fertig. Und schon kann man sehen das GPU x z FPS gibt und CPU x y FPS hergibt. So kann man mit zwei Test einfach festellen was sich lohnt upzugraden in einem System.
Oder ganz verrückt einfach die Auflösung zu hause herunter drehen und schauen welche FPS erreicht werden.
Werden weniger als gewollt erreich und GPU load unter 95% CPU upgrade it is.
@PCGH_Dave
Kannst du mir vielleicht sagen welches Game den Schnitt beim 13700K so nach oben zieht?
Ich habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
Du das wird daran liegen das du Partiell im GPU limit bist.
 
@PCGH_Dave
Kannst du mir vielleicht sagen welches Game den Schnitt beim 13700K so nach oben zieht?
Ich habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
Das Ding braucht bei jedem Benchmark mehr als 100 Watt :ugly:
Am meisten benötigen CP 77 (193 Watt) und Doom Eternal (178 Watt). Da die Werte normiert sind, hat aber jeder Benchmark den gleichen Anteil an der Effizienz. Ein 13900KS ballert in CP 77 übrigens 232 Watt raus. Und ein 7950X3D? 79 Watt ^^

Du musst halt bedenken, dass die Benchmarks im absoluten CPU-Limit ablaufen, ohne Fps-Limit und ohne Vsync. Die Werte können bei euch daheim also niedriger sein. Ich zocke privat beispielsweise auch mit einem 13700K und bei Atomic Heart mit Fps-Limit benötigt der noch schlappe 16 Watt, was vor allem daran liegt, dass nur ein einzelner Kern genutzt wird. Da verbraucht ein Chiplet-Ryzen im Idle dann schon mehr ;) (CPU ist optimiert, und lässt sich daher mit dem Stock-13700K nicht wirklich vergleichen)

1677591759480.png
 
Wow AMD! Die Intel-Aktie wird weiter crashen.
Vom 5600, über 5700X, 5800X3D bis zum neuen 7950X3D hat AMD die ganze Breite des Marktes abgedeckt.
AM4 für das untere und mittlere Marktsegment und AM5 für oben und ganz weit oben :-) . Hut ab!
 
Das Ding braucht bei jedem Benchmark mehr als 100 Watt :ugly:
Am meisten benötigen CP 77 (193 Watt) und Doom Eternal (178 Watt). Da die Werte normiert sind, hat aber jeder Benchmark den gleichen Anteil an der Effizienz. Ein 13900KS ballert in CP 77 übrigens 232 Watt raus. Und ein 7950X3D? 79 Watt ^^

Du musst halt bedenken, dass die Benchmarks im absoluten CPU-Limit ablaufen, ohne Fps-Limit und ohne Vsync. Die Werte können bei euch daheim also niedriger sein. Ich zocke privat beispielsweise auch mit einem 13700K und bei Atomic Heart mit Fps-Limit benötigt der noch schlappe 16 Watt, was vor allem daran liegt, dass nur ein einzelner Kern genutzt wird. Da verbraucht ein Chiplet-Ryzen im Idle dann schon mehr ;) (CPU ist optimiert, und lässt sich daher mit dem Stock-13700K nicht wirklich vergleichen)

Anhang anzeigen 1419333
ROFL meine 5600x mit mir ist Strom Egal OC ballert dort 70 Watt Raus.
Gut auch bei 130 FPS . Aber trotzdem
 
Danke für die Antworten, das ich im GPU-Limit bin ist mir klar, aber selbst bei Igor der auch Cyberpunk im Bench-Parcour hat, kommt beim 13700K auf 78 Watt im Durchschnitt in 720P

 
Danke für die Antworten, das ich im GPU-Limit bin ist mir klar, aber selbst bei Igor der auch Cyberpunk im Bench-Parcour hat, kommt beim 13700K auf 78 Watt im Durchschnitt in 720P
Andere Testmethodik, andere Testszene, andere Einstellungen ... wir haben zum Beispiel Raytracing aktiviert, was auch CPU-Last erzeugt. Wie genau Igor testet, weiß ich nicht, ich kann dir sagen, dass sich verschiedene Werte von verschiedenen Testern nicht direkt miteinander vergleichen lassen.
 
Kein Problem, alles gut, da Intel mit der Brechstange agiert selbst schuld.
Meiner könnte in Cyberpunk gar keine 193 Watt weghauen weil er bei 180 Watt gedeckelt wird und selbst mit 125 Watt sollte er immer überall schnell genug sein.
Hab da auch nicht weiter getestet da es im Gaming Alltag eh nicht auftritt, da kotzt die Grafikkarte im Strahl ;)
 
Zurück