6+6 sind mittlerweile bestätigt.
Kommt doch sehr stark auf die Art der Verbindungen an, in Reihe schalten würde ja grds. funktionieren und quasi endlos skalierbar sein, würde halt die Latenznachteile maximieren.Auch MCM ist nicht unendlich skalierbar. Die einzelnen Chips müssen verbunden werden und je mehr Chips du hast, desto komplexer wird das.
?Server und mittlerweile auch Großrechner zum Beispiel wechseln seit Jahren sogar in Gegenrichtung von bis-zu-acht-Sockeln pro System auf Single- oder Dual-CPU-Blades
In meinen Augen ist MCM kein reiner Kosten-Nutzen Rechner. MCM ist, eben auf Grund der geringeren weiteren Skalierbarkeit des monolithischen Designs in vielen Belangen überlegen. Wenn man in Zukunft aus Graphen / Kohlenstoffnanoröhrchen oder was auch immer, 100% fehlerfrei Chips wachsen lassen kann, wird MCM wieder in die Kiste zurückwandern. Aber nach aktuellem Stand der Technik ist MCM dem monolithischen Ansatz dauerhaft überlegen.weil sich die Kosten-Nutzen-Rechnung
Sehe ich auch als wichtigen und richtigen Ansatz. Verschiedene Grafikkarten oder besser GPUs haben verschiedene Anforderungen. Könnte mir gerade im Profisegment durchaus Karten vorstellen die nur eine sehr kleinen GPU Die haben, dafür aber eben massiv "KI Kerne", oder auch umgekehrt. Man gewinnt hier, gerade auch in Zeiten der spezialisierten Recheneinheiten gewiss eine Menge Variabilität.Ich denke gerade im Bereich des hybriden Ansatzes in Hinsicht auf RT Berechnungen/Rasterizer könnte das mit MCM spannend werden. Man könnte ja so eigene GPU Cluster nur für die RT Berechnungen "drauf kleben" bzw. entwickeln und beliebig in die ein oder andere Richtung skalieren. Kenne mich zwar mit Arch Design nicht aus, aber in meiner Vorstellung schwebt sowas herum...
Na immerhin hat er dann schon zwei Extreme gesehen und eine Interpolation ist deutlich sinnvoller möglich als nur mit einem Extrem. Wie gesagt, interpoliere mir mal bitte aus den hier vorliegenden Tests die Effizienz eines 7950X3D in meinem UseCase UWQHD mit einer 6900XT @Stock!Dann sag mir was ein FHD Nutzer mit 3070 aus so einem Test ziehen soll wenn er seine CPU upgraden möchte weil er CPU limitiert ist. Er sieht am Ende nur das eine 4090 in 4k GPU Limitiert ist und nun?
Und wer hat die schnellste CPU in
Lohnen hängt heutzutage extrem vom Einsatzzweck ab. Die wichtigste € Frage ist, wofür benötigt man die CPU Leistung. Ist für 95% der Gamer aktuell fast unmöglich CPU's wirklich in Spielen auszureizen. Fast immer bremst die GPU bis auf wenige Ausnahmen wie Anno z.B.. Und wenn man z.B. wie ich Anno nicht spielt ist so eine cpu komplett sinnlose € Rausschmiss. Ich dem Spiel (Hunt Showdown) das ich ausschließlich zocke wir selbst ein kleiner 100€ core I5 10400f nie über 50% ausgelastet. Denke für viele Gamer ist es oft sinnvoller locker 4-6 CPU Gen zu überspringen. Ich warte z.b. bis ich die cpu Leistung wirklich brauche und das dauert noch lange. Bis dahin ist wahrscheinlich dircet storage standard, jedes 100€ Board kommt mit Pci5.0, 32 GB DDR5 6000 kosten 80€ Intel core I5 17600k für 250€ kommt mit 10 P + 15 E cores inkl. 3D cache daher. ?Der 7950X3D liegt in Spielen "nur" 24% über dem 5800X3D. Wo wird sich dann der 7800X3D einordnen ? Ist er 5-10% schneller ? Lohnt sich da ein ganzer Plattformwechsel ? Ich sage nein! Da wartet man wohl eher noch auf die nächste Gen.
But why. einfach in den GPU Test anschauen. und fertig. Und schon kann man sehen das GPU x z FPS gibt und CPU x y FPS hergibt. So kann man mit zwei Test einfach festellen was sich lohnt upzugraden in einem System.Na immerhin hat er dann schon zwei Extreme gesehen und eine Interpolation ist deutlich sinnvoller möglich als nur mit einem Extrem. Wie gesagt, interpoliere mir mal bitte aus den hier vorliegenden Tests die Effizienz eines 7950X3D in meinem UseCase UWQHD mit einer 6900XT @Stock!
Aber noch einmal, damit du vieleicht doch noch verstehst, was ich sagen will. Der 720p Test ist in meinen Augen völlig korrekt und für sich genommen nicht zu beanstanden. Auch halte ich ihn, wenn man eine Entscheidung treffen muss, für den wichtigsten Test.
Lediglich ergänzend würde ich mir einen 4K Test wünschen (wie gesagt, gerne auch in stark verkürzter Form und nur drei oder vier Games, die sich am "extremsten" herauskristallisieren.
Du das wird daran liegen das du Partiell im GPU limit bist.@PCGH_Dave
Kannst du mir vielleicht sagen welches Game den Schnitt beim 13700K so nach oben zieht?
Ich habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
Aber auch da ist das so eine Sache. RTS sieht und fühlt sich auch mit 30 FPS noch gut an.... Wer es mit 144FPS oder mehr braucht, nicht normal...Fast immer bremst die GPU bis auf wenige Ausnahmen wie Anno z.B.. Und wenn man z.B. wie ich Anno nicht spielt ist so eine cpu komplett sinnlose € Rausschmiss.
Das ist deine Definition.Aber auch da ist das so eine Sache. RTS sieht und fühlt sich auch mit 30 FPS noch gut an.... Wer es mit 144FPS oder mehr braucht, nicht normal...
Das Ding braucht bei jedem Benchmark mehr als 100 Watt@PCGH_Dave
Kannst du mir vielleicht sagen welches Game den Schnitt beim 13700K so nach oben zieht?
Ich habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
Und du zockst im CPU Limit? Im GPU Limit geht der Verbrauch logischerweise aufgrund der geringeren CPU Last nach untenIch habe noch nicht alle Games bei mir im Monitoring gehabt, mehr als 100 Watt hab ich beim Zocken bisher aber nicht gesehen.
ROFL meine 5600x mit mir ist Strom Egal OC ballert dort 70 Watt Raus.Das Ding braucht bei jedem Benchmark mehr als 100 Watt
Am meisten benötigen CP 77 (193 Watt) und Doom Eternal (178 Watt). Da die Werte normiert sind, hat aber jeder Benchmark den gleichen Anteil an der Effizienz. Ein 13900KS ballert in CP 77 übrigens 232 Watt raus. Und ein 7950X3D? 79 Watt ^^
Du musst halt bedenken, dass die Benchmarks im absoluten CPU-Limit ablaufen, ohne Fps-Limit und ohne Vsync. Die Werte können bei euch daheim also niedriger sein. Ich zocke privat beispielsweise auch mit einem 13700K und bei Atomic Heart mit Fps-Limit benötigt der noch schlappe 16 Watt, was vor allem daran liegt, dass nur ein einzelner Kern genutzt wird. Da verbraucht ein Chiplet-Ryzen im Idle dann schon mehr (CPU ist optimiert, und lässt sich daher mit dem Stock-13700K nicht wirklich vergleichen)
Anhang anzeigen 1419333
Andere Testmethodik, andere Testszene, andere Einstellungen ... wir haben zum Beispiel Raytracing aktiviert, was auch CPU-Last erzeugt. Wie genau Igor testet, weiß ich nicht, ich kann dir sagen, dass sich verschiedene Werte von verschiedenen Testern nicht direkt miteinander vergleichen lassen.Danke für die Antworten, das ich im GPU-Limit bin ist mir klar, aber selbst bei Igor der auch Cyberpunk im Bench-Parcour hat, kommt beim 13700K auf 78 Watt im Durchschnitt in 720P
und ausverkauft