G
Gast1705533002
Guest
An der Stelle einfach mal ein fettes Dankeschön an @PCGH_Dave für den Aufwand für diese Artikel und überhaupt und sowieso!
Dafür hat AMD ja dann wohl auch noch einen 7950X3D, der aktuell auch fast auf Augenhöhe zum 13900k liegt, preislich. Da liegen auch noch 121% zwischen!Abgesehen davon gibt es auch User, die zusätzlich Wert auf MT-Leistung legen und da zieht der 13900K Kreise um den ach so effizienten 7800X3D, welcher hier so gerne genannt wird.
So ganz unrecht hat er nicht, ja der 8700K war etwas schneller, allerdings eher meßtechnisch denn in der Realität, aber der AMD war damals günstiger. Dafür hat der 2700X in Anwendungen doch teils deutlich vorne gelegen. Insgesamt würde ich schon behaupten, dass der 2700X damals die "beste" CPU war, für kurze Zeit. Glaube der 9900K kam knapp ein halbes Jahr später.Mit Verlaub, aber der 2700X war nie ein CPU-König. Erst ab Zen 2 konnte man von wirklichem leistungsmäßigem Anschluss AMDs an Intel sprechen.
Bin kein Engine Entwickler aber:Super Artikel. Aber schon krass wie groß der Hardwarehunger ist. Wenn man bedenkt dass selbst die schnellsten CPU's auch nur 110-120 fps schaffen.
Bei den meisten anderen games schaffen die CPU's meist das x-fache nur die gpu wird zum Flaschenhals. Da frag ich mich wo die cpu power verbraucht wird? Ich meine das ist ein reines singleplayer spiel ohne krasse Simulationsberechnungen oder ähnliches?
Uh, das ist gut. Dann jage ich dem MotoGP Rennen meinen Rechner auch mal kurz durch die Szene.Die reguläre Szene. Ich hab versucht, eine neue zu finden, aber Dogtown ist recht verwinkelt und eher vertikal, sodass ich dann bei der alten blieb. Die ist für heutige Verhältnisse immer noch ziemlich fordernd.
So erst mal mit deaktiviertem CCD1:Mach. Vielleicht findest du ja heraus, warum der 7950X3D da so Faxen macht. Ich hab nur Last auf allen 16 Kernen gesehen. Teste auch ruhig mal mit der SMT Funktion off und on.
Ich habe ja trotzdem noch 200MHz mehr TaktUnd da wunderst du dich, dass ich mal gesagt habe, dass man als Spieler nichts mit 16 Kernen anfangen kann. Ich habe dieses Problem bisher nur bei Spielen beobachtet, die dazu in der Lage sind, deutlich mehr als acht Kerne (16 Threads) mit Last zu adressieren. Dann kommt der Cache Optimizer durcheinander und weiß nicht mehr, was er machen soll. Die hätten es wie Intel machen sollen, wo die E-Cores dann einfach als zusätzliche Kerne betrachtet werden und fertig wäre der Bumms.
Das geht nur wenn das ganze Cache Optimizer Zeug gar nicht läuft ansonsten grätscht der volles Rohr dazwischen.Mit dem toggle von CX mal die Last testweise auf die Kerne verteilt?
Meine da lief auf dem 7900X3D das etwas besser.
kA wie und ob das beim größten auch geht bzw ob es was bringt, dennoch wäre es interessant für mich.
Edit: Jetzt noch mal ein Vergleich mit einem etwas entschärften Setting mit 6000MT/s auf dem Ram und 2133MHz auf der IF:
Anhang anzeigen 1438475
Naja, passt doch im Verhältnis zum stock 7800X3D. 15% bei den AVG, genauso wie bei den 1% PerzentilenGar nicht mal so tolle min FPS für die avg.
Hast selber noch nen RPL?
Kannst ja mal ein vernünftiges Setup benchen. Was soll das mit den 6800MT/s überhaupt
Man mus auf nix hoffen. Wenn einem der Unterschied bei Cyberpunk wichtig ist (zwischen 7800X3D), dann schaltet man eben für das Game einen CCD ab. Ist genau das gleiche (und weniger arbeit) wie die ganzen Intelianer, die behaupten sie benutzen alle UV - Settings.Deswegen würde ich derzeit auch Intel kaufen.
Der 7800x3d hat für den Preis eigentlich zu wenig Kerne, vor allem wenn man nicht nur zockt. Bei den Dual CCD Modellen darf man auf den Scheduler und Updates hoffen bzw unter Linux ist die Lage noch blöder. Ich hoffe mal da kommt bald ein native 16 Kern CCD bzw irgend so ein Interconnect Cache zwischen den CCDs.