News AMD über Ryzen 9000X: "Schneller als die Konkurrenz" - aber nicht als 7000X3D

Deswegen profitiert Cyberpunk 2077 recht deutlich von den E-Cores ...

Immer diese AMD Nutzer, die Intel Nutzern erklären wollen wie ihre CPUs funktionieren obwohl sie keine Ahnung haben.

Was hat Cyberpunk mit Skalierungstests zu tun? Ist ein Videospiel nicht ungeeignet, da es verschiedene Sachen berechnen lässt?

Nimmt man für sowas nicht lieber einen syntethischen Test?

Ich glaube auch das ALles von mehr Kernen profitiert egal wie die zustande kommen.

Denn es gibt genug Hitergundlast, die die E-Cores bearbeiten können, so dass sich die P-Core umso besser um die Anwendung oder Spiel kümmern können. Und Bei AMD kümmern sich die Cores mit 3DCache um das Spiel und der Rest umd den Rest halt.

Am Ende ist doch das entscheidende das Ergebnis.
 
Was hat Cyberpunk mit Skalierungstests zu tun? Ist ein Videospiel nicht ungeeignet, da es verschiedene Sachen berechnen lässt?
Cyberpunk hat einen integrierten Bench der immer gleich abläuft, zudem hat selbst all die Zeit nach Release kein anderes Spiel ein vergleichbares Multithreading.

Aber für eine echte Kernskalierung benötige ich Kerne, die gleich-schnell arbeiten. Dafür sind Hybrid-CPUs nicht gedacht, und Dual-CCDs auch nicht.
Wird Zeit Skylake-X/Cascade Lake-X wieder auszupacken. Bis zu 18 gleich-schnelle Kerne + SMT :-P
 
Je nach Implementierung des Multithreadings können langsame E-Cores helfen oder nachteilig sein.

Naive Implementierungen teilen die Arbeit geleichmäßig auf alle Kerne/Threads auf. Wenn dann einige Kerne hinerher hinken, während andere schon fertig ist, ist das Mist. Der langsamste Thread diktiert die Gesamtperformance. Wenn es dann noch Flaschenhälse beim Cache- oder Speicherzugriff gibt: auweia.

Besser funktioniert in einem solchen Szenario der Ansatz "Work Stealing". Die Arbeit wird in Pakete aufgeteilt und die Threads schnappen sich unabhängig voneinander die verfügbaren Arbeitspakete. Das wird allerdings schnell komplex.
Die Arbeitspakete müssen teilweise in einer bestimmten Reihenfolge ausgeführt werden und haben unterschiedliche Prioritäten und/oder Deadlines. Auch problematisch: wenn ein großes, dringendes Arbeitspaket unglücklicherweise an einen langsamen Thread fällt. Der ist dann so lange blockiert oder wird schlimmstenfalls nicht rechtzeitig fertig. Dabei hätte er in der selben Zeit wahrscheinlich mehrere kleine und weniger dringende Tasks erledigen können.

Entwickler müssen also Rücksicht nehmen auf die Fähigkeiten der einzelnen Cores. In der Praxis hat man aber in der Regel nicht ewig Zeit Kleinigkeiten zu optimieren und dann läuft es auf irgendeinen Kompromiss raus, der gut genugist.
 
Zuletzt bearbeitet:
Was AMD unbedingt ändern sollte, ist denn DIE flacher zu gestalten, so könnte man höhere Taktfrequenzen erreichen das sollte einen enormen boost geben und die Temperaturen wären auch um einiges besser als jetzt.
Einfach mehr Cache drauf ballern bringt nicht viel wie im engineering Sample des 7950X3D schon gesehen.
Die neuen Ryzen Prozessoren werden die aktuellen wie im Betrag erwähnt schlagen bis auf die mit dem 3-D-Cache und Intel ihre werden dann die neuen Ryzen schlagen auf Kosten der Energie bis dann wieder AMD um die Ecke kommt den ganzen 3-D Prozessoren alles wiederholt sich.
 
Deswegen profitiert Cyberpunk 2077 recht deutlich von den E-Cores ...

Immer diese AMD Nutzer, die Intel Nutzern erklären wollen wie ihre CPUs funktionieren obwohl sie keine Ahnung haben.
Und nicht verstanden was ich gemeint habe.
Aber schön zu sehen das du mir direkt Bias unterstellst, den du anscheinden selber hast.

Ein 7950x3d hat 16 Kerne und eigenet sich auch nicht dafür da welche ohne cache und welche mit und dann noch CCD aufteilung.
ist bei Intel ähnlich die E Cores leisten anders als die P cores. Deswegen weiß man nicht ob wenn einn Spiel nun 10% mehr Fps mit allen aktivierten e Core hat statt ohne , ob das Spiel perfekt mit den zusätzlichen Kernen Skaliert oder eben nicht. Da die Core Unterschiedliches leisten.
Für einen perfekten Test braucht man also entweder einen AMD 16 1 CCD CPU oder eine Intel 16 E core CPU ohne P cors oder mit abschaltbaren P cores.
Wird Zeit Skylake-X/Cascade Lake-X wieder auszupacken. Bis zu 18 gleich-schnelle Kerne + SMT :-P
Ich zitiere mal Thorsten:

"Dave und ich haben Arbeitsstunden ohne Ende versenkt, explizit mit dem Ziel mal Multi-Core-Skalierung jenseits von 8 Kernen testen zu können. Aber trotz eingestreuter Wartezeiten im Umfang mehrerer Monate kamen weder Asus noch Intel mit einer Lösung für die Probleme um die Ecke (oder auch nur einem "its a feature not a bug") Bei Hardware für deutlich über 10.000 Euro zu prüfen, ob die Framerate maximal auf Niveau eines Sechskerners gleichmäßig oder sprunghaft sinkt, wenn man Kern (de-)aktiviert ist dann doch ziemlich akademisch."
 
Für Gamer sind die 9000er ohne 3DV Cache doch recht uninteressant. Haben die überhaupt für irgendwen Vorteile?
Wer würde sich, wenn er einen 16 Kerner sucht, einen 9950X statt eines 9950X3D kaufen, wenn beide verfügbar sind? Außer dem niedrigerem Preis gibts da doch nix.
 
Ich scheue mich davor umzusteigen, weil ich dann alles ersetzen müsste: RAM, Mainboard, CPU, Kühler… Das ist ein riesiger Satz an Kosten für einen nicht im Verhältnis stehenden Leistungsgewinn.
Solange dir die Performance deines Unterbaus ausreicht, kann dir das ja egal sein. Bei mir ist auch noch 3700X. Reicht mir mit meiner 7800XT für alles was ich bisher anrühre.

Es sei denn du sprichst vom Aufrüsten um des Aufrüstens Willen. Hier waren und sind Leistungssteigerungen eh nur Alibis für den Aufrüster;)
 

Standeck,​


lass den 9950x mal auf all core 5,5ghz+ laufen, dann wirste sehen wer den gebrauchen kann !

ansonsten, lassen wir uns überraschen ;)
Du schon mal nicht wenn ich mir dein System so anschaue. 7950X3D mit 5.3 Ghz sollte den 9950X non 3D auch bei 5.5 schlagen. Warten wir mal die CPU Tests unserer Lieblings Hardware Seite ab.
 
Für Gamer sind die 9000er ohne 3DV Cache doch recht uninteressant. Haben die überhaupt für irgendwen Vorteile?
Wer würde sich, wenn er einen 16 Kerner sucht, einen 9950X statt eines 9950X3D kaufen, wenn beide verfügbar sind? Außer dem niedrigerem Preis gibts da doch nix.
Du hast die konstante Leistung, weil es egal ist welche Chiplet genutzt wird.
 
Außer der 3DV Cache ist diesmal bei beiden Chiplets vorhanden. Davon gehe ich mal aus. Sicher ist es aber noch nicht natürlich.
Hmm hab ich mir auch überlegt, aber wenn dann Daten des einen Caches auf den anderen Cache zugreifen müssten dann hätte man wieder eine Latenz aber keine Ahnung bin kein Profi in dem Bereich.
 
Außer der 3DV Cache ist diesmal bei beiden Chiplets vorhanden. Davon gehe ich mal aus. Sicher ist es aber noch nicht natürlich.
Glaube ich nicht, weil es die Cacheverwaltung sehr kompliziert macht. Wenn CCD1 auf den Cache in CCD2 zugreifen will, wird das schwierig. Da ist es leichter ein Chiplet als "P-cores" und eines als "E-Cores" zu fahren und die Threads so zu verteilen.
 
Glaube ich nicht, weil es die Cacheverwaltung sehr kompliziert macht. Wenn CCD1 auf den Cache in CCD2 zugreifen will, wird das schwierig. Da ist es leichter ein Chiplet als "P-cores" und eines als "E-Cores" zu fahren und die Threads so zu verteilen.
Hä warum die Daten werden einfach in beide Cachs abgelegt, beide CCDS erhalten den selben Daten Satz, klar verliert man dadruch etwas an leistung, als wenn man unterschiedliche daten pro CCD anlegen würde, Dürfte aber egal sein. Solang genung Daten darin gelagert werden können um 16 Kerner zu versorgen, was je nach Anwendung möglich sein sollte,
 
Am besten wäre natürlich ein Chiplet mit 16 Kernen + 3DV Cache. Aber dazu wird es wahrscheinlich nicht kommen. Und ein Design bei dem sich zwei Acht Kern Chiplets einen 3DV Cache teilen wird wahrscheinlich zu teuer sein.
 
Zurück