Die 12 serie von Intel verstehe da was nicht, wer kann es mir erklären?

Bevor ich mir den 12900k kaufte habe ich mir auch unzählige Tests dazu angeschaut und zum Teil konnte ich auch in etwa schätzen wie der Prozessor laufen würde.
 
Ja stimmt das würde auch keiner kurz testen um zu sehen wo der dann stehen würde. Naja es hat wer für mich gemacht. Weiß also nicht ob man sagen kann so ungefähr wäre er dann. Freilich müsste man noch etwas abziehen weil cache hier noch etwas leistung heraus geholt hatte was beim reinen 6 kerne mit ht samt 4 e core nicht der Fall wäre. Allerdings in die ungefähre Richtung wird er ja dennoch gehen. Habe ich ja gemacht um auf meinen workloard dem so nahe wie möglich zu kommen weil ich halt eben keinen gefunden hatte der ein 12600k besitzt. Ist ja auch nicht so leicht weil die meisten eben AMD CPUs haben. Tya so ist das halt. Ich haue da einfach wegen dem Cache 5-10 % noch runter und dann habe ich sicherlich die Leistung die es entspricht.

Habe auch genau geschaut und weiß auch das es manche als mit Äpfel mit birnen Vergleichen. Ich habe es dennoch gemacht. Der cache pro core zwischen 5950x und 3970x ist bei l1 cache 32 Kb mehr beim 3970x. Der Rest ist gleich. Der 2990wx zum 3970x hat ebenso der 3970x mehr l1 cache. Beide gemein ist das beide die selbe leistung haben. Beide trennen zum 3970x ein paar wenige Prozente. Die Anwendung mag also l1 Cache sehr gerne. Ist echt interessant. L3 cache scheint sich nicht mehr auszuwirken.
Zwischen 9980xe zum 3950x sah es noch anderst aus.
Ab einer gewissen Größe hat cache keine Auswirkungen.

Darum kann ich sagen so nen unterschied wie Tag und Nacht ist es dennoch nicht. Naja wenn ich die chance kriege werde ich es nutzen um auch nen nativen 12600k zum testen zu nutzen.
Will ja wissen ob die ipc und so es mir ermöglicht langfristig auch mit weniger Kernen auszukommen. Denn ich denke mal nicht das die Hardware für immer hält.
Klar bei manchen läuft die Hardware auch nach 10 - 15 Jahren noch immer. Dennoch fände ich es interessant ab wann es bei mir keine leistungs Steigerung mehr geben wird.
Wobei immer weniger Kerne nicht immer automatisch Sparsamkeit sagen kann. Und da kommt ja noch der 12400f. Das wird ein Spaß werden. Geht also nur mit dem 12600k einen 12400f zu simulieren. Weil man dann die selbe Anzahl hat. E cores weg und schon hat man aus einem 12600k einen 12400f draus gemacht. Ich werde das wohl noch weiter verfolgen. Und wer weiß ob dann nicht in Zukunft das Wissen brauchen werde weil ich habe ja nicht nur 1 sondern mehrere PCs. Und die haben schon einige Jahre auf dem Buckel. Mal sehen wie lange noch. Und dann stehe ich da mir doch einen Gaming PC zu holen. Dann werde ich froh sein da mehr zu wissen.
 
Der cache pro core zwischen 5950x und 3970x ist bei l1 cache 32 Kb mehr beim 3970x. Der Rest ist gleich.
Nein, TR hat Quad Channel Memory. Du hast dort eine ganz andere Speicherbandbreite. Von den restlichen Unterschieden mal abgesehen...
Der 2990wx zum 3970x hat ebenso der 3970x mehr l1 cache. Beide gemein ist das beide die selbe leistung haben
Auch das ist schlicht und einfach nicht richtig. Der 3970 hat den doppelten L3 Cache und eine andere Zen Architektur als der 2990wx. Das sind 7nm bzw. 12nm CPUs. Ganz davon ab, dass beide unterschiedliche Base und Boost Clocks haben.
Ab einer gewissen Größe hat cache keine Auswirkungen.
Nope.
 
Wie ne, also es wurden alle mit dem selben cpu takt getestet. Das wurde durch den test schon ausgeglichen. Nun es gibt Anwendung die wo ab einer gewissen größe nicht mehr vom noch größere l3 cache profitieren. Vorausgesetzt man macht ne gewisse Einstellung dann passt es ab einer gewissen Größe rein. Und naja soviel wurde zwischen den beiden threadripper CPUs Generationen ja nicht verändert. Naja bin gespannt wie sich die kleinen Intel 12 Serie CPUs so verhalten werden. Nen Vorgeschmack durch den 12900k habe ich ja schon bekommen.

Achja hier ein Auszug aus meinen test Liste.

Intel Core i9 12900K@4,7 ghz und 6 kerne(8HT cores) & 6 kleine cores 1:33& 1:25
Amd Ryzen 9 5950x @ 4 bzw 4,1 ghz 1:28 & 1:27
AMD treadripper 2990wx @ 3,9 GHz ohne smt 1:28 & 1:28
Threadripper 3970x @ 3,7 ghz - 4 GHz schwankend mit ht 1:26 & 1:26
Threadripper 3970x @ 3,7 GHz - 4 GHz schwankend ohne smt 1:25 & 1:23
Threadripper 3960x @ 4,1 ghz ohne SMT 22 Kerne beschränkt(gepinnt 11 kerne auf jeder Software jeweils) 121 & 1:22
Wenn cache ne riesige Rolle spielen würde, wäre der Abstand mit 2x der selben Software parallel nicht so eng bei einander. Irgendwie traurig das da nicht mehr heraus gekitzelt werden konnte. Soviel zu l3 cache bringt viel Leistung.
 
Zuletzt bearbeitet:
Die Sache mit den cache
nun die ist teil der IPC und je nach latenz eine entscheidende
Die Größe ist hilfreich bei singlecore Anwendungen die viele Zwischenberechnungen braucht wie etwa games und das mit großen Datenblöcken

man kann schlicht unterschiedliche cpu gen und Architekturen nicht am L1 bis L3 vergleichen
Dieselbe Architektur allerdings wie intel es gerne macht schon
Daher sind unterschiede nur zwischen einen core i9 12900k und i5 12400 Erkennbar und klar dem L3 zuzuordnen
Aber zen2 wie der 3900x nicht mit dem 3700x
Die menge an L3 ist identisch (durch die trennung in den ccx auf 2*16mb) darum wird man beim 12kerner vs 8 Kerner nicht mehr fps sehen durch den cache
Wogegen der zen3 r7 5800x mit 32mb deutlich schneller ist. (+20%)
Was man auch nicht direkt mit dem r9 5900x vergleichen kann
pro chiplet sind 32mb = 64mb insgesamt bei zen 2 und zen3
zen+ plus hat insgesamt 32mb geteilt durch 2 16mb pro ccx
ebenso zen2 also 2*16mb pro ccx mal 2 (64mb) für den 12 und 16kerner.

Die kommende zen3 3d cache wird 64mb pro ccd haben = 128mb beim bsp 5900xt und 64mb beim r7 5800xt
Das wird laut amd min +15% sein
Diese cpu kommt noch für am4
Zudem ist threadripper durch quadchannel leicht im Vorteil verliert aber diesen durch den multi sockel Ansatz in windows
Die einzelnen ccd werden als mehrere Cpu erkannt.
Da zen+ noch kein I/O DIE hatte
Darum ist 2990x nicht mit dem 3970x vergleichbar
Erst recht nicht mit intel architektur diese ist ganz anders als amd Ansatz.

Wobei bei amd Zen2 und zen3 "fasst vergleichbar" ist.
Diese unterscheiden sich im L3 Größe und Latenz das wars.
zen2 hat L1 0,9ns während zen 3 0,8ns sind
die wichtige L3 ist bei zen2 10,9ns und bei zen3 bei 9,9ns
Dazu die Größe die faktisch verdoppelt ist

Den games laufen primär auf eine thread und somit ist ccx Kern L3 data in den anderen ccx kopieren über die inf fab (ramtakt) hinderlich.
Daher komme die unterschied zwischen zen2 vs zen3 bis zu 25% das groß der games beläuft sich bei +15%
Dann ist auch klar wieso der 3dcache mit 64mb pro ccx/ccd nochmal +15% sind.

Das sind aber architektur details die nur vergleichbar sind in derselben Architektur intels alder lake ist damit nicht vergleichbar.
Darum testet man es ja
 
Verstehe dann ist mein Ergebnis als ein Sonderfall zu sehen. Solch ein Verhalten sehe ich auch nicht bei keinem einzigen game. Bei den restlichen Anwendung sehe ich solch ein Verhalten auch nicht. Ich habe bei der Anwendung auch xmedia recode genannt auch keine so hohe Einstellung diese scheint wohl auch Einfluss auf die größeren CPUs zu haben.
Das erklärt auch warum dir schlechte Latenz oder das schlechte verteilen unter windows der Anwendung egal war. Habe auch die optimierungs Funktion wie avx, bmi2 usw alle abgeschaltet. Das führt dann zu dem besagten Verhalten.
Oder haben diese Einstellung keine Wirkung auf den unterschiflichrn archektekturen.
Ich habe die settings so niedrig das ich nur noch 1 Minute sparen könnte bei den niedrigsten Einstellungen die man so einstellen kann.
Und ohne den deinterlacer Filter braucht die Anwendung noch weniger Kerne wie nur noch 5 Kerne. Also sähe es gewiss noch schlechter für die threadripper und Co aus.

Oder wie beurteilt man so meinr Ergebnisse. Klar kann man es nicht direkt miteinander vergleichen aber ein wenig ja sehr wohl.
 
Wenn Du eine Software hast die nicht hinreichend auf Multithreading optimiert ist, ist das nicht die Schuld der jeweiligen CPU. ;)
 
Naja ich verstehe halt den ganzen Sinn dieses Beitrages nicht
Warum die CPU in boost oder Kernen beschneiden
Wofür diese ganze Sache hier
 
Ich glaube der TE möchte für eine Frreware Software, die von einer einzelnen Person entwickelt wird, die bestmögliche CPU finden. Man kann natürlich darüber streiten ob es nicht Sinn macht ein paar Euro für eine gescheite, mit Multithreading vernünftig skalierende, Software in die Hand zu nehmen. :lol:
 
Ja so ist es @Shinna hat recht.

Nun aber auch noch ein weitere Grund. Bevor ich explizit damit angefangen hatte zu beschneiden auch noch ein game das wärend der last von 2x der selben Software anfing sich einfach so zu beenden. Ich fing dann an Kerne fest an ner Software zu binden. Darum auch diesw merkwürdige Anbindung. Ich plane immer so 3-4 kerne fest zum zocken ein. Diese lasse ich frei damit ich bei jedem game diese nutzen kann. Nun meine games sind dumm bei der kernzvor Bindung. Oder sollte man sagen zum zuteilen sind die nicht fähig. Ich habe mehr games die sich einfach verabschieden hatten. Ja ich habe empfindliche games. Und darum habe ich das so gemacht. Und auch ein threadripper 3970c brach die Leistung etwas ein als ich da 4 logische Kerne ohne ht für die games freihielt. Smt bzw ht mögen die games nicht weil dann die leistung einbricht. Diese Einheiten habe ich dem Programmen zum Arbeiten mit gegeben weil solch eine Software nicht so empfindlich ist weil es auf jede Einheit rechnen kann.

Und auch das ausloten wie viel Kerne man ohne wirklich groß Verluste zu haben denen zumuten kann. Nun warte ich auf einen 12600k Nutzer der das auch noch testen kann weil ja geschrieben wurde das man das nicht vergleichen kann. Ist halt eben nur ungefähr. Ich weiß nur besser wird wohl das Ergebnis nicht sein wenn das mit dem extra Cache das ja da ist ebenso nutzt zu einer leistungssteigerung führte. Um sicher zu gehen ist dies der beste Weg. Naja und auch der beste Ersatz für meinen Laptop.
 
Du versuchst mit Programme wie Process Lasso schlauer zu sein wie der Windows Schedueler. Das geht, ohne entsprechend ausgeprägtes Grundwissen, zu 99,9% in die Hose. So wie bei dir.

Und ganz ehrlich das Du mal einen 3970x samt TR4 Board besessen hast mag ich nicht so ganz glauben. Vor allem in Anbetracht des Gurken Notebooks das Du aktuell wohl benutzt.
 
Ich verstehe auch weiterhin den Sinn hinter der ganzen Aktion nicht :ka:

2x "die Software" laufen lassen und nebenbei zocken mit festgelegten Kernen und ohne SMT?
Und dann idealerweise auch nur 65W verbrauchen?

Wie soll das sinnvoll funktionieren? :fresse:

Was für Software nutzt du bitte?
Es gibt doch ssicherlich im Freeware-Bereich unzählige Videoediting Tools, die dann auch mit 16 Kernen skalieren können. Ich würde mich ja da mal nach einer Alternative umsehen und nicht hunderte Stunden in die Suche nach einer "EierlegendenWollmilchCPU" verschwenden.

Und welche Games sind einerseits soo alt und brauchen aber trotzdem 3-4 Kerne?
 
@Shinna
Also ich besahs noch nicht einen 3970x. Ich habe es per teamview und so bei wem testen dürfen.Habe sogar Bilder davon gemacht.iet wirklich interessant. Und warum sollte ich da mir einen PC mit so einer CPU kaufen,sie testen und es dann wieder zurück zu senden. Es macht echt null sinn sowas zu machen. Ich hatte auch keinen 3960x gehabt oder nen adlerlake also von daher,es gibt ja immer Mittel und Wege weil es ja bei AMD mehr als genug Nutzer in dieser richtung gibt.

@chill_eule
Die Xmedia Recode Software die ich verwende ist von 2017/2018.Ja ich weis ist blöd nicht die allerneueste Version zu verwenden.Aber was die Entwickler aus der Software gemacht haben ist viel zu umständiglich weil meine Einstellungen die Software leider nicht mehr für sich behält und so muss dann für jede einzelne Video neu Eingestellt werden.
Und die alten Spiele wo Probleme machen sind:
Counterstrike Source(steamlos Version) (braucht im Lanmodus locker 3 Kerne )
Sacred 1
C&C Sunde Null
Schlachte um Mittelerde
Borderland 1 Game of the Years Edition
und so weit ich weis war es beim Borderland 2 auch so gewesen
Serious sam 2
wo noch hatte war
Praetoroians
Empire Earth 1

Bei Folgenden bin ich mir noch nicht sicher:
Universe At War Angriff Mission Erde
 
Zuletzt bearbeitet:
Vll. solltest Du dich weniger, mit für dein Budget, unrealistischen Plattformen befassen. Dabei Vergleiche schließen, die auf einer schlecht skalierenden Software fußen. Kauf dir einen Rechner der in dein Budget passt. Schau dann wie deine aktuelle Software damit klar kommt. Hier abstrakt irgendwelche Diskussionen zu führen bringt dich nicht weiter. Und ganz ehrlich verschwendet es die Zeit der Leute die daran teilnehmen.

Ich für meinen Teil bin hier jetzt raus. ;)
 
Vll. solltest Du dich weniger, mit für dein Budget, unrealistischen Plattformen befassen. Dabei Vergleiche schließen, die auf einer schlecht skalierenden Software fußen. Kauf dir einen Rechner der in dein Budget passt. Schau dann wie deine aktuelle Software damit klar kommt. Hier abstrakt irgendwelche Diskussionen zu führen bringt dich nicht weiter. Und ganz ehrlich verschwendet es die Zeit der Leute die daran teilnehmen.

Ich für meinen Teil bin hier jetzt raus. ;)
Du findest also das es alles ne schlechte Software ist.Ist halt die Frage woran erkennt man das es ne schlechte Software ist und ab wann ist es ne gute Software.Ist ne schlechte die sich seltsam verhält bei den unterschiedlichen Anzahl an Kernen oder daran das man 2x die selbe Software braucht um hier Ordentlich Leistung zu haben. Wo die Zeit sich teilweise weniger langsamer geworden ist?
Ich finde deine Meinung sehr interessant. Wie hast du dir denn die Runde eigentlich vorgestellt?
 
Hast du überhaupt schon mal eine andere Software getestet?

Ich mein, simple Video Converter gibts doch wie Sand am Meer :rollen:

Ich glaube auch, du ziehst die Sache von falschen Ende her auf und solltest dich eher um die Software kümmern.
 
ja schon aber die wenigstens sind wirklich gut. Und ihr meint das ist so ne schlechte Software das die beste CPU da nichts mehr zerreisen kann weil es dann eben nicht besser laufen wird,egal was für ne CPU ich da dann verwenden würde .Weil die Software dumm ist oder meintet ihr damit was anderes damit?
 
Naja, was heißt dumm... aber eben unbrauchbar, wenn man 2 Instanzen gleichzeitig verwenden muss?

Du willst ja Leistung für wenig Strom im Prinzip.
Da wäre es also das beste, dass du dir eine Software suchst, die alle Threads (echt und SMT) gleichzeitig ausnutzt.
Damit fährst du dann 1 Projekt bei 100% CPU last in Zeit X und danach das nächste.
Nebenbei die alten Schinken zocken ist normalerweise kein Problem, solange du da nicht wieder mit Process Lasso oder so reingrätscht.

Alle oben genannten Beispiele, sind dermaßen alt, da reichen locker 2 Kerne.
Aber die lässt du Windows verwalten!

Und je nach Gesamtbudget bist du ja evtl. eh beschränkt auf 6 oder 8 Kerne.
Das klären wir dann aber, falls du wieder ein ordentliches Thema im Kaufberatung Forum aufmachst.

Hier hast du nun genug Anregungen und Anmerkungen bekommen, von meiner Seite aus wüsste ich auch nicht, was hier noch groß beraten werden soll :ka:

All das, was du vor hast, wird nicht ohne Kompromisse einzugehen, funktionieren.
 
Das Problem ist eher das die meisten software strikt cbr verwenden
dann kann man sich das verkleinern sparen
es gibt derzeit nix besseres als
xmediarecode64 oder handbrake
man kann noch die ffmpeg gui internet friendly media encoder (ifme) nutzen.
Nur als alpha verfügbar

profile speichern geht bei handbrake und ifme recht gut
xemdia recode speichert den letzten encode Einstellung bis auf die cq einstellung da ist strikt immer 28 (hevc) drin
 
Zurück