Die 12 serie von Intel verstehe da was nicht, wer kann es mir erklären?

latiose88

Software-Overclocker(in)
Hi also erst mal wie es zu der Frage gekommen ist.
Also ich habe im forum wen gefunden gehabt der einen core I9 12900k hat. Dem habe ich es testen lassen. Alles schön und gut. Die Ergebnisse liegen vor.
Es wurden 2 die selbe Software drauf nebenbei parallel laufen gelassen. Beide ohne avx das extra abgeschaltet. Das Betriebssystem hieß Windows 10. Er hat zwar auch auf Windows 11 getestet gehabt, der Effekt auf diese Software war aber nicht vorhanden gewesen einer mehrleistung.
Getestet wurde mehrere Konstellationen und es gab da schon unterschiede wie siehe hier
6 p Kerne +8ht und 6 E Kerne
vs 6p Kerne + 6 ht und 4 E Kerne.

Mir wurde aber gesagt das immer nur die P Kerne verwendet werden. Und dann erst die E, das man da nix vermischen kann. So lautet die Aussage. Es können die P Kerne nicht die E Kerne unterstüzen. Umgekehrt jedoch sehe wohl, in dem da einfach Aufgaben gemacht werden.
Nun lastet ja 2 x die selben Kerne auch mehr als 8 Kerne aus. Wie wird sich da nun das ganze verhalten. Kann wirklich keine P Kerne zu den E Kernen als Aufgabe umgesattelt bzw dort hin geordert werden?
Oder arbeiten da die P Kerne unter sich und die E core unter sich?
Weil mir ist aufgefallen das beide Ergebnisse bei der Arbeit gleich schnell sind. Oder greifen die 2 Software nur auf die P cores zu und die andern machen die leichten Sachen?
Aber wie kann das sein das durch Taskleiste die zugeordneten threads der E cores dann dennoch ne Leistungs Einbruch gegeben hatte wenn sie doch garnicht dran arbeiten würden. Und ich dachte HT hätte keine so große Wirkung auf diese Software oder aufgrund weil es keine 14 threads der p cores Sonden nur noch 12 threads sind hat es so ne starke Wirkung auf die Geschwindigkeit.

Danke schon mal für die tiefgreifenden Infos zu dem ganzen und habt ihr da schon mal ähnliche Verhaltens weisen gehabt so wie ich das geschildert habe?
Danke schon mal im voraus für die ganzen schönen Antworten von euch allen.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Der thread sheduler erledigt das
Die P cores solen bei vollbildanewenugen laufen ud die e core für hintergrund so ist das gedacht
Das Problem Windows weis nicht welche software im Vordergrund abseits die ohne gui welche cores zugewiesen wird.
Darum hat win 11 einen angepassten taskamnager der das regelt.
Das läuft an sich auch gut wie man an den besseren idle verbrauch vs rocket lake bzw zen 3 sieht
Unter last wird aber schwer.
Sobald aber mehr rechenlast angefragt wird laufen die Anwendungen auf den p-cores.
am desktop ist das fast Sinnfrei am laptop eine revolution in sachen batterie laufdauer.
 
TE
TE
L

latiose88

Software-Overclocker(in)
Das heißt es lief die ganze Zeit die beiden Anwendungen die ja gleichzeitig ne last erzeugen auf den P Kernen. Also sprich 2x4 Kerne auf einem 8 Kerner und bei dem Fall 2x3 Kerne. Und bei so wenig Kernen macht auch das wegfallen von Ht hier einen riesigen unterschied aus nicht wahr?
 

Olstyle

Moderator
Teammitglied
Ich glaube du stellst dir das Scheduling deutlich statischer vor als es wirklich ist. Da alle Anwendungen die auf einem PC so laufen immer mal wieder mehr oder weniger Leistung brauchen geht die Verteilung der P-Cores im ms-Bereich auch mal auf 0/8, dann wieder auf 6/2, wenn nebenbei der Browser eine komplexe Animation laden soll auf 2/2/2 etc. pp. . Und das selbe passiert mit den E-Cores natürlich auch.

Wichtig ist auch zu verstehen dass nicht eine Anwendung "auf einen Kern zugreift" sondern die Anwendung vom Betriebssystem Kerne zugewiesen bekommt.
 
TE
TE
L

latiose88

Software-Overclocker(in)
Ah OK es kann also auch passieren das welche p Kerne wo andererst verwendet werden können. Das meinte einer das es sich immer wieder abwechseln und nicht immer nur auf feste Kerne laufen. Das erklärt auch warum sich die Ergebnisse nach jedem umwandeln und so sich unterscheiden und die Ergebnisse nicht immer gleich sind. Ich verstehe es langsam. So ergeht es auch den AMD cpus weil es nicht anderst geht.

Oder überhaupt egal welche CPU. Bei weniger Kernen sinkt jedoch die Differenz und wie würde sich die Intel CPU bei festen zugeteilten Kernen bestimmter Software verhalten also spirch man nimmt process lasso und teilt den jeweiligen Software feste Kerne zu. Kennt process lasso die e Kerne überhaupt oder zeigt er diese nicht mal an. Ich frage darum weil das ist schon interessant das ganze.
 

HisN

Kokü-Junkie (m/w)
Darf ich fragen, warum der Anwender immer schlauer als die Software-Ingenieure von MS, Intel und AMD sein will und solches Zeug wie Prozess-Lasso braucht?
Darf ich fragen warum wir eine abstrakte Diskussion um ein konkretes Problem führen? Nenn da Kind doch mal beim Namen.

Ach .. ich seh schon. Das Kind nennt sich Video-Konvertierung mit xmedia-recode. Das wird bei Dir auch nie ein Ende finden hab ich das Gefühl :-)
 
TE
TE
L

latiose88

Software-Overclocker(in)
Naja Dauert nicht mehr lange. Mir geht es ja nur noch um die Frage ob diese Anwendung auch die e cores verwendet hat oder nicht. Bei dem ich es testen hab lassen diese CPU wurde sowas nicht verwendet. Aber wenn ich sie hätte würde ich es mit so einer Software sehr gerne testen. Eben um zu erfahren ob man die e cores eben auch dazu zwingen kann vollast fahren zu können oder ist sowas nicht möglich?

Ps ja es geht darum, richtig zusammen gefasst.
 

HisN

Kokü-Junkie (m/w)
Haben denn die Tests ergeben dass die 24 Threads (ob nun genutzt oder nicht genutzt) vom Intel schneller sind als die 32 Threads (ob genutzt oder ungenutzt) von Deinem AMD?

Ich meine darum gehts doch am Ende, oder nicht?
 
N

NatokWa

Guest
Mal abgesehen das die Disskusion eher Absurd wird .... die einzige Einschränkungen die Intel genannt hat betreffend Kernen : Neuestes AVX = E Kerne im Bios deaktivieren sonst läuft eine niedrigere Version UND Ein Program kann nicht GLEICHZEITIG auf P und E Kernen laufen, sehr wohl aber zwischen diesen Wechseln.

Festes zuweisen von Kernen hingegen hat praktisch noch nie ECHTE Vorteile geliefert (bei Intel!!) abseits von gerade so Messbaren 0,irgendwas % mehr Leistung bei eintsprechenden Benchmarks. NUR bei Ryzens bringt es (etwas aber trotzdem nur geringfügig) mehr wenn man auf diese Art verhindern kann das ein Prozess zwischen verschiedenen CCX springt, aber selbst das Verhindert mittlerweile der normale Windows-Sheduler ......
 
TE
TE
L

latiose88

Software-Overclocker(in)
@HisN
Ist schwer zu sagen kommt immer drauf an wie man es testet. Ohne Begrenzung fast gleich gut,mit 125 Watt begrenzen nein und erst recht nicht wenn man nur ne bestimmte Anzahl an threads festlegt dann auch nicht so. Ich habe da mal ne Liste angefertigt wo man es schön markiert sieht wie sich die 12 Serie so verhält. Weiß nicht ob ich sie hier posten sollte. Je nach Blickwinkel kann man es also so oder so sehen. Mit den 125 Watt gegen 5950x mit 142 Watt ist klar das der 12900k nen Nachteil hätte. Und das sieht man sehr gut an der Leistung. Darum war auch mein Fazit bei dem test in dem thread Leistung gut aber zu Strom hungrig für die Ergebnisse die es abliefert gelautet. Bei nur 80 Watt würde er gewiss noch weiter absinken in der rohleistung.

Aber für das er nur 24 threads liefert hält er sich dennoch gut. Und ein 16 thread simulierter 12900k ist klar gegen nen 3900x wäre es beinahe zu einem Gleichstand gekommen. Man bedenke wenn man beide auf 80 Watt drosseln würde, denke ich mal würde der Abstand wohl beibehalten werden. Was davon dann besser oder schlechter ist, kann ich nicht genau sagen.

@NatokWa genau diese Info finde ich als sehr hilfreich, denn sowas wusste ich ja nicht. Das es eben bei Intel so sich verhält. Ich frage mich was dann windows bzw die CPU macht weil avx nutze ich noch nicht mal avx1 also das ist alles bei mir ausgewält. Also habe ich aus den großen Kernen das Level auf die kleinen Kernen herunter gebrochen. So das nun kein Unterschied mehr zwischen großen und kleinen Kernen gibt. Das erklärt auch warum Windows da Probleme hat. Denn wenn p Kerne auf Level von den e Kernen sind, dann wird es interessant. Wie wohl die Verteilung dann aussieht. Weil last ist es ja dennoch noch. Und genau darum habe ich ja auch gefragt gehabt wie es denn dann sein könnte bzw wird das Verhalten.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Prozess lasso istd afür gedacht das wenn anwendungen mit multicore nix anfangen können und an performance einbrechen
Das betrifft besonders alte spiele wo mehr als ein kern dazu führt das die api hier hängen bleibt oder das Programm einfach nicht mehr starten will.
An Sich reicht dafür auch von MS process explorer aus in in den windows tools. separat bei ms store zu finden.
Das einzige Problem ist das das progamm nicht installiert sondern als exe ausgeführt werden muss

Ich zumindest habe solche Programme nur laufen bei sehr hartnäckigen alten spielen ansonsten nie.
Andere Programme kommen nicht ansatzweise in diese Altersklassen (15-20 Jahre her)
Und können multicore und ja prozess lasso bringt indemfall kaum bis nix mehr
da wurde ab 2015 auch recht klar das immer weniger leute so alte Programme nutzten
Der win tasksheduler ist mittlerweile so intelligent das dieser lediglich selten noch für multicore ein singlecore programm auf die kerne wild hin und her schiebt.
Sobald die last eines programms ansteigt bleibt dieses in einen thread auf demselben kern.
Das hatte windows durch die amd ryzen cpu Anpassung gelernt.
Und mit alder lake wird das nochmal verfeinert.

Gutes bsp was viele auch nicht verstehen wenn man streamt und spielt das Problem sind nicht die kerne Spiele laufen primär auf einen thread
Das Problem ist die größe des L3 auf der cpu und die folgende latenz daraus je höher die anforderung des spiels Und mehr l3 pro chiplet amd und intel insgesamt desto geringer die latenz
Folgend es ist nicht möglich ohne fps einbruich beim streamen
Egal ob auf cpu oder gpu gerendert wird.
Darum je größer der L3 und höher die cpu taktet desto besser fürs streaming bei spielen
Und das ist zufälligerweise immer bei cpu mit viel mehr kernen
Die api können nicht anders handeln den windows kann nur auf einen thread drawcalls verarbeiten
Parallel geht da nur neben threads für andere aufgaben wie audio physik datenvorladen usw.
Diese müssen am ende synchronisiert werden was auch die geringe last und cpu limits erklärt bei high end cpu in kleineren Auflösungen bei high end gpu.
Hier gilt je mehr L3 und Takt = mehr IPC desto schneller

Wo wir zur Fertigung der CPu kommen warum gibt es keine 8ghz cpu-.
Das hat 2 gründe
1= Speicher ist nicht so schnell
2= Und wärmestau durch zu hohe dichte.

Möglich ist es schon lange auf 10-20ghz zu kommen nur werden die chips dann riesig und unwirtschaftlich zudem sorgt eine latenz dafür das man dadurch nur wenig IPC gewinnt so sind derzeit 4ghz sweetspot mit leicht OC auf 5ghz das maximum was derzeit geht
ja intel cpu sind ab werk extrem OC

amd OC algo (pbo) arbeitet schon am maximum was die Fertigung zulässt
Intels core boost ebenso

Am ende ist CPU oc derzeit sinnfrei einzig wenn man die stromsparfunktionen abschaltet und auf allcore geht kann man in multicore höhere werte erreichen
Für singlecore ist das ein zweischneidiges Schwert es kann mehr ipc erreicht werden unter extrem Kühlung das aber ist schon arg am limit.
Ich spreche von Trockeneis kühlung was keine 24/7betrieb möglich ist
nen chiller wakü bringt auch kaum mehrleistung aus den 7nm oder intel7 raus.

Die Zeiten des Oc sind bei cpu lange vorbei sowie bei gpu da deren algo automatisch an die chipgrenze Takten maximal sind da nur noch 5% drin.
Bei cpu sogar noch weniger bis negativ
 

HisN

Kokü-Junkie (m/w)
@HisN
Ist schwer zu sagen kommt immer drauf an wie man es testet. Ohne Begrenzung fast gleich gut,mit 125 Watt begrenzen nein und erst recht nicht wenn man nur ne bestimmte Anzahl an threads festlegt dann auch nicht so. Ich habe da mal ne Liste angefertigt wo man es schön markiert sieht wie sich die 12 Serie so verhält. Weiß nicht ob ich sie hier posten sollte. Je nach Blickwinkel kann man es also so oder so sehen. Mit den 125 Watt gegen 5950x mit 142 Watt ist klar das der 12900k nen Nachteil hätte. Und das sieht man sehr gut an der Leistung. Darum war auch mein Fazit bei dem test in dem thread Leistung gut aber zu Strom hungrig für die Ergebnisse die es abliefert gelautet. Bei nur 80 Watt würde er gewiss noch weiter absinken in der rohleistung.

Also eigentlich egal. Es wird Dich nicht dazu bringen Deinen neuen 5950x in Rente zu schicken.
 

IICARUS

Kokü-Junkie (m/w)
Habe ja auch schon einige Tests unternommen und nein, mich hat keiner beauftragt, habe eigenständig Tests ausgeführt. :D

Ausgangspunkt bei mir ist Windows 11, mit Windows 10 habe ich meinen neuen Prozessor nicht ausgetestet.

Im Großem und ganzen kann ich auch nichts Genaues dazu sagen, aber ich konnte z.B. beobachten, dass mit Idle und dem Energiesparen die P-Kerne bis auf 500 MHz runter takten und die E-Kerne hier eher im 4-stelligem Bereich bleiben. Klar kann auch mal eines dieser Kerne auch auf den dreistelligem Bereich mit runterkommen.

In einem Test wo ich mein Prozessor auf 5000/4000 MHz takten lassen habe, konnte ich im Game beobachten, dass zwar die P-Kerne 5000 MHz anliegen hatten, die E-Kerne aber zwischen 3800 und 4000 MHz schwankten. In Games ist es natürlich auch gut zu sehen, das manche Spiele nicht alle Kerne voll auslasen, weil dann auch einige dabei sind, die kaum eine Auslastung aufweisen. Das liegt dann einfach daran, dass solch ein Game nicht alle Kerne nutzt.

In so einem Fall würde es dann kein Unterschied geben, ob ein Prozessor 6 oder 8 Kerne hat. Aber mit Games wo alle Kerne mit genutzt werden, ist der 12900K klar im Vorteil.

In einem weiteren Test habe ich 2-P und 4-E Kerne deaktiviert und sozusagen einen 12600K simuliert. In Games hat sich dann gezeigt, dass ich ausreichend FPS hatte und auch die Grafikkarte weiterhin voll ausgelastet wurde. Hier bezog sich meine Aussage darauf, dass ein 12600K auch für Games vollkommen ausreicht.

Gleichstellen kann man den 12600K dennoch nicht mit dem 12900K, denn sobald ein Game kommt, was alle Kerne nutzt und vor allem eher im CPU-Limit hängt, kommt der 12600K dem 12900K nicht mehr hinterher.

Ein gutes Beispiel ist hier BF 2042, das Game läuft überwiegend im CPU-Limit. Mit dem 9900K kam ich kaum über 70-80 FPS und die Grafikkarte konnte ich nicht über 85% auslasten. Mit dem 12900K komme ich aber bis auf 125 FPS und zum Teil liegt die Auslastung zwischen 90 und 95%. Habe sogar auch eine Auslastung bis zu 99% gesehen. Es sind daher gut 40-45 FPS mehr, als mit meinem 9900K.

Diese FPS in diesem Game sind auf Ultra + RT + DLSS Qualität bezogen.
Natürlich liegt der Unterschied mit Games nicht groß an, sollte der 9900K auch gut die Grafikkarte voll auslasten können. Zum Beispiel Overwatch, das Game nutzt nicht alle Kerne und so komme ich etwa auf dieselben FPS.

Ohne Begrenzung fast gleich gut,mit 125 Watt begrenzen nein und erst recht nicht wenn man nur ne bestimmte Anzahl an threads festlegt dann auch nicht so.
Bisher bin ich nicht über 100 Watt gekommen, selbst BF 2042, was überwiegend im CPU-Limit läuft, kommt nur auf etwa 105 Watt und das noch nicht mal die ganze Zeit, da ich auch schon auf die 90-95Watt gekommen bin. Bis 125 Watt können manchmal anfangs anliegen, wo ein Game noch einiges am Laden ist, bis das Spiel richtig startet oder was nachgeladen wird. Solch eine Begrenzung würde daher selbst mit meinem 12900K in Games nicht zustande kommen.
 
Zuletzt bearbeitet:
TE
TE
L

latiose88

Software-Overclocker(in)
Na darum ging es ja auch nicht. Wollte ja nur wissen was mit Intel CPUs so möglich ist. Wollte das Verhalten der Intel CPUs wissen. Es steht ja ein Kauf nach Weihnachten an. Und es wird einen Laptop ersetzen nicht jedoch meinen 5950x. Das hatte ich ja nie vor. Und wenn da dws komplette System dann ein 12600k 750 € und ein ryzen 9 3900x mit ebenso 750 € zur Auswahl steht. Anscheinend rechnen beide Anwendung auf die p cores und die e cores die dümpeln vor sich hin. Dachte immer die würde für solche Arbeiten ebenfalls her genommen weil es ja nur 6 kerne mit ht eben nicht viele threads sind so das doch auch die 4 e cores mit wirken würden. Wenn das aber nicht so ist, bei solxhen arbeiten bzw Aufgaben dann finde ich das schon echt blöd.
 

IICARUS

Kokü-Junkie (m/w)
Das wird dir keiner genau sagen können, da die Anwendungen und Games da auch ein Wort mitzusprechen haben und es ganz darauf ankommt, wie der Hersteller solch einer Software die Kerne mit arbeiten lässt. Windows hat hier nicht das letzte Wort und verteil auch fröhlich alle Prozesse mal auf alle Kerne.

Das war aber noch nie anders.

Ich sehe da kein großer Unterschied zwischen AMD und Intel, zumindest in Games nicht.
Klar solche Listen sehen immer toll aus, wo ein Prozessor an der Spitze liegt, aber wenn sich solch ein Prozessor um 5% unterscheidet... was macht es am Ende real aus? 2-3 FPS oder vielleicht 5 FPS?

In meinem Fall habe ich eine Vorliebe zu Intel und das war bei mir entscheidet wieder ein Intel zu nehmen. Aber nicht, weil AMD schlechter wäre, denn je nach Preis/Leistung habe ich sogar meinem Sohn vor zwei Jahren zu einem AMD System geraten. Bei mir spielt Geld keine Rolle und auch wenn der Intel mehr Geld gekostet hat, war meine Vorliebe dazu ausschlaggebend.

Benchmark oder Stresstests sind auf Testseiten immer schön zu sehen und auch in eigenen Tests wo der 12900K bis auf 270 Watt kommt. Das juckt mich aber nicht, weil meine Anwendungen solch eine Auslastung nicht verursachen und ich sogar ohne Limit kaum über 100 Watt komme. Im Bios habe ich mir auch P2 auf 241 Watt gesetzt und P1 auf 125 Watt. Sollte es dann doch mal dazu kommen, dass mein System mehr zieht, wird es halt etwas abgebremst.

Das Programm, was ich zum Video rendern nutze, kann nur über die Grafikkarte rendern, daher liegt dann nur eine Last von 23 Watt vom Prozessor an. Kann in den Einstellungen auch nur zwischen der IGPU und der Grafikkarte auswählen und um auf die iGPU wechseln zu können, muss diese auch im Bios mit aktiviert sein.
 
TE
TE
L

latiose88

Software-Overclocker(in)
OK verstehe, nun will ich aus dem Intel System ne richtige stromspar CPU machen. Das scheint wohl nicht ganz optimal zu sein. Ich bin eben keiner der zu irgendein System tendiert. Mein Laptop steckt ein i7 4700hq drinnen. Der aber schon teilweise sehr langsam ist. Und eigentlich wollte ich ja nicht von 4 auf 4 Kerne wechseln weil das im Grunde ja eigentlich kein Upgrade wäre. Und darum der ausflug zu 6 Kernen oder halt dann 8 Kernen. Ich bin mir zuvor nicht sicher gewesen wie sich da Intel verhalten würde. Da es anscheinend aber keine klare Antwort man da drauf geben kann, was ich ja nicht wusste. Nun da ich es weiß, naja macht es die Sache leider nicht besser. Klar könnte ich meine last verringern auf 1 Anwendung gleichzeitig anstatt 2.
Die Software scheint aber nicht so stark bei 2 einzubrechen. 1 alleine bei 8 Kernen ist bei 1:20 und 2 gleichzeitig liegt dann bei 2:10-2:20 und das ist wie ich finde keine so ein starker einbricht als ich gedacht hätte. Bin davon ausgegangen das auf 4 Kerne reduziert die Zeit sich verdoppeln würde. Dem ist ja nicht so.

Man kann bei diesem Ergebnis nur zu einem Schluss zu kommen, meine Anwenung lastet auch nicht zu 100 % aus. Also skaliert auch nicht so gut mit Kernen als ich gedacht habe. Aber ab da 6 Kerner bricht dann sehr wohl genau da so stark ein wie man es sich so vorstellt. Tya 12 threads sind halt eben nicht so viel für 2 Anwendungen gleichzeitig. Hat mir also dennoch etwas geholfen die info. Dann spielt es somit keine Rolle welchen hersteller ich nehme. Bei den 750 € PC würde ich wohl bei Intel den 12600k neu mit Garantie kriegen aber halt ohne gpu. Beim 3900x sind es ebenso 750 € aber nur mit 1 Jahr garantie noch aber dafür mit einer Gtx 950. Was ja mehr leistet und beim Anblick von gpu Knappheit auch nicht so schlecht ist. Was wäre also dann wohl besser von den beiden Sachen?
 

IICARUS

Kokü-Junkie (m/w)
OK verstehe, nun will ich aus dem Intel System ne richtige stromspar CPU machen.
Das wirst du nie schaffen.

Denn Effizienz heißt ja nicht, ein Limit zu setzen und damit die Leistung zu bescheiden, Effizienz heißt, ohne Leistungsverlust weniger Strom zu verbrauchen.

Klar, mit etwas optimieren kannst du vielleicht ein paar Watt einsparen, aber an einem AMD wirst du nie dran kommen. Das ganze muss du auch als Ganzes betrachten, so verbraucht z.B. mein Sohn mit seinem 3900X im ganzen Monat mehr als mein 9900K, was ich hatte. Das liegt einfach daran, weil ich überwiegend nur mit Office und Games was zu tun habe und Games bei mir nicht den ganzen Tag laufen.

Beispiel meine Leistungsaufnahme der letzten Tage.

Es ist gut zu sehen, dass ich mit meinem ganzen Benchmark, die ich am Laufen hatte, meine Leistungsaufnahme höher als mit meinem 9900K liegt. Aber ich habe auch einiges dazu ausgetestet und das wird sich die nächsten Tage bei mir wieder legen.
Dieser Inhalt steht nur eingeloggten Mitgliedern zur Verfügung.
 
Zuletzt bearbeitet:
TE
TE
L

latiose88

Software-Overclocker(in)
Ja gut mir ist klar beide haben dann gleich starke einbusungen bei der Leistung. Also die sind ungefähr gleich stark dann. Der einzige unterschied der dann eher in Richtung 3900x tendieren lässt ist der pc ist schon zusammen gebaut, der 12600k müsste noch zusammen gebaut werden. Ich selbst kann das leider nicht. Und dazu noch der unterschied das der PC ne dedizierte gpu hat das system mit dem 12600k hat nur ne onbard gpu. Somit ist wohl der preis/Leistung Sieger in meinem fall ja der 3900x. Wenn ich den Service zusammen gebaut liefern lasse wird es ja teuer für mich werden. Das ist das Problem. So ist es halt wenn man nur ne festen Geldmenge zur Verfügung hat. An das drüber kann ich nicht gehen. Ein wenig Geld will ich ja daheim auch noch haben und nicht mit 0 herumdumpeln. Und nun weiß ich ja das dank euch das es keine Rolle spielen wird wenn beide auf z. B 80 Watt gedrosselt sind. Da gibt es dann auch kein System mehr was mehr braucht oder weniger.

PS : da die ja die selbe leistung haben gehe ich mal davon aus werden die e cores nicht verwendet. Denn wenn die auch noch genutzt werden würden in meinem Fall wäre der 12600k ja schneller gewesen. Da dies aber nicht der Fall ist, heißt es auf gut deutsch das die 4 e cores nicht verwendet werden von dem Programm. Das liegt wohl auch daran das Windows 10 verwendet wird anstatt windows 11. Mir wird das nun dank euch ebenso bewusst. Das heißt die Frage wäre ja nun denke ich beantwortet. Die 2 Anwendung verwenden nur die p Kerne und das sind in dem Fall 6 kerne mit ht 12 threads. Es zeigt also auf wie gut es genutzt wird. Die 16 Kerne können nur noch rund 25 %(vom 3900x zu einem 5950x bezogen) bei mir zulegen. Der 3970x ohne smt nur noch rund 7-8 %(vom 5950x zum 3970x steigerung zum Vergleich). Die Anwendung skaliert also schon ab 12 Kerner schlechter als erwartet. Ich denke mal das erkennt wohl jeder der meine Liste selbst anschauen tut ebenso. Wer also Interesse hat kann ich diese gerne in Text Form hier noch posten,wenn ihr sehen wollt.
 
Zuletzt bearbeitet:
Oben Unten