News AMD Ryzen: Hybrid-Prozessoren sollen nicht Intels Ansatz folgen

Diese CPU's mit ihren E und P - Kernen sind halt auch nicht reine gaming CPU's.

Das vergessen hier viele!
Nicht jeder nutzt seinen PC nur zum zocken.

DIese CPU's sind viel mehr, wie die "Eierlegende Wollmilchsau".

Einigermassen gut zum zocken mit den P-Kernen und gut in Multihreading Anwendungen (Video Schnitt, Bilderbearbeitung, rendern von animationen (Blender zb.)
Die können eigentlich alles zimlich gut.

Nicht perfekt, es ist immer noch ein kompromiss.
Aber für Leute wie mich, die eben genau das alles brauchen, war der 13900k ein no brainer!
 
Die einen nennen es so.
Die anderen so.

Im Endeffekt kommt wahrscheinlich Pi mal Daumen das selbe bei raus :-)

Wäre ja auch nicht gut zu vermarkten wenn der eine Hersteller sagen würde wir machen und nennen es genau so wie unser Konkurrent.
 
Die brauchen in einem der CCX die Kerne doch einfach nur niedriger takten lassen. Schon ist die CPU sparsamer, in Multithread-Anwendungen aber immer noch konkurrenzfähig. Die aktuellen 3D-V-Cache-Modelle zeigen das sehr gut.

Könnte es vielleicht auch sein, dass sie SMT aus den Kernen raushauen für die Effizienz Varianten? Wie viel Fläche würde das in etwa einsparen?
Und dazu dann halt ein Taktmaximum, aber ich bin mal gespannt, so nen wirklichen Bedarf sehe ich aufgrund der Chiplets aktuell ja eher nicht... Eher dass man wie im Datacenter mit den Zen4c optimierte Kerne für Spezialanwendungen bringt
 
Könnte es vielleicht auch sein, dass sie SMT aus den Kernen raushauen für die Effizienz Varianten? Wie viel Fläche würde das in etwa einsparen?
Und dazu dann halt ein Taktmaximum, aber ich bin mal gespannt, so nen wirklichen Bedarf sehe ich aufgrund der Chiplets aktuell ja eher nicht... Eher dass man wie im Datacenter mit den Zen4c optimierte Kerne für Spezialanwendungen bringt
Soweit in Erinnerung war es bei einem 4 Kerner damals rund 2 % gewesen. Das ganze also hochgerechnet rund 10 % sparen die durch das ein.
Beim Cache schrieb ja sparen die sich bis zu 25% der chip Fläche ein.
Klar kombiniert man diese dann ja über 30 % Einsparung ist schon mal was. Aber durch weg lassen von smt verliert man ganz schön viel Leistung, soweit ich weiß wird ein 16 Kerner durch das rund 20 % an Leistung verlieren. Billiger an mehr Leistung kommt man somit eben nicht mehr an mehr Leistung. Aber gut AMD wird schon wissen was sie da tuen werden.
 
Hm, ja aber was bringt mir die gleiche IPC wenn die Cores eh runtertakten werden, weil sie einfach weniger Leistung zur Verfügung haben. Erschließt sich mir jetzt irgendwie nicht. Der geringere L3 Cache wird aber, wenn auch nur wenig Einfluß (in meisten Anwendungen) auf die Leistung haben.. Es ist aber schon richtig, dass Golden bzw. Raptor Cove und Gracemont grundsätzlich unterschiedliche Architekturen sind, aber das Featureset ist bis auf AVX-512 identisch und im Clientbereich wo eigentlich garnicht mehr mit Maschiensprache programmiert wird imho kein Problem.
Wenn man jetzt böse wäre, könnte man sagen, AMD redet sich hier die Entscheidung keinen neuen Energiespar-Kern zu entwickeln schön. Aber ich denke dass ist einfach zu kurz gedacht. Ich denke AMD hat im Thema Effizienz mit Zen 4 bzw. dann Zen 4c ein heißes Eisen im Feuer. Aber wie heiß es ist, werden wir erst sehen, wenn die ersten CPUs mit zwei gleichen aber doch unterschiedlichen CCDs rauskommen...

Sehe ich ähnlich: Die letzte mir bekannte, öffentliche Aussage von AMD war, dass ihre Kerne schon so effizient sind, eine getrennte Entwicklung würde sich gar nicht lohnen. Das liegt zwar zu erheblichen Teilen an TSMC, aber all zu groß ist der Handlungsdruck tatsächlich nicht und für jeden Beobachter ist klar, dass AMD auch schlicht keinen einfachen Weg zu getrennten Kernen hat. Intel führte bei Alder Lake kein komplettes zweites Kernkonzept aus dem Nichts heraus neu ein, sondern sie haben zwei seit über einem Jahrzehnt bestehende Entwicklungslinien zusammengeführt. AMD hat seit dem Start von Ryzen aber nur noch deren eine geführt und muss bei Null anfangen.

Niemand hat von denen vor Zen 5 ein echte Hybrid-Architektur erwartet und Zen 4C wird, soweit bekannt, nur ein geringfügig abgespecktes (vor allem Cache) und stark Platz optimierter Zen 4 mit im wesentlichen ähnlicher Arbeitsweise. Gut für ein paar Compute-lastige, gut parallelisierbare Server- und HPC-Aufgaben, aber bei typischen Desktop-Anwendungen möglicherweise kaum oder gar nicht effizienter und auch nicht um Faktor 4 kleiner, wie bei Intel.

Merkwürdig mutet aber die Begründung in der Story an: Keine unterschiedlichen Befehlssätze? Haben ADL und RPL in der Praxis auch gar nicht. Das könnte auch kaum funktionieren und für etwaige künftige Befehlssatzerweiterungen wird angenommen, dass Intel diese auf beiden Architekturen gleichzeitig einführen wird/wird müssen. Dass das die AVX512-Nutzung im Desktop verzögert ist ein eher überschaubarer Verlust – wer sich mal angeguckt hat, wie verworren die AVX512-Unterstützung ist, der sieht ohnehin kaum eine Chance, dass auf großflächige Kompatibilität bedachte Desktop-Entwickler sich damit beschäftigen. (hier ist mir gerade eine Übersicht über den Weg gelaufen, wie die ersten sieben AVX512-Ausgaben miteinander verwandt sind.)
 
ja nur ob das so den Anwendung schmecken würde mit dem Larrabee,wobei wenn sich das damals durch gesetzt hätte,wären CPUS auch super schnell und flexible als jetzt gewesen.Mal sehen was sich AMD da so einfallen lassen wird.Bleibt auf jedenfall spannend das ganze.
Parallelisierbaren Workloads würde das super schmecken, alles andere würde darauf aber eher kriechen als laufen, deswegen ergeben die Hybridansätze mit Kernen, die nicht komplett abgespeckt sind, schon Sinn.
Also ich habe da schon nen nutzen aus die e Kerne gezogen. Auch wenn es nicht so viel war wie ich mir gedacht hätte. Zudem verhielt es sich alles sehe merkwürdig.
Das ist leider so ein Problem: Diese Art CPU hängt stark vom Scheduling ab, was aber schon bei homogenen Ansätzen mit den großen Taktbereichen ziemlich schwer hinzubekommen ist.
ja so niedrig wie bei dem 64 Kerner bringt mir leider nix ,auch wenn mir die mehr kerne beim 32 kerner zum 16 Kerner durchaus 10% mehr Leistung bringt.Aber durch den geringeren CPU Takt sinkt der Vorteil ja wieder,Am ende ist es bei mir ein Plus -Minus mehrleistung kann man so sagen.
Es kommt drauf an, was man damit macht. Wenn etwas voll parallel läuft, bringen 32 Kerne halt 100% mehr Leistung als 16. Sogar mehr, wenn man bedenkt, dass 32 Kerne im gleichen Energiebudget üblicherweise deutlich schneller als halb so schnell laufen können als 16 Kerne. Kann man nur 16 Kerne ausnutzen, sind die restlichen 16 Kerne Platz-, Geld- und, trotz allen Taktsenkungen und Parkmechaniken, Energieverschwendung.
Genau das. Einfach abschalten bei Nichtgebrauch und unter Last eben nicht mit der Brechstange die letzten paar hundert MHz rauskloppen. Schon sind die Cores sehr viel effizienter.
Stimmt natürlich, aber Hardware, die nicht auf sequentielle Höchstleistung ausgelegt ist, ist eben noch mal deutlich effizienter und das auch platztechnisch. Da kann man statt einem P-Kern schnell mehrere E-Kerne haben. Ist halt ein Trade-Off, aber der kann sich schon lohnen, sowohl im Idle als auch unter Last. Viele Probleme sind auch entweder nicht, ein bisschen oder komplett parallelisierbar. Die ersten beiden lassen sich mit einer bestimmten Anzahl Kernen gut abbilden (Intel scheint da die Zahl 8 im Sinn zu haben), danach lohnen sich viele zusätzliche E-Cores vermutlich mehr als ein paar zusätzliche P-Cores.
 
Soweit in Erinnerung war es bei einem 4 Kerner damals rund 2 % gewesen. Das ganze also hochgerechnet rund 10 % sparen die durch das ein.
Beim Cache schrieb ja sparen die sich bis zu 25% der chip Fläche ein.
Klar kombiniert man diese dann ja über 30 % Einsparung ist schon mal was.

30% Platzersparnis ist ja schon ordentlich, vor allem da Waferfläche immer teurer wird und die Hersteller schauen, wo sie sparen können.

Aber durch weg lassen von smt verliert man ganz schön viel Leistung, soweit ich weiß wird ein 16 Kerner durch das rund 20 % an Leistung verlieren. Billiger an mehr Leistung kommt man somit eben nicht mehr an mehr Leistung. Aber gut AMD wird schon wissen was sie da tuen werden.

Das ist so nicht richtig. Es gibt auch viele Anwendungen die mit SMT nichts anfangen können oder man sogar nen leichten Performanceverlust hat. Deswegen kann man das nicht pauschalisieren.
Und dann ist halt auch die Frage nach dem Grenznutzen? Im Serverbereich schön und gut da machen die Kernsteigerungen ja Sinn. Aber die meisten normalen User benötigen doch keine 30 Kerne. Und für die die es brauchen gibts ja eigentlich die HEDT Plattformen.
Das genau anzupassen ist denke ich schon auch ein schmaler Grad zwischen Kosten und Nutzen.
 
@Bärenmarke Ja ich habe den Vorteil das ich beim 16 Kerner von smt profitiere. Ab 24 Kerne spielt es keine Rolle mehr ob smt an oder aus ist. Die modernen cpus schaffen es das smt nicht mehr bremst. Aber gut ist dem halt so.

Unter windows 11 verhält es sich sehr merkwürdig. Wo die 8 kerne mit smt beim 7950x 100 % waren und der zweite chiplet waren die 8 Kerne voll ausgelastet gewesen aber smt 0 %.

Meine anwendung hat sich nicht geändert. Ist also sehe merkwürdig. Bloß komisch das sich ryzen und threadripper so stark unterschiedlich bei Windows 11 verhalten. Ist irgendwie unlogisch. Aber auch wenn das so total merkwürdig ist, die Kerne wo nicht ausgelastet werden, kann man dann wenigtens für was anderem verwenden. Hast du so ein merkwürdiges Verhalten schon mal gesehen gehabt?

Oder AMD könnte nen teilspar Ansatz machen wie smt bei den einen ja schon aber nur zur Hälfte. So erhält der zweite 16 kerner nur noch 8 smt Einheiten anstatt 16. So ne Art 16 Kerne und 24 threads. Könnte man auch machen. Dann spart man zumindest 5 % an Fläche. Und diese könnte man dann stattdessen für nen takt Steigerung oder zum stromsparend verwenden.

Wer weiß was sich AMD so alles einfallen lassen wird. Nach dem ja weniger smt vorhanden ist, kann man auch weniger Cache auch noch machen ohne das wirklich ein Verlust dabei entsteht. Und auch kleinere Chips werden durch das ja möglich. Und alle Anwendung hätten damit ja weniger Probleme als bei Intel.
 
30% Platzersparnis ist ja schon ordentlich, vor allem da Waferfläche immer teurer wird und die Hersteller schauen, wo sie sparen können.



Das ist so nicht richtig. Es gibt auch viele Anwendungen die mit SMT nichts anfangen können oder man sogar nen leichten Performanceverlust hat. Deswegen kann man das nicht pauschalisieren.
Und dann ist halt auch die Frage nach dem Grenznutzen? Im Serverbereich schön und gut da machen die Kernsteigerungen ja Sinn. Aber die meisten normalen User benötigen doch keine 30 Kerne. Und für die die es brauchen gibts ja eigentlich die HEDT Plattformen.
Das genau anzupassen ist denke ich schon auch ein schmaler Grad zwischen Kosten und Nutzen.

Es ist 3,5 Jahre her, dass TRX4 und LGA2066 ein CPU-Update erhalten haben – und das für letzteren war nicht mal wirklich neu, ersterer ist mittlerweile offiziell eingestellt. Also nein: Es gibt für die, die es brauchen, keine HEDT-Plattformen mehr. HEDT sind Ryzen 9 und viel Optimismus noch i9-13900K. Darüber gibt es erst wieder WRX8 als reine Workstation-Plattform sowie den LGA 4677. Dessen Xeon W-2400 stehen zwar relativ zur Mainstream-Plattform da, wo HEDT mal war, erhalten aber weder Desktop-Marketing noch Desktop-Preise.
 
@Bärenmarke Ja ich habe den Vorteil das ich beim 16 Kerner von smt profitiere. Ab 24 Kerne spielt es keine Rolle mehr ob smt an oder aus ist. Die modernen cpus schaffen es das smt nicht mehr bremst. Aber gut ist dem halt so.

Unter windows 11 verhält es sich sehr merkwürdig. Wo die 8 kerne mit smt beim 7950x 100 % waren und der zweite chiplet waren die 8 Kerne voll ausgelastet gewesen aber smt 0 %.

Meine anwendung hat sich nicht geändert. Ist also sehe merkwürdig. Bloß komisch das sich ryzen und threadripper so stark unterschiedlich bei Windows 11 verhalten. Ist irgendwie unlogisch. Aber auch wenn das so total merkwürdig ist, die Kerne wo nicht ausgelastet werden, kann man dann wenigtens für was anderem verwenden. Hast du so ein merkwürdiges Verhalten schon mal gesehen gehabt?

Ich persönlich hab kein Threadripper, nur "normale" Desktop CPUs, ich hatte allerdings bei 1-2 Games mal das Problem gehabt, dass diese mit SMT nicht rund gelaufen sind und als ich es dann deaktiviert hatte lief alles wie es sollte. Daher gibt es wohl durchaus SW die damit nicht so zurechtkommt, pcgh stellt dies doch auch immer wieder regelmäßig dar, dass es solche Fälle gibt.
Woran das liegt? Hab ich keine Ahnung. Aber dein Beispiel zeigt ja perfekt auf, dass die Programmierer (vor allem bei Windows) nicht immer so recht wissen was sie tun...
Im Prinzip musst du als Privatanwender wieder experimentieren.

Wer weiß was sich AMD so alles einfallen lassen wird. Nach dem ja weniger smt vorhanden ist, kann man auch weniger Cache auch noch machen ohne das wirklich ein Verlust dabei entsteht. Und auch kleinere Chips werden durch das ja möglich. Und alle Anwendung hätten damit ja weniger Probleme als bei Intel.

Ich kann mir auch gut vorstellen, dass wir noch viele weitere "Spezialchips" in den nächsten Jahren ala Mi300, Bergamo mit Zen4c sehen werden, da Optimierungen es in manchen Bereichen halt schon rausholen.
Mal schauen wir das Event am 13 wird :)


Es ist 3,5 Jahre her, dass TRX4 und LGA2066 ein CPU-Update erhalten haben – und das für letzteren war nicht mal wirklich neu, ersterer ist mittlerweile offiziell eingestellt. Also nein: Es gibt für die, die es brauchen, keine HEDT-Plattformen mehr. HEDT sind Ryzen 9 und viel Optimismus noch i9-13900K. Darüber gibt es erst wieder WRX8 als reine Workstation-Plattform sowie den LGA 4677. Dessen Xeon W-2400 stehen zwar relativ zur Mainstream-Plattform da, wo HEDT mal war, erhalten aber weder Desktop-Marketing noch Desktop-Preise.

Scheinbar ist für AMD und intel der Kundenkreis dafür einfach zu klein, dass sie ihn gesondert bedienen? Wobei man ja mit den Workstations entsprechend Ersatz hat. Kostet halt mehr, aber in der Regel kaufen das ja auch die meisten für Produktive Zwecke?
 
Deswegen heißt es "Workstation", weil da jemand mit arbeitet. :-)
HEDT richtete sich eher an ambitionierte Hobbyisten, aber ja: Deren Kreis ist zu klein geworden, weil man die Einstiegsschwelle immer weiter nach oben verschoben hat. Erfolg hatten vor allem der Sockel 1366 und der 2011-v3, beide mit/wegen CPUs für meiner Erinnerung unter 500 Euro. In diesem Zeiträumen bediente "HEDT" tatsächlich auch das Marktsegement "High-End", nicht nur "Enthusiast". Bei i7-920 und -5820K lässt sich sogar fast darüber streiten, dass sie nur "Oberklasse" waren – aber sie waren flotter als die in den Mainstream-Plattformen gebotenen Low-End-, Einsteiger- und Mittelklasse-CPUs und damit war HEDT attraktiv.

Bis AMD aus dem Keller kam. Für ein TR4-Mainboard, dass sich nur gegen die vergleichsweise Mittelklasse-orientierten Ryzen 1000/2000 behaupten musste, habe ich mal niedrige dreistellige Absatzzahlen gesehen. Weltweit. Sowas rentiert sich nicht und nach ein paar Jahren Ryzen bedient der AM5 heute neben Oberklasse und High-End eher noch Enthusiast denn Mittelklasse. Für eine darüber angesiedelte HEDT-Plattform blieben also nur die extremsten Enthusiasten übrig und das sind zu wenige – siehe Sockel 940, Sockel F, Sockel 771 und ansatzweise 2011(-0). Wann immer die CPUs der Mainstream-Plattform etwas stärker waren, wurden HEDT-Versuche zum Flopp und aktuell ist der Mainstream sogar sehr stark. Für AMD wäre eigentlich die Gegenrichtung naheliegender: AM5 noch um ein paar Kerne weiter aufbohren und darunter eine neue Plattform für all diejenigen einführen, die keinen Goldesel haben.
 
ja dazwischen gäbe es also mehr als genug Luft um sich von der teuersten zu unterscheiden.

Wenn AMD nun also die smallen Version 4x8 Kerne ohne SMT anbietet,dann ist das schon kleiner als die teure Plattform.Dann am besten noch weniger Cache bei L1,L2 und L3 und am besten dann noch nur Dualchannel und nicht Quadchannel.Und schon würde sich dieser Ryzen sehr klein gegenüber den Threadripper sein.Das wäre gewiss eine Markt Lücke. Beim Preis kann man dann auch runter gehen.Also so eine CPU wäre mir gewiss locker 1500€ oder sogar 2000€ Wert.Also wenn ich weis ok das geht auf den Mainstream Sockel drauf,ich wäre bereit.
Brauche also bei so vielen Kernen kein SMT mehr oder aber bei Intel das HT.Ram brauche ich auch nicht so viel und viele Laufwerke ebenso wenig.Ich bin da also Genügsam.Dann wäre für mich Threadripper uninteressant weil dann hätte ich meine Vollpower CPU ja schon.
Brauche also nicht zu viel Schnickschnack.

Und dann würden auch solche wie ich eben das auch kaufen.Gibt bestimmt noch mehr soche die das gerne Kaufen würde aber der Einstieg ist halt viel zu hoch.Und durch das wäre der Stromverbrauch auch unter Kontrolle.Klar bräuchte es nicht unbedingt 5 ghz,es darf ruhig zwischen 4-4,6 ghz sein.
Damit hätte also AMD hier richtig heißes Eisen im Programm.Damit hätte bestimmt Intel was zu knappern beim Kontern.
Aber gut nicht mehr lange und wir wissen bestimmt mehr darüber.
 
warum denn nicht,klar kostet es Chipfläche aber nicht viel.

Und was ist denn daran so Lustig Chill_Eule.
Ich finde das garnicht Lustig wie sich das bei Windows 11 verhalten hatte.Fühlte mich da ein wenig Verarscht vor.Aber unter Windows 10 was da alles wieder normal.Es fühlte sich wie aus einer anderen Welt wie in ner Parallel Welt und so.
 
Nach meinem Kenntnisstand ist SMT rein virtuell, das heißt es verbessert nur die Ausnutzung bestehender Transistoren und Sonstigem, und braucht keine zusätzliche hardware auf der CPU.

Falls ich mich da täusche, darfst du mich aber gern eines Besseren belehren =)
 
Ja stimmt,ich habe das verwechselt.SMT kostet Transistoren.DIese brauchen die Fläche.Nicht direkt Smt braucht die Fläche.
Ändert aber nix dran.Weil wenn man SMT weg lässt kann man auch Transitoren reduzieren oder sie anderweitig verwenden.Aber wenn man da schon anfängt,dann AMD sogar noch mehr weg lassen um wertvolle Chipfläche zu gewinnen.Ob dabei viel rum kommen wird kann ich echt nicht sagen.
 
Beim Pentium 4 hatte Intel seinerzeit einige wenige Frontend-Einheiten doppelt angelegt; seitdem könnte ich mich nicht mehr an Angaben erinnern. Einige Einheiten, vor allem Scheduler und Puffer, bei Fetch und Load/Store sowie in der Sprungvorhersage, könnte man aber gegebenenfalls kleiner ausführen, wenn weniger Aufgaben im Auge behalten werden sollen. Um diese Sparpotenzial konkret zu beziffern, muss man aber deutlich besser als ich informiert sein. Schließlich wirkt sich vieles davon auch positiv bei asynchronem Multitasking aus. "Ohne SMT reicht halb so viel" ist sicherlich nicht korrekt. Umgekehrt könnte theroretisch alles bis auf die eigentlichen Rechen-Pipelines mehrfach verbaut sein und das Ergebnis würde immer noch unter "SMT" fallen. Aber es darf bezweifelt werden, dass beispielsweise zwei physisch getrennte Scheduler mehr Nutzen denn Chaos bringen und somit ist nicht zu erwarten, dass sowas jemals irgendwo implementiert wurde/eingespart werden kann.

Im Rahmen der für ein Forum praktikablen Genauigkeit ist "Null" sicherlich keine schlechte Angabe. Im Zweifelfall waren es eben "1,2 Prozent auf den nächstliegenden 10er abgerundet".
 
Ja stimmt,ich habe das verwechselt.SMT kostet Transistoren.DIese brauchen die Fläche.Nicht direkt Smt braucht die Fläche.
Ändert aber nix dran.Weil wenn man SMT weg lässt kann man auch Transitoren reduzieren oder sie anderweitig verwenden.Aber wenn man da schon anfängt,dann AMD sogar noch mehr weg lassen um wertvolle Chipfläche zu gewinnen.Ob dabei viel rum kommen wird kann ich echt nicht sagen.
Das mit dem Gewinn von Chipfläche ist per se aber richtig. HT bzw. SMT stressen eben Kerne und Cache etc. deutlich mehr, was Energie und Hitze konzentriert. Ich gehe stark davon aus Chipdesigner machen den ganzen Tag nichts anderes als sich beispeilsweise mit diesen Dingen zu beschäftigen.
Denke, das größere Problem sind eher die Anwendungen und Games, die davon kaum was nutzen. Dass die Hardware das kann, ist ja eine Sache, aber wenn die Software die Hardware nicht richtig nutzt, bringen diese ganzen E-Kerne auch nicht viel.

Ich sehe es doch an meinem 13900K Prozessor. Mit CB R23 werden alle Kerne voll ausgelastet und hier macht es auch was aus, ob die E-Kerne mit laufen und in Games kann ich sie ganz weglassen und es macht sich gar nicht bemerkbar. Zumindest habe ich noch nicht eindeutig ersehen können, wann sich die E-Kerne bemerkbar machen.
(Benchmarks & Stresstests ausgenommen.)


Wobei ich das jetzt nicht 100 % aussagen kann, da ich da nicht viel getestet habe und ehe Windows 11 am Laufen habe. E-Kerne sollen ja mit Windows 11 besser ansteuert werden. Mein System läuft auch soweit sehr gut und so habe ich auch noch nie so richtig danach geschaut. Aber ich denke dennoch, dass Software E-Kerne nicht richtig nutzen wird.
Das war früher mal so, entscheidend ist eher die Priorität welche die Software den Threads zuteilt ansonsten gibt es soweit ich weiß beim Threadscheduling keinerlei Unterschiede.

Games sind ja auch Software, Windows regelt das aber eher so das die Big Cores bevorzugt behandelt werden bis ihre Leistung erschöpft ist, und das sind beispielsweise mit HT bei dir und mir 16 Threads erstmal. Da tun sich viele Spiele schwer die auf 100% Ladung zu bekommen, daher sind die E-Cores da nicht wirklich gefragt.
 
Darum versucht auch mein Programm immer zuerst die P Kerne auszulasten,ehe es die E kerne auslastet.Aber kommt bei 2 gleichen Programmen mit der selben Prioität ins Schwitzen bzw in die predulier.
 
Zurück