Intel Core i9-13900: Vermeintliche Daten und Benchmarks zu Raptor Lake geleakt

Ja schon. Aber mehr P-Cores wären doch noch besser. Die E-Cores sollen ja in Games nicht soviel bringen.
Das ist so nicht ganz richtig. Einerseits sollen die grob das Niveau des alten Skylake erreichen, sind daher also durchaus relativ durchzugsstark, andererseits können diese dazu beitragen die P-Kerne zu entlasten bzw. freizuhalten.
Intel hat sich mit dem Hardware Guided Scheduling und dem Thread Director viel Arbeit gemacht um eine möglichst gute Migration auf die Hybrid Architektur zu ermöglichen, denn selbstredend wird es keine angepasste Software "über Nacht" geben. Aktuell ist es bspw. so, dass ein lange parallel laufender Physik-Thread, der vergleichsweise wenig Last erzeugt und zumeist asynchron und mit niedrigerer Aktualisierungsrate läuft von der derzeitigen Scheduling-Implementation dennoch bevorzugt auf einen P-Core gelegt wird, was suboptimal ist. Dieser und andere, ähnliche Threads sollten jedoch idealerweise auf den E-Cores platziert werden und halten damit die P-Cores für zeitkritischere Tasks frei. Das aktuell beobachtete Verhalten zeigt ganz klar die Grenzen der bisherigen Hardwarelösung auf, den natürlich kann die keine "Gedanken lesen". Entsprechend sehen Microsoft und Intel neue Flags vor, die kennzeichen um welche Art Thread es sich handelt, damit der Scheduler diese optimal plazieren und priorisieren kann. Hier wird man absehbar mit neu erscheinenden Titeln (und Software allgemein) entsprechende Optimierungen beobachten können, die einen noch höheren Nutzen aus der neuen Architektur ziehen können werden.

[...] in Intel 4, TSMC N4 oder TSMC N5 wären (was allessamt 7-nm-Nodes sind) [...]
Du meintest absehbar "allesamt 5-nm-Nodes". ;-)

Randbemerkung: Intel scheint bzgl. seiner Namensgebung "Intel 4" nicht übertrieben zu haben bzw. die Abschätzungen aus Fachkreisen scheinen sich bewahrheitet zu haben, denn der konkurriert bzgl. mindestens der Logikdichte tatsächlich eher mit TSMCs N4(xyz)-Prozessen. Intel 4 verfügt über keine High Density-Cell-Lib und erreicht bereits mit der High Performance-Lib um die 160 MTr/mm2, also nur geringfügig weniger als das, wofür TSMC in seinen N5-Derivaten eine High Density-Lib benötigt.

Zwei Jahre später.... Lunar Lake mit 2 P-Cores und 128 E-Cores :daumen:
Lol, wäre vermutlich möglich mit Intel 20A oder gar 18A, wäre dann aber schon eher ein Die bzw. MCM in der Größe eines Xeons ... und am Ende müssten auch noch die Softwareentwickler mitspielen, denn wenn 112 Kerne gelangweilt Däumchen drehen, hilft der technische Aufwand nichts ... und da die Konsolen in den kommenden 24 - 48 Monaten gesichert nicht zu Kernmonstern mutieren werden und kein Entwickler/Publisher diesen Markt ignorieren wollen wird, wird das vorerst nur ein feuchter Traum der PC-Enthusiasten bleiben. ;-)
Hätte aber auch was für sich ... ein dedizierter Thread, der ganz alleine für die detailierte Simulation von gerade mal nur vier NPCs zuständig wäre und das 100-fach mit einem dedizierten Kern pro Thread. Da könnte man bspw. Night City in gänzlich anderem Maße simulieren. ;-)

Da sind mir vier saftige Zen 4 Kerne die sowohl E als auch P sind 1000x lieber als 128 diese vertrockneten E Cores
die nur dazu dienen im CB den längsten zu haben.
Eine vollkommen unsinnige und inhaltlich falsche Aussage.
Warum "saftig"? Laufen da Rückstände von nicht restlos beseitigtem ABF-Substrat aus der CPU aus? ;-)
"die sowohl E als auch P sind", ein Widerspruch in sich oder ist ein Auto auch ein Fahrrad, ist ein Auto ...?!?
Die Zen4-Architektur hat einen SweetSpot in der sie ihr operatives Maximum erreicht. Sobald sie sich davon entfernt fallen die Leistungswerte schrittweise ab, völlig normal.
Genau aus dem Grund gibt es ja Hybriddesigns, deren Aufgabe es ist mit unterschiedlichen Architekturen mit jeweils gänzlich anders gelagerten leistungstechnischen SweetSpots die extrem inhomogene Workload-Bandbreite im Consumer-Segment bestmöglich bedienen zu können. Entsprechende Entwicklungen gehen bis zum Anfang dieses Jahrtausends zurück, denn das grundlegende Problem ist schon relativ alt und mit einem einzigen Design kann man nun einmal nicht bestmöglich alle möglichen Workloads in optimaler Art und Weise bedienen.
Intel spielt das Design derzeit natürlich auch noch zusätzlich mit Blick auf die Fertigung in die Hände aber diese Notwendigkeit verflüchtigt sich gerade mit großen Schritten und dennoch wird Intel von der Hybrid Technology weiterhin umfangreichen Gebrauch machen, denn es ist einfach ineffizient immer mehr große Kerne in den Consumer-Markt zu bringen, denn die meisten Workloads in diesem Markt können diese nicht sinnvoll ausnutzen.
Und absehbar wird AMD diesem Weg auch folgen, wenn auch etwas später.

Ich bin mal gespannt wann AMD auch auf diesen Zug aufspringt.
Mit ZEN 4 ja noch nicht. Vielleicht mit ZEN 5?
Ja, Zen5 ist diesbezüglich recht wahrscheinlich, denn Intel wird bis dahin schon zwei CPU-Generationen mit 24 Kernen im Markt etabliert haben und das wird sich AMD absehbar nicht noch länger ansehen können. Prozesstechnisch wird Intel zu dem Zeitpunkt mit einem gleichwertigen oder ggf. gar leicht überlegenen Prozess *) unterwegs sein und das würde bedeuten, dass AMD mit nur großen Kernen wieder teuerer fertigen müsste **), indem man Full-Size-Kerne in gleicher Zahl anbietet, während Intel effizienter mit weniger Wafer-Fläche auskommt.
Ein Szenario ist hier, dass AMD ein reguläres 8-Kern-Zen5-CCD mit einem 16-Kern-Zen4c-Kern kombinieren wird, sodass es weiterhin bei zwei CCDs und einem IOD bleiben wird. (Ein neues Zen5c-Design wird vermutlich erst zu einem späteren Zeitpunkt fertiggestellt.)

*) Intel wird hier in 2024 Arrow Lake bereits in Intel 20A fertigen, der TSMCs N3 in etwa ebenbürtig sein sollte. Aktuell ist aber noch nicht einmal klar ob AMD überhaupt den N3 (oder ggf. den günstigeren N3E) für Zen5 nutzen wird, da man hier bisher nur von einem "Advanced Node" zu Zen5 spricht, was mit Gerüchten zusammenfällt, die es derzeit als ungewiss ansehen, ob 3nm-Kapazitäten in ausreichender Menge für AMD bereits zu diesem Zeitpunkt zur Verfügung stehen werden. Alternativ wird es für Zen5 ein N4-Ableger werden, auf den AMD bzgl. dem CCD ausweichen müsste.

**) In dem Falle müsste AMD entweder seine Preise anheben und die Mehrkosten mindestens zu einem gewissen Teil durchreichen, jedoch würde das ihre absatztechnische Konkurrenzfähigkeit gefährden und man müsste dieses wiederum mit anderen Mitteln zu kompensieren versuchen, was wiederum kosten wird.
Alternativ müsste man mit einer niedrigeren Marge leben, etwas, das AMD genausowenig akzeptieren wollen wird, denn die Marge benötigt man für weiteres Wachsum. Entsprechend darf man davon ausgehen, dass AMD hier seine Produkte gleichermaßen "optimieren" wird und ebenso auf ein Hybriddesign setzen wird.
 
Zuletzt bearbeitet:
E-Core-only-Prozessoren mit vielen Kernen dürften mittelfristig wieder als Atom für Server erscheinen. Derzeit steht Intel da noch auf der letzten Architekturstufe (Tremont) vor Alder Lake (Gracemont). In ihren Spezialgebieten sollen die durchaus gut sein, allerdings kann man ganz ohne große, leistungfähige Kerne eben keine Single-Thread-Anwendungen oder allgemein solche mit hoher Reponsivität ausführen. Trotz bis zu 24 Kernen arbeiten solche Systeme in etwa so flüssig wie ein Pentium Silver und ein menschlicher Anwender kann nicht abwechselnd 24 Tasks mit Aufgaben füllen und auf die Ergebnisse erwarten; der will dass eine Anwendung sofort reagiert.
Ach wo,ich habe was,um 24 Kerne auszulasten.Da ist es auch egal das die E Kerne kein HT können.Weil auf die 24 Threads ohne HT warte ich nur.Dann teste ich gerne und 2 Programme warten drauf ,darauf getestet zu werden. Der 12900k brach bei mehr als 1 Programm nur ein ,weil zu wenig Threads zur Verfügung waren.Nun mit dem wird da ein ende sein.Und dann hoffe ich wird dieser dem 5950x davon ziehen. Und ja wenn die E kerne dementsprechend Ordentlich leistung haben,geht auch da was. Beim 12900k habe ich auf 125 limit gesetzt gehabt.Da werden die E Kerne richtig ziehen und weil die nur 4 ghz haben,ziehen die auch am wenigsten an Strom.
Dann wird reiner TIsch gemacht. Wird ein Schützen Test werden,Zen 4 und diese neuen Intel CPUS.Dann sehe ich wie weit sie den 5950x wirklich davon ziehen werden.Nur reale Tests zeigen was in einer CPU so drinnen steckt,nix anderes.
 
Ach wo,ich habe was,um 24 Kerne auszulasten.Da ist es auch egal das die E Kerne kein HT können.Weil auf die 24 Threads ohne HT warte ich nur.Da jonn teste ich gerne und 2 Programme warten drauf ,darauf getestet zu werden. Der 12900k brach bei mehr als 1 Programm nur ein ,weil zu wenig Threads zur Verfügung waren.Nun mit dem wird da ein ende sein.Und dann hoffe ich wird dieser dem 5950x davon ziehen. Und ja wenn die E kerne dementsprechend Ordentlich leistung haben,geht auch da was. Beim 12900k habe ich auf 125 limit gesetzt gehabt.Da werden die E Kerne richtig ziehen und weil die nur 4 ghz haben,ziehen die auch am wenigsten an Strom.
Dann wird reiner TIsch gemacht. Wird ein Schützen Test werden,Zen 4 und diese neuen Intel CPUS.Dann sehe ich wie weit sie den 5950x wirklich davon ziehen werden.Nur reale Tests zeigen was in einer CPU so drinnen steckt,nix anderes.
Du sprichst vom duell Raptor Lake vs Zen4, sagst aber die ganze zeit 5950x? Zen4 wäre 7950x :)
 
Mir ist nicht klar, was die E-Cores eigentlich bringen? Ist das irgendwie definiert? In welchen Anwendungen profitieren die E-Cores? Nehmen die E-Cores die Last von den P-Cores hinweg und geben diesen damit mehr Leistung?

Wir wirken sich die E-Cores in Spielen aus? Werden diese dort zunehmend mit einbezogen?

Fragen über Fragen!


Eigentlich haben das einige hier schon gut auf den Punkt gebracht.

Die E-Cores bedienen die Threads im Hintergrund die nicht soviel Power benötigen.

Und die P-Cores sind dann voll verfügbar für die richtigen Aufgaben.

So langsam werde ich neugierig, dass im eigenen Rechner auszuprobieren. ^^

Aber der 5900x muss noch etwas laufen.

Ich frage mich ob ich nicht ein CCD laufen lassen kann bis max 4GHz und der andere läuft normal.

Dann hätte ich auch einen Hybriden Ansatz mit dem AMD Prozessor jetzt schon^^

12 P-Threads und 12 E-Threads.
 
Solange die Prozessoren weiterhin bei hohen Taktraten und unter Last äußerst ineffizient sind und ein Netzteil im Nu zerlegen, können die noch so viele "Effizienz"-Cores reinpacken wie sie wollen, so etwas wird nicht gekauft.
 
Du sprichst vom duell Raptor Lake vs Zen4, sagst aber die ganze zeit 5950x? Zen4 wäre 7950x :)
Ja genau nen Duell aber auch hoffen das da ordentlich was drauf gelegt wird. Nen 5950x habe ich selbst und hoffe da auf nen ordentliche Leistungssteigerung. Bin eben neugierig wie viel diese CPU geschlagen wird. Nen Duell wird es dennoch geben. Das wird dann auch zeigen, wie stark die eine gegen die andere ist. Der Gewinner zeigt dann wie stark sie Leistungssteigerung zum 5950x ist. Also in diesem sinne habe ich mich etwas undeutlich ausgedrückt, meinte es jedoch richtig. Macht aber nix.
Nun heißt es abwarten und schauen was die richtige rohleistung da aussagt. Das wird auch entscheiden zu was ich zukünftig den 6950x hin abgraden werde. Weil da so langsam die Leistung enger wird,aber halt noch nicht ganz. Und ich denke mal der macht es nicht mehr so lange weil der hat so nen merkwürdiges verhalten, das er an den Tag legt. An die langsame Netzwerk Geschwindigkeit an nur diesen PC habe ich mich zwar schon dran gewöhnt, aber nicht an die sehr lange boot Zeiten von fast 5 Minuten(dürften so mindestens 3 Minuten schon sein) oder bei gewissen games microrucklern festzustellen ist. Naja solange der PC noch nicht auseinander fällt ist alles gut.
Auf jeden Fall wird dann einer dieser Nachfolger in den PC wandern. Tendiere ja noch zum 7950,aber das kann ich ja noch ändern. Auf jedenfall will ich auf Windows 10 bleiben und ich habe nicht nur vor damit zu zocken. Also von daher wird schon Leistung benötigt. Mindestens 12 Kerne auf jeden Fall. Dann ist es auch egal ob 12 oder 16 Kerne dann, der Aufwand bleibt das selbe.
 
Ich frage mich ob ich nicht ein CCD laufen lassen kann bis max 4GHz und der andere läuft normal.

Dann hätte ich auch einen Hybriden Ansatz mit dem AMD Prozessor jetzt schon^^

12 P-Threads und 12 E-Threads.
Du kannst jeden Kern einzeln takten, kannst also zwei mit 800 MHz, drei mit 2 GHz und einen mit 5 GHz laufen lassen, wenn du das für richtig hältst :D Allerdings hat AMD da keinen Thread Director verbaut, der E-Core-Ansatz scheitert also. Effizienter wird die CPU trotzdem, vor allem in Spielen. Bonusfrage: Was zur Hölle machst du CPU-intensives mit deinem PC, dass du überlegst, von einem 5900X upzugraden? :huh: Das ist genauso sinnlos wie der Kollege, der schon auf den 13700K schielt, obwohl er einen gemaxten 12700K nutzt. :-]
 
Du kannst jeden Kern einzeln takten, kannst also zwei mit 800 MHz, drei mit 2 GHz und einen mit 5 GHz laufen lassen, wenn du das für richtig hältst :D Allerdings hat AMD da keinen Thread Director verbaut, der E-Core-Ansatz scheitert also. Effizienter wird die CPU trotzdem, vor allem in Spielen. Bonusfrage: Was zur Hölle machst du CPU-intensives mit deinem PC, dass du überlegst, von einem 5900X upzugraden? :huh: Das ist genauso sinnlos wie der Kollege, der schon auf den 13700K schielt, obwohl er einen gemaxten 12700K nutzt. :-]

Na "habenwollen"...ich überlege auch von meinem i9 10850K @ 5Ghz auf den 13900K zu wechseln. Ich nutze zudem 3440 x 1440, da schlieft die CPU viel und oft. Aber man man man dieses "habenwollen"...
 
Du meintest absehbar "allesamt 5-nm-Nodes". ;-)

Ich meine was ich schreibe. Und ausgehend von den alten, branchenweit vereinheitlichten nm-Bezeichnungen, die bis "22 nm" üblich waren und im "14 nm"-Bereich noch weitestgehend fortgeführt wurden, stellen Intel 4 und TSMC N4/N5 grob eine Halbierung der Strukturlängen/zwei weitere Full-Nodes dar. Wenn man auf "nm"-Bezeichnungen besteht sind das also "7 nm"-Prozesse. Intel 4 hieß ja sogar eine Zeit lang offiziell so.

Zwar wird diese Zuordnung immer diffuser, aber "5 nm" wäre der vierte Full-Node nach 22 nm und läge somit in einer Größenordnung von 300 MT/mm², je nachdem von wessen 20er-/22er-Prozess man die 2^4 hochrechnet. N5 mit 170 MT/mm² und Intel 4 mit 160 MT/mm² sind also noch recht deutlich im "7 nm"- und nicht im "5 nm"-Spektrum anzusiedeln. Für die HD-Version von N4 werden meinem Wissen nach 200 MT/mm² erwartet (bin da als Mainboard-Fachred aber möglicherweise nicht ganz auf dem laufenden), das könnte man dann vielleicht als Half-Node zwischen "7 nm" und "5 nm" betrachten. Aber genauso ist N4 ja auch benannt, nur eben zwischen fancy-branded "N5" und "N3". Wenn man sich überlegt, wieviele nervende Diskussionen vermeidbar gewesen wären, wenn TSMC den Nachfolger des N14-Prozesses in der Prozessorfertigung damals einfach bescheiden "N10" oder ehrlich "N9" genannt hätte, anstatt mit "N7" Werbung zu machen, obwohl es klar ein Node im "10 nm"-Bereich ist... :-(


Ach wo,ich habe was,um 24 Kerne auszulasten.Da ist es auch egal das die E Kerne kein HT können.Weil auf die 24 Threads ohne HT warte ich nur.Dann teste ich gerne und 2 Programme warten drauf ,darauf getestet zu werden. Der 12900k brach bei mehr als 1 Programm nur ein ,weil zu wenig Threads zur Verfügung waren.Nun mit dem wird da ein ende sein.Und dann hoffe ich wird dieser dem 5950x davon ziehen. Und ja wenn die E kerne dementsprechend Ordentlich leistung haben,geht auch da was. Beim 12900k habe ich auf 125 limit gesetzt gehabt.Da werden die E Kerne richtig ziehen und weil die nur 4 ghz haben,ziehen die auch am wenigsten an Strom.
Dann wird reiner TIsch gemacht. Wird ein Schützen Test werden,Zen 4 und diese neuen Intel CPUS.Dann sehe ich wie weit sie den 5950x wirklich davon ziehen werden.Nur reale Tests zeigen was in einer CPU so drinnen steckt,nix anderes.

Na dann viel Glück mit der kommenden Produktpolitik. Den aktuellen P5942B hat Intel, wie alle Snow Ridges, nur für Edge-Anwendungen vermarktet, daher sind derartige Platinen im freien Handel praktisch nicht zu bekommen. Aber den C3958 (16× Denverton) gab es seinerzeit auch als ITX-Server-Platine.


Ich werde auf den 13900K wechseln und alle E-Cores abschalten, nur um 6MB mehr L3 Cache zu haben. :ugly:

Ihr habt Probleme...
Ich werde endlich mal den 9900K einbauen müssen, sobald ich ihn wieder zu Hause habe, weil Dorfromantik auf dem 6700K unter 60 Fps dropt. :-D (Alles andere, was ich spiele, hängt dagegen weiter im GPU- oder Anzeige-Limit.)
 
Du kannst jeden Kern einzeln takten, kannst also zwei mit 800 MHz, drei mit 2 GHz und einen mit 5 GHz laufen lassen, wenn du das für richtig hältst :D Allerdings hat AMD da keinen Thread Director verbaut, der E-Core-Ansatz scheitert also. Effizienter wird die CPU trotzdem, vor allem in Spielen. Bonusfrage: Was zur Hölle machst du CPU-intensives mit deinem PC, dass du überlegst, von einem 5900X upzugraden? :huh: Das ist genauso sinnlos wie der Kollege, der schon auf den 13700K schielt, obwohl er einen gemaxten 12700K nutzt. :-]
Ich Rendere hier und da ein bisschen. Grafikbearbeitung. Du ich habe das Zeug um Zeit zu sparen, werde ja nicht junger.^^

Und PC ist mein Hobby. Es geht primär nicht mehr darum ob ich es brauche.
 
Solange die Prozessoren weiterhin bei hohen Taktraten und unter Last äußerst ineffizient sind und ein Netzteil im Nu zerlegen, können die noch so viele "Effizienz"-Cores reinpacken wie sie wollen
Der Punkt ist, die Efficiency Cores sind eigentlich gar nicht so viel effizienter als die Performance Cores, bezogen auf Leistung pro Watt. Wie schon mehrfach angesprochen liegt der Hauptvorteil in der besseren Performance pro mm².

Ich werde endlich mal den 9900K einbauen müssen
Jonge, was los da? Hau endlich rein das Teil :-P
 
Oder so wie ich der gleich von 3950x zu 5950x gewechselt war und zuvor kam ich von i9 9980xe. Gelohnt hat es sich dennoch für mich.
 
Ich meine was ich schreibe. [...]
Dann war dein klammerntechnischer Einschub a la "7nm" ohne weiteren Kontext grundlegend unverständlich und diese nachgereichte Erklärung von dir zwingend notwendig um zumindest deinen dahinterliegenden Gedankengang nachvollziehen zu können. ;-)

Zum N4: Das ist nur ein kleineres Update analaog zum N6, hier nun innerhalb der 5nm-Prozesse von TSMC (die 5nm hier in Anlehnung an das aktuell gänige und bekannte Namensschema, an das sich nun Intel auch angepasst hat). TSMC gibt hier -6 % Fläche für den N4 und N4P i. V. z. N5 an, was zu etwa 182 MTr/mm2 führt, also einer nur geringfügigen Flächenoptimierung, wobei das "A" in PPA ja nicht der einzige Prozessparameter ist.
TSMC hat sein Portfolio hier mittlerweile deutlich verbreitert, sodass es nunmehr den N4, den N4P und ab frühestens Ende 2023 auch einen N4X geben wird, wobei bei letzterem TSMC das Namensschema geändert hat, denn in den Vorgenerationen bezeichnete TSMC diese anwendungsspezifischen Optimierungen als N7HPC (2022) respektive N5HPC (2023). Die letzten drei genannten Prozesse visieren maximalen Takt zulasten einer höheren Spannung und damit eines höheren Verbrauchs an.
 
Ich meine was ich schreibe. Und ausgehend von den alten, branchenweit vereinheitlichten nm-Bezeichnungen, die bis "22 nm" üblich waren und im "14 nm"-Bereich noch weitestgehend fortgeführt wurden, stellen Intel 4 und TSMC N4/N5 grob eine Halbierung der Strukturlängen/zwei weitere Full-Nodes dar. Wenn man auf "nm"-Bezeichnungen besteht sind das also "7 nm"-Prozesse. Intel 4 hieß ja sogar eine Zeit lang offiziell so.

Zwar wird diese Zuordnung immer diffuser, aber "5 nm" wäre der vierte Full-Node nach 22 nm und läge somit in einer Größenordnung von 300 MT/mm², je nachdem von wessen 20er-/22er-Prozess man die 2^4 hochrechnet. N5 mit 170 MT/mm² und Intel 4 mit 160 MT/mm² sind also noch recht deutlich im "7 nm"- und nicht im "5 nm"-Spektrum anzusiedeln. Für die HD-Version von N4 werden meinem Wissen nach 200 MT/mm² erwartet (bin da als Mainboard-Fachred aber möglicherweise nicht ganz auf dem laufenden), das könnte man dann vielleicht als Half-Node zwischen "7 nm" und "5 nm" betrachten. Aber genauso ist N4 ja auch benannt, nur eben zwischen fancy-branded "N5" und "N3". Wenn man sich überlegt, wieviele nervende Diskussionen vermeidbar gewesen wären, wenn TSMC den Nachfolger des N14-Prozesses in der Prozessorfertigung damals einfach bescheiden "N10" oder ehrlich "N9" genannt hätte, anstatt mit "N7" Werbung zu machen, obwohl es klar ein Node im "10 nm"-Bereich ist... :-(




Na dann viel Glück mit der kommenden Produktpolitik. Den aktuellen P5942B hat Intel, wie alle Snow Ridges, nur für Edge-Anwendungen vermarktet, daher sind derartige Platinen im freien Handel praktisch nicht zu bekommen. Aber den C3958 (16× Denverton) gab es seinerzeit auch als ITX-Server-Platine.

Warum denn viel glück? Was sind snow ridges und was sind bitte schön edge anwendungen?

Und zur Not nimmt man halt einen mit so viele e und P Kernen. Schaltet die p Kerne bis auf 1 p kern an und schon ist ebenso Leistung vorhanden.ich hoffe das dernschfolger besser ist, der 12900k hat es nur auf dem selben Level wie der 5900x geschafft also so gut wie Gleichstand. Für mehr bedarf es ne höhere Leistung. Na dann mal sehen was da noch so kommt.
 
Zurück