Intel Core i9-12900K & Core i5-12600K im Test: Angriff mit 10 nm und Hybrid-Architektur

Und bei jeder Auflösung über 720p, spätestens bei 1440p, stehen alle FPS-Balken wieder an der gleichen Begrenzungslinie... ;)

Das kann man so nicht sagen, es gibt Games die sehr CPU Lastig sind, z.B. in Anno kommt man nie aus dem CPU Limit raus (größerer Spielstand vorausgesetzt), auch nicht mit dem neuen 12900k, auch, wenn dieser in Anno durchaus eine ordentliche Verbesserung darstellt.
Mehr CPU Gaming Leistung ist durchaus lohnenswert.
 
DDR5 ist in Anwendungen durchaus überzeugend...

1636110152957.png


... und Spiele mögen den schnellen Speicher auch zum Teil.

1636110256367.png
 
Ich bin seit ungefähr drei Monaten Besitzer eines 5950X auf Dark Hero + 128GB 3600CL16 RAM. Ich bin nicht sonderlich zufrieden mit dem Ryzen muss ich ehrlich sagen, die Performance ist super, keine frage (kam vom 7700K) aber der Stromverbrauch (gerade im idle oder das ständige boosten für jeden kleinen furz) gefällt mir überhaupt nicht.

Aber da ich hier eh noch einen zweiten PC stehen habe der ebenfalls dringend mal erneuert werden sollte, wollte ich mir den 12900K kaufen. Wollte. Denn: Wie man im Test (zumindest laut CB) ja sehen kann, ist DDR4 3200 (3800 erst recht) bereits schneller als DDR5 4400. Also klar: ich brauch ein DDR4 Board. DDR5 mit akzeptablen Speed (also wohl mindestens DDR5 6000) mit 128GB ist aber ohnehin nicht möglich.

Mein Plan war also: 128GB DDR4 + DDR4 Board + 12900K ... Doch jetzt kommts... Es gibt nur ein Board (1!!) mit 2x LAN. Und Null mit 2x LAN und mindestens 10 (besser 12) USB Anschlüssen. Auf beides kann ich aber nicht verzichten und das hat selbst mein Z77 Board bereits gehabt (und nun das Dark Hero ebenfalls)... Tja. Die DDR5 Boards sind zwar besser ausgestattet aber da gibt es dann halt kein RAM.

Somit werde ich Alder Lake auslassen müssen (wenn da nicht noch weitere boards kommen), schade, die E-Cores hätte ich gut gebrauchen können für kleinen kram der immer bei mir läuft und die Minimum FPS werden ebenfalls gut gepusht. Laut CB verliert man praktisch nichts (gaming) bei 125W und selbst bei 88W kaum, ich hatte mich sogar schon mit 65W angefreundet. Was solls dann eben nicht :-(
 
Eben doch, dass technische Know haben sie zwar, aber sie müssten dann sehr wahrscheinlich gegen Patente verstossen oder eben eine Lösung finden die ganz anders ist… Und das ist wohl nicht so einfach.

Du bist dir darüber im klaren, dass Intel seit über eine Jahrzehnt CPUs mit mehr als acht Kernen verkauft, 2005 das erste symmetrische auf den Markt gebracht hat, 2010 das erste Design mit getrennten Chips für Compute sowie I/O und dass EMIB seit vier Jahren serienreif ist?
Leistungsfähige Interconnects und komplexe Packagings gehören zu den wenigen Techniken, die Intel tatsächlich einfach nur aus der Schublade nehmen müsste, wenn sie für eine bestimmte Anwendung sinnvoll wären. Aber für einen Großserien-Chip mit hoher Gaming-Leistung sind sie das, zumindest beim aktuellen Stand der Fabs, nicht.


Mit solchen Aussagen wäre ich vorsichtig. Du wirst auch schon von diversen AMD Fans in andere Foren zitiert damit. Inhaltlich ist das sehr sehr bedenklich.

Wenn ich mich um AMD-Fanboys sorgen würde, hätte ich keine ruhige Minute mehr. Aber die bisherigen sogenannten "Leaks" zu "Raptor Lake", die ein 8+16-Kern-Designs als Nachfolger von Alder Lake für 2022 versprechen, kann man wohl getrost in die Tonne treten. Diese technischen Infos passen eher zur Meteor-Lake-Backport-Option, an der es nach gegenwärtigem Stand zu Intels 5 nm Node aber keinen Bedarf gibt. Die sich zunehmend verbreitende Alternativinterpretation, dass der Release Zeitraum und möglicherweise auch Codename stattdessen zu einem HEDT-Sapphire-Rapdis-Ableger gehören, habe (u.a.) ich zwar selbst spekulativ ins Gespräch gebracht, aber dafür gibt es bislang keinerlei öffentliche Hinweise. Das sind simple "wäre doch schön und sinnvoll, wenn ..."-Überlegungen gepaart mit einem Namen, der sowieso im Raum herumschwirrt. Genau so wie ich mal spekuliert habe, dass Iris Pro im Desktop nach Broadwell-S-Vorbild ein guter Ryzen-Konter und somit genau das richtige für einen "Kaby Lake X" wäre oder wie seit Jahren zu jeder neuen AMD-Generation das Gerücht umgehe, sie käme mit IF-angebundenem On-Package-GPU-Chip.

Aber nur weil etwas praktikabel und wünschenswert erscheint, heißt das noch lange nicht, dass auch jemand daran arbeitet. Weder von Intel noch von möglichen Plattformpartnern gibt es Hinweise auf Raptor Lake, die Spekulationen können also genug Luftschlösser sein.


Wann soll Meteor-Lake noch mal erscheinen? :ugly:

Laut Intel in einem Jahr. Allerdings soll es bei Intel-Roadmaps gelegentlich zu Verschiebungen kommen.^^
Da bislang keine Horrormeldungen von Intel 4 zu hören waren, schätze ich dass die Serienproduktion kommenden (Spät-)Sommer laufen könnte. Aber es wird auch von AMD abhängen, ob man zum frühestmöglichen Zeitpunkt released oder z.B. bis zur CES 2023 wartet.


Dazu kommt ja noch, das der 12600k niedriger taktet, als der 12900k. Der wirkliche Unterschiede der auf die Kernanzahl zurück zu führen ist, ist wirklich viel zu klein, bis heute ;)

Insbesondere bei Ryzens sollte man auch den Cache nicht unterschätzen, der mit jedem Kern hinzukommt.


Checkt doch mal, wer mit welchem Board gearbeitet hat und warum keine 200-Euro-Bretter dabei sind. ;)

Asrock liefert erst nächste Woche. :-(
 
Die sich zunehmend verbreitende Alternativinterpretation, dass der Release Zeitraum und möglicherweise auch Codename stattdessen zu einem HEDT-Sapphire-Rapdis-Ableger gehören, habe (u.a.) ich zwar selbst spekulativ ins Gespräch gebracht, aber dafür gibt es bislang keinerlei öffentliche Hinweise.
"zunehmend verbreitende Alternativinterpretation"?? Deine Schlussfolgerungen sind auf Basis von Interpretationen und nicht vorhandenen/zu wenig/in die "falsche"(?!) Richtung weisenden Leaks ziemlich aus der Luft gegriffen. Aber, dass du dich nicht um Fanboys scherst, ist schon mal gut! ^^
 
Leistungsfähige Interconnects und komplexe Packagings gehören zu den wenigen Techniken, die Intel tatsächlich einfach nur aus der Schublade nehmen müsste, wenn sie für eine bestimmte Anwendung sinnvoll wären. Aber für einen Großserien-Chip mit hoher Gaming-Leistung sind sie das, zumindest beim aktuellen Stand der Fabs, nicht.
:-(
Bin ich mir bewußt, aber eben ganz spezielle Designs...

Keine Ahnung was die in der Schublade haben, wird dir auch ähnlich gehen, auch wenn du da deutlich mehr Hintergrundwissen besitzt als ich. Ich stütze mich da eher auf das was ich aus den verschieden Medien, Produktangebot und dem auftreten seitens Intel mitnehmen kann.
Das sie es können, stelle ich nicht Frage, aber es so gut können wie AMD und TSMC im Großserienbereich mit den selben Ergebnissen, würde ich dann schon bezweifeln. Alderlake sehe in dem Fall dann wohl jetzt anders aus. Was die Xeon Prozessoren im Gaming Betrieb könne, k.A.

Mir geht's im Kern nur darum, dass es nicht nur eine Hürde im Bereich der Mittel/Know How gibt, sondern auch u.a. eine juristische, die es halt nochmal Komplexer macht.
Nachbauen könnten die es wohl mit einem klax, aber eine bessere Lösung auf anderem Wege mit selben Ergebnis, bei der Nutzen und Aufwand im guten Verhältnis stehen, ist dann auch schon eine Herausforderung. Das Produkt muss dann auch noch preislich Konkurrenzfähig sein...
 
Kann das wirklich sein das hier in 4k um die 10FPS mehr sind bei AVG und min Fps wenn man den 12900k mit den 10900k vergleicht mit einer 3090?
Is mir schon klar warum ihr in 720p testet trotzdem is das schon ne menge Fps wenn man in 4k Spielt vielleicht könnt ihr das ja auch testen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Musste nicht. Gibtn Tool von Intel, in dem du es on the fly ändern kannst.
Ja oder einfach so lassen. Nach Belieben einstellen im BIOS, 150 W z.B. und ab die Post. Spielen ist das eh egal, da kann man auch 100 Watt einstellen.

Alle neuen Benchmarks sind unter Windows 11 entstanden, jup. Natürlich mit der aktuellen Version ohne L3-Bug.
Volker hat knapp über 25k Punkte unter Win 11 mit dem 5950X. Der Unterschied ist durchaus sportlich.
 
Zuletzt bearbeitet von einem Moderator:
Alle neuen Benchmarks sind unter Windows 11 entstanden, jup. Natürlich mit der aktuellen Version ohne L3-Bug.
Finde den Unterschied von über 10% aber zu hoch. Ich lasse meinen mal wieder Stock laufen, meine aber der lag bei 26-27k, nicht bei 29,6K.
Ich habe auch denkbar gute Voraussetzungen, zwar kein Goldgen Sample, aber Wakü mit MoRa3 und LM unter der Haube.

Das waren meine Ergebnisse, die ich gestern abend getestet und ins CB gepostet habe

Mal meine UV Werte (W=PPT)
5950X -0.18V Offset, CO mit -10 auf Core 4 und 6, +150MHz max Boost, 101MHz Baseclk, DDR4 3232-14-12-13-12-28 256tRFC, 200A TDC, 250A EDC, Win10 aktuell
Cinebench R23, je 2 Runs, höchster Wert
40W 5296
65W 16368
88W 22244
100W 23873
125W 26143
150W 27761
200W 28846 (196W mit EDC Limit)
Link
 
Zuletzt bearbeitet:
Bin ich mir bewußt, aber eben ganz spezielle Designs...

Keine Ahnung...

Das lass ich mal so stehen...


Sehr komfortabel zwischen Gaming und Arbeiten im UEFI rumwerkeln zu müssen.

Im Spiele-Betrieb kommt nicht einmal der i9-12900K über 130 W Dauerverbrauch. Du kannst also einfach PL1 auf den von dir gewünschten Effizienzrahmen einstellen und dann gibst du noch für 10-20-30 Sekunden ein höheres PL2 für Boosts in kritische Game-Momenten frei, was dann aber umgekehrt bei halbstündigen Video- und Renderprojekten keine nenneswerte Wirkung hat.
 
Ich bin seit ungefähr drei Monaten Besitzer eines 5950X auf Dark Hero + 128GB 3600CL16 RAM. Ich bin nicht sonderlich zufrieden mit dem Ryzen muss ich ehrlich sagen, die Performance ist super, keine frage (kam vom 7700K) aber der Stromverbrauch (gerade im idle oder das ständige boosten für jeden kleinen furz) gefällt mir überhaupt nicht.
Äh was hat das Ständige booten mit dem prozessor zu tun..
oder stürzt er ab?
 
Ich sprach nie vom Speed, sondern von der Bandbreite.
Was nützen mir breitere Reifen, wenn der Motor nicht mehr PS bekommt?
Oder einfach gesagt, die Rohbandbreite wird schneller. Keine einzige Software wird dadurch schneller! Schon bei DDR4 RAM hat es mehr gebracht die Latenzen zu senken, anstatt die Bandbreite zu erhöhen.
 
Zurück