Alder Lake: Core i5-12400F vs Ryzen 5 5600X - erste Benchmarks mit RDR2, SOTR und CSGO

Selbst wenn AMD plötzlich doppelt so viele Kapazitäten hätte, würde sich an der Gesamtsituation für sie nichts ändern, so lange sie den Markt bzgl. der anderen, lukrativeren Produkte nicht sättigen können, d. h. es würde vorerst grundlegend für sie wirtschaftlicher sein letztere zu bevorzugen, wenn sie an einem optimierten Wachstum interessiert sind und davon kann man grundlegend ausgehen.
Wenn AMD die Wafer für Radeons und Konsolenchips verwenden würde, würde sich extrem was ändern. Außerdem hat AMD ja auch monolithische Dies für die APUs. Mit größeren Kontingenten könnte man größere OEMs bedienen. Die eingeschränkten Kapazitäten bei TSMC sind AMDs größtes Problem.
 
Hat einer Messwerte bereit wie hoch der Stromverbrauch ist wenn einmal nur die normalen Kerne laufen und einmal nur die Sparsammen. (beim Topmodell).
 
Schade, dass Intel offenbar nur den teuren Modellen E-Cores spendiert. Letztere wirken sich positiv auf die Frametimes aus und reduzieren Nachladeruckler.

Intel hätte den Abstand zu den größeren CPUs wahren müssen. E Kerne würden wohl bedeuten, dass es weniger P Kerne gibt. Ich vermute, es wäre dann auf 4+4 und 2+4 rausgelaufen. Für Spieler wäre das die deutlich schlechtere Wahl.

Wieso sind die synthetischen Tests von Alder Lake gegenüber Ryzen so überlegen (Cinebench) aber in den Spieletests liegt Intel nur wenige Prozente vorne?

Ist hier der größere Cache von Ryzen der Grund?

Weil viele Seiten die Spiele mit 1080p testen und somit die Leistung der CPU verschleiert wird und man stattdessen die Leistung der Graka testet.
 
@gaussmath : An der grundsätzlichen Situation (wie von mir oben skizziert) würde sich nichts ändern, da es sich hier um Fixkosten für die Produktfertigung handelt und Intel dürfte hier im Vergleich die besseren Karten in diesem speziellen Marktsegment haben.
Und btw ... die "Wafer für Radeons" verwendet AMD schon anderweitig oder denkst du dass AMD Marktanteile verliert, weil deren RDNA2 so unsagbar unattraktiv für den Markt ist? Selbstredend fertigen die aktuell vergleichsweise wenig GPUs, weil andere Produkte und Verträge für sie schlicht wichtiger sind, weil sie mehr Umsatz und Gewinn bringen und offensichtlich ist ein noch kleinerer Chiplet-basierter Sechskerner derzeit ebensowenig interessant für sie, weil sie mit anderen Produkten mehr und besser verdienen.
 
Wieso sind die synthetischen Tests von Alder Lake gegenüber Ryzen so überlegen (Cinebench) aber in den Spieletests liegt Intel nur wenige Prozente vorne?

Ist hier der größere Cache von Ryzen der Grund?
Jain, Hauptgrund sind die E-Cores, die es bei AlderLake ja erstmals zusätzlich zu den "normalen" Performance-Cores gibt. Synthetische Benchmarks sind darauf ausgelegt, das maximale aus den CPU's zu holen und können jeden zusätzlichen Kern sehr gut auslasten und die Leistung nutzen.
Games funktionieren da anders, vor nicht allzu langer Zeit konnten die meisten Spiele nicht mit mehr als 8 Threads umgehen, ein 4c/8t war da also das maximum, was ausgelastet werden konnte. Heute ist das zwar besser, aber viel mehr als 16 Threads ist immer noch recht selten im Gaming. Das ist auch der Grund, warum ein 5950X kaum schneller als ein 5900X in Spielen ist, wenn das Game/ die Engine nur 16 Threads nutzt, dann bringen die 32t eines 5950X fast nichts. Die paar Prozente mehr Leistung kommen beim 5950X hauptsächlich aus der besseren Chipqualität.

Es ist recht kompliziert und aufwendig, Spiele so zu programmieren, dass eine sehr gute Kernskalierung erreicht wird. Zudem limitiert in den meisten Fällen sowieso die GPU in Spielen, sodass der Aufwand recht unnötig wäre.
 
@gaussmath : An der grundsätzlichen Situation (wie von mir oben skizziert) würde sich nichts ändern, da es sich hier um Fixkosten für die Produktfertigung handelt und Intel dürfte hier im Vergleich die besseren Karten in diesem speziellen Marktsegment haben.
Verstehe, was du meinst, aber Fixkostenproblematik != Gesamtsituation. Die Gesamtsituation würde sich drastisch ändern für AMD, wenn sie mehr Kapazitäten bekämen bei TSMC.

Wer wissen will wie gut die E-Cores sind, muss die P-Cores ja nur mal abschalten und danach das System bedienen. Jede Wette, die P-Cores werden schnell wieder eingeschalten.
Es ist ja auch nicht die Stärke der E-Cores, alleine zu laufen, sondern, z.B. bei Gaming Workloads, asynchrone Tasks zu übernehmen, die nicht auf dem kritischen Pfad (Mainthread, Renderthreads) liegen.

P-Cores braucht man eigentlich nur so viele, wie man Main-Threads hat, die viel Leistung gebündelt erfordern
Mainthreads? Plural? ^^

Schade, dass Intel offenbar nur den teuren Modellen E-Cores spendiert. Letztere wirken sich positiv auf die Frametimes aus und reduzieren Nachladeruckler. Z690 dürfte für Budget-Gaming vom Preis herausfallen, B660 und H670 sollten RAM-OC bieten, verhindern aber CPU-OC. Ein 5600X mag überteuert wirken, ist aber auch eigentlich der Konkurrent des i5-11600K. Im Frühjahr erscheint Zen 3D und tritt logischerweise gegen Alder Lake an.
Wieso ist denn der i5-11600K der eigentliche Konkurrent des 5600X? Ich kann dir da nicht ganz folgen. War das mit Zen 3D ein Bogen vom 5600X? Vermutlich wird es keine 6-Kern Variante mit 3D Cache geben. Der 5600X wird jedenfalls vom 12400F vernichtet vom P/L-Aspekt her. Bin gespannt, wie AMD darauf reagiert. Eigentlich war der 11400F schon gut, kam aber nie so an bei den Selbstbauern.
 
Zuletzt bearbeitet von einem Moderator:
@gaussmath : An der grundsätzlichen Situation (wie von mir oben skizziert) würde sich nichts ändern, da es sich hier um Fixkosten für die Produktfertigung handelt und Intel dürfte hier im Vergleich die besseren Karten in diesem speziellen Marktsegment haben.
Und btw ... die "Wafer für Radeons" verwendet AMD schon anderweitig oder denkst du dass AMD Marktanteile verliert, weil deren RDNA2 so unsagbar unattraktiv für den Markt ist? Selbstredend fertigen die aktuell vergleichsweise wenig GPUs, weil andere Produkte und Verträge für sie schlicht wichtiger sind, weil sie mehr Umsatz und Gewinn bringen und offensichtlich ist ein noch kleinerer Chiplet-basierter Sechskerner derzeit ebensowenig interessant für sie, weil sie mit anderen Produkten mehr und besser verdienen.
Man sollte sich davon lösen starr auf ein Marktsegment zu blicken wenn man weiß das mit dem Produkt diverse Segmente bedient werden. Die Vereinfachung der Produktion und die höhere Flexibilität kann dann schlicht mehr Wert sein als die höheren Kosten in einem Segment.
 
.

Boards für 60-100€, DDR4 Support und ordentliche 6 Kerner sind alles was Intel braucht meiner Meinung nach. Da packt Intel ihren 3070 Konkurrenten mit rein und lässt Dell/HP das in Serie fertigen, dass die Marktanteile beider Konkurrenz nur so bluten. Alles andere ist wie Kleidung aus den 80ern. Kann man so anziehen und sich schönreden, aber wenn der nächste Trend das wieder komplett abschafft wird kein Aufschrei durch die Community gehen.

Könnten sie für 1.3-1.5 verkaufen. Würden weg gehen wie warme Semmeln.
Das würde ich richtig feiern. Endlich wäre Schluss mit AMDs, Nvidias Mondpreisen.
 
Könnten sie für 1.3-1.5 verkaufen. Würden weg gehen wie warme Semmeln.
Das würde ich richtig feiern. Endlich wäre Schluss mit AMDs, Nvidias Mondpreisen.
Eher nicht wenn die Intel GPUs gut fürs Mining geeignet sind. Dann sind die Systeme auch nur bei Scalpern oder gar nicht zu kriegen.
 
Eher nicht wenn die Intel GPUs gut fürs Mining geeignet sind. Dann sind die Systeme auch nur bei Scalpern oder gar nicht zu kriegen.

Komplettsysteme sind heute das einzige was du Problemlos bekommst.
Anscheinend ist das dann doch zu viel Aufwand für die miner und Scalper.
Entscheidend wird glaube ich eher ob sich Intel dazu entscheidet gleich große Mengen von Lager ab an Großhändler, miner zu verkaufen oder hp, ... zu versorgen.
 
Könnten sie für 1.3-1.5 verkaufen. Würden weg gehen wie warme Semmeln.
Das würde ich richtig feiern. Endlich wäre Schluss mit AMDs, Nvidias Mondpreisen.
Wenn man trotz voller Produktionsauslastung nicht mehr wie in früheren Jahren auf Halde sondern nach Bedarf produziert und damit nicht hinterherkommt, dann kann man bei entsprechend hoher Nachfrage auch hohe Preise verlangen. Simpelstes BWL Wissen das ist. Die Preise werden - wenn überhaupt - erst wieder sinken, wenn im gesamten Halbleiterbereich die Lagerbestände wieder deutlich wachsen.

Daran wird auch Intel mit DG vorerst nichts ändern. Die werden sich eher über die hoheren Margen freuen, denn den Gamern ein "Geschenk" zu machen.
 
Wenn man trotz voller Produktionsauslastung nicht mehr wie in früheren Jahren auf Halde sondern nach Bedarf produziert und damit nicht hinterherkommt, dann kann man bei entsprechend hoher Nachfrage auch hohe Preise verlangen. Simpelstes BWL Wissen das ist. Die Preise werden - wenn überhaupt - erst wieder sinken, wenn im gesamten Halbleiterbereich die Lagerbestände wieder deutlich wachsen.

Daran wird auch Intel mit DG vorerst nichts ändern. Die werden sich eher über die hoheren Margen freuen, denn den Gamern ein "Geschenk" zu machen.

Keine Ahnung was für Produktionskapazitäten Intel hat. Du anscheinend schon. Hättest du auch einfach schreiben können anstelle mit BWL wissen anzugeben.
 
Keine Ahnung was für Produktionskapazitäten Intel hat. Du anscheinend schon. Hättest du auch einfach schreiben können anstelle mit BWL wissen anzugeben.
Wenn man schon bei TSMC fertigen lässt, dann ist's mit der eigenen Kapazität vermutlich nicht weit her.

 
Wenn man schon bei TSMC fertigen lässt, dann ist's mit der eigenen Kapazität vermutlich nicht weit her.


Joah, Intel wird sich mit dem eigenen "Intel 7" Prozess auf Alder Laker + Sapphire Rapids konzentrieren. Man darf nicht vergessen dass Intel viele OEM Lieferverträge hat mit Volumen von denen AMD nur träumen kann, die müssen erst mal bedient werden.

Dass man sich da nicht selbst ins Bein schießt und für die GPUs den TSMC 6nm einkauft ist eigentlich ziemlich schlau. Und die Kohle hat Intel eh in der Portokasse, große Marge wird nicht das Ziel sein beim erneuten Versuch der GPU Sparte sich am Markt zu behaupten. Hier geht es darum erst mal Marktanteile abzugreifen und das gelingt eher mit einem performanten Prozess UND guter Verfügbarkeit.
 
Lenovo, Dell, HP und Acer sind 68,6% vom PC Markt (Laptops + Kisten), dann kommen 7% Apple und dann kommt der ganze Rest. Die werden "ja Intel" sagen, wie sie das 20 Jahre gemacht haben und gut daran verdienen, während Intel ein Heimspiel hat sich Marktanteile zu erobern.

Nvidia wird da einen schweren Stand haben, wenn sie in Zukunft in Fertig-PCs und Laptops verbaut werden wollen. Besonders im Segment der PCs unter 200W (Laptops unter 100W) Gesamtleistung (würde 50er und 60er Serie Nvidia GPUs betreffen) wird es eng. Das hat in den Media Märkten immer Nvidia mit 1050, 1060, 1650, 1660 Varianten dominiert, das ist genau der Markt den Intel haben will. Und weil Nvidia RTX und DLSS immer für die großen Karten reserviert hatte, lacht sich Intel einen ab, weil jetzt ist es Intel die zuerst das niedrigere Preissegment mit diesen Featuren bedienen kann. Man kann nicht genug betonen, wie wichtig es ist dass Nvidia mit der 3050 einen Massenmarkt erreicht der die Marke stärkt und nicht nur an Miner oder zu Höchstpreisen verkauft wird und für Spott in jedem Youtube Video sorgt.

Es lohnt auch ein weiterer Blick auf die Hades Canyon NUCs von Intel/AMD die imo ihrer Zeit weit voraus waren und stilprägend waren wie Apple jetzt seinen M1-Max entworfen hat. CPU+GPU+RAM auf einem Package würde jede Steckkarte infrage stellen die nicht deutlich schneller ist. An den Konsolen sehen wir wie gut AMD dieses Design eigentlich jetzt schon beherrscht, Intel wird das auch in den nächsten 5 Jahren meistern und dann ist der typische 600€ Gaming PC im Mediamarkt kein riesiger Kasten mit viel Luft verbaut, sondern ein 1-Chip PC.
 
Hier geht es darum erst mal Marktanteile abzugreifen und das gelingt eher mit einem performanten Prozess UND guter Verfügbarkeit.
Ob die Verfügbarkeit gegeben sein wird, das muss sich erst noch zeigen. Das Argument bzw die Hoffnung war ja, dass mit Intel das Duopol von AMD und NVIDIA zum Vorteil der Verbraucher (uns) aufgebrochen wird. Ich bin da nicht so optimistisch. Warum, das schrieb ich weiter oben.
 
Wer wissen will wie gut die E-Cores sind, muss die P-Cores ja nur mal abschalten und danach das System bedienen. Jede Wette, die P-Cores werden schnell wieder eingeschalten.

Auch probieren kann wer will ein System mit Intel N6005, ein 10nm Chip, effektiv sind das vier E-Cores mit kompletter Umverpackung als Standalone CPU. Kann man sich drüber streiten, ob die Variante dieser 10nm Tech die in die i7 als E-Kerne transplantiert wurden wirklich besser sind. Persönlicher Eindruck, nein.

Produkt mit einem N6005 wäre z.B. das Giby Brix
R23 Multicore 1735 Punkte.
Angeblich kann der N6005 auf 3,3 GHz takten, aber in der Realität läuft der R23 Test bei 2,5GHz. Bios-Overclocking ist jetzt nicht die Stärke dieses MiniPCs.

Boards für 60-100€, DDR4 Support und ordentliche 6 Kerner sind alles was Intel braucht meiner Meinung nach. Da packt Intel ihren 3070 Konkurrenten mit rein und lässt Dell/HP das in Serie fertigen, dass die Marktanteile beider Konkurrenz nur so bluten. Alles andere ist wie Kleidung aus den 80ern. Kann man so anziehen und sich schönreden, aber wenn der nächste Trend das wieder komplett abschafft wird kein Aufschrei durch die Community gehen.

P-Cores lassen sich nicht vollständig deaktivieren und Jasper Lake ist einen großen Architektursprung älter als die E-Cores von Alder Lake. Vom N6005 auf einen E-Cluster zu schließen wäre genauso ein Fehler, wie einen Ryzen 2300X zu benchen, wenn man wissen will, wie schnell ein Zen-3-Chiplet-Quadcore wäre.


Verstehe, was du meinst, aber Fixkostenproblematik != Gesamtsituation. Die Gesamtsituation würde sich drastisch ändern für AMD, wenn sie mehr Kapazitäten bekämen bei TSMC.


Es ist ja auch nicht die Stärke der E-Cores, alleine zu laufen, sondern, z.B. bei Gaming Workloads, asynchrone Tasks zu übernehmen, die nicht auf dem kritischen Pfad (Mainthread, Renderthreads) liegen.


Mainthreads? Plural? ^^

Ja, Mehrzahl. Es limitiert zwar immer irgend ein Thread am meisten, aber moderne Spiele spawnen durchaus 2-3-4 Threads, deren Leisungsanforderungen über den Möglichkeiten eines E-Cores liegen. Wenn man mehr derartige Threads als P-Cores hat, drohen Limitierungen deutlich vor 100 Prozent CPU-Lastung bei Hybrid-Konzepten. Sobald man diese Mindestzahl erreicht hat, geht es dagegen nur noch um die Gesamtleistung – ob drei unabhängige Threads mit mittlerer Anforderung von einem P-Core im Wechsel oder in der gleichen Gesamtseit von drei E-Cores parallel berechnet werden, ist dem Spiel egal.
 
P-Cores lassen sich nicht vollständig deaktivieren und Jasper Lake ist einen großen Architektursprung älter als die E-Cores von Alder Lake. Vom N6005 auf einen E-Cluster zu schließen wäre genauso ein Fehler, wie einen Ryzen 2300X zu benchen, wenn man wissen will, wie schnell ein Zen-3-Chiplet-Quadcore wäre.
Dafür braucht man nur die vorhandenen Daten im Netz betrachten. Ein 6700k macht im Cinebench R20 angeblich ca. 420 ST und im MT ca. 2000 Punkte. Bei der8auer waren 8 E-Cores über Process Lasso in der Lage 424 ST und 3203 MT zu haben (Im R23 dann jenseits der 5000 Punkte). Man kann also erwarten dass die E-Cores wirklich in etwa Skylake-Niveau erreichen und das reicht für viele Dinge bereits aus. Und wenn man berücksichtigt, dass die E-Cores auch max. 48W ziehen sollen wäre das ein sehr ordentliches Ergebnis.
 
Zurück