Intel Core 12000: Kleinere i5- und i3-Modelle meist schneller als die Ryzen-Konkurrenz

Ja ja warten wir mal ab, wie weit Intel in 10nm wirklich kommen wird!?
Laut aktueller (inoffizieller) Roadmap "nur" bis Raptor Lake. Mit Meteor Lake (Z890, mutmaßlich neuer Sockel, 14. Core-Generation) setzt Intel bereits auf "Intel 4", also 7 nm. ;-)
Das heißt dass die CPUs der 12 Gen immer noch nicht das leisten was die 5000er Reihe von Zen 3 seit letztem Jahr leistet.
Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.
Intel hat mit Alder Fake aufgeholt aber ich denke das big little Prinzip ist für die Zukunft eine Sachkasse.
Intel macht nicht so ein Fass nur für eine Generation auf, zudem möchte AMD ab Zen 4 auch auf den Hybrid-Ansatz setzen. Schon Raptor wird viel bessere (und mehr) E-Cores als Alder bieten. Gewöhne dich dran, das ist die Zukunft. :ka:
 
Na ja, wir wissen doch, dass AMD wegen der Waferknappheit etc. nur bedingt Prozessoren anbieten kann.
Ich würde auch die verfügbaren Margen zu 100% in gewinnbringende High-End Chips ummünzen.
Wenn die hochpreisigen Chips keine Abnehmer mehr finden, kann man die Ressourcen in kleine Chips wie einen 5600 ohne X und darunter ausgliedern.
Dann hat man niedrigere Stromaufnahme und trotzdem gute Leistung zu vernünftigen Preisen.
Aber das wird in der Corona Zeit wohl kaum passieren.
Jetzt kommt das Upgrade mit 3D Cache und ab gehts in die nächste Runde.
Ich glaube nicht, dass AMD freiwillig den Einsteigermarkt an Intel abtritt, sondern muss.
Wenn ich mich in unserer Firma entscheiden müsste, was ich an Blechen auf unseren Maschinen fertige, dann würde ich zu 100% nur noch Edelstahl und Aluminiumteile durchrotzen.
Alle Unkosten sind identisch, aber mit Stahl und verzinktem Material kann man einfach nicht reich werden udn das Geld für die Maschinen mal eben schnell wieder reinholen.
Die Kosten ein Vermögen.
Wenn Intel jetzt gute und günstige Prozessoren für die Einstiegsklasse anbietet, die zugleich auch nicht so viel Strom fressen wie die überaus schlechten Oberklasseprozessoren mit ihren 241 Watt, dann ist es doch gut.
Ich habe da kein Problem mit, werde aber trotzdem nicht mehr bei der Firma kaufen, die sind bei mir längst unten durch.
 
Laut aktueller (inoffizieller) Roadmap "nur" bis Raptor Lake. Mit Meteor Lake (Z890, mutmaßlich neuer Sockel, 14. Core-Generation) setzt Intel bereits auf "Intel 4", also 7 nm. ;-)

Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.

Intel macht nicht so ein Fass nur für eine Generation auf, zudem möchte AMD ab Zen 4 auch auf den Hybrid-Ansatz setzen. Schon Raptor wird viel bessere (und mehr) E-Cores als Alder bieten. Gewöhne dich dran, das ist die Zukunft. :ka:
Da werden die CPU's nicht wie hier für games getestet sondern für alles eben also kann man schon es pauschal sagen
 
Ich halte das für höchst unwahrscheinlich, dass intel ihren Rückstand in so kurzer Zeit gegenüber TSMC und hierbei geht es ja um TSMC und nicht AMD pulverisiert und sogar in Führung geht. Bei TSMC arbeiten auch keine Idioten und mittlerweile steckt da deutlich mehr Kohle dahinter was die Forschung an Fertigungsprozessen betrifft.
Von daher bin ich da mal sehr gespannt, was letztendlich geliefert wird.
Du hast prinzipiell recht.
Aber auch bei Intel arbeiten keine Idioten und man war eigentlich vor dem plötzlichen Stop beim Fortschritt der Prozesstechnologien eher am Vorsprung ausbauen, als verlieren.
Nichtsdestoweniger gibt es einen klaren Grund, warum Intel auf TSMC auf/überholen wird:
Der Grund für TSMCs Vorsprung derzeit sind die früher eingesetzten EUV Belichtungsgeräte von ASML.
Und die nächste Generation wird Intel mit deutlichem Vorsprung zuerst einsetzen. Da kann auch TSMC nichts dagegen machen.
Von den Konzepten her hat man bei AMD und intel ja auch deutliche Unterschiede, AMD hat sich mit seinem Chipletdesign ja deutlich mehr in Richtung HPC Markt fokussiert und kann auch einen wesentlich höheren Corecount liefern, während intel aktuell ja mit ihrem Konzept mehr im Deskop/Notebook Markt punktet.
Ich verstehe was du meinst, ergänzend möchte ich aber sagen: Was sich spätestens mit Meteor Lake ändert.
Wobei ich es eh spannender finde, wie man sich im Bereich GPUs für Datacenter aufstellen wird. AMD und nvidia setzen dort ja unterschiedliche Schwerpunkte und ich schätze mal, dass man sich da eher mit nvidia im KI Bereich duellieren wird.
Das wird auch noch interessant ja. Das ganze steht und fällt mit der Softwareökonomie.
Eben mit aktuell 10nm ist Intel noch weit abgeschlagen ggü. AMDs Fertigung!
AMD hat keine Fertigung. Du weißt also immer noch nicht, dass die Hersteller die Prozesse nur so BENENNEN, und das mit der REalität wenig zu tun hat? Intels 10nm Prozess ist hier den 7nm GENANNTEN Prozessen in so manchen Punkten überlegen.
https://semiwiki.com/wp-content/uploads/2018/06/21824-slide4.jpg
Und AMD wird bei ihrem Zen3 Refresh schon auf 6nm setzen und bei Zen4 wird man etwa bei 4 NM sein.
Sind wir ehrlich, wirklich gut sieht das für Intel nicht aus.
Der 6nm Prozess ist ein umbenannter TSMC 7nm Prozess.
Nur weil Intel 7nm drauf schreibt, heißt das noch lange nicht, dass auch 7nm drin steckt!
alle Hersteller können ihren Prozess auch mit dem Namen "Jackewiehose" verkaufen. Völlig egal.
Am Ende zählen die physikalischen DImensionen, und die habe ich dir oben genannt.
Und was sagst du dazu? Gleichwertig? Oder völlig anders?
Wirst du dann dasselbe nochmal sagen, wenn dir klar wird, dass Intels 7nm Prozess jetzt bald Intel 4 und Intel 3 heißen wird, weil er nunmal seit Jahren eher dem entspricht, was TSMC erst mit 3nm plant?
ich gehe eher davon aus, dass AMD biglittle aussitzen wird aber man wird sehen.
Denn am Ende sind 16 strake Kerne besser als 8 Schwache und 8 Starke.
AMD hat doch schon längst angedeutet, dass man mit Zen 4c etwas ähnliches probieren wird, spätestens Zen 5 wird wahrscheinlich ein Hybriddesign mitbringen.
Wieso bleibst du eigentlich nie bei dem was bekannt ist und spinnst immer deine eigene Geschichte?
 
Zuletzt bearbeitet:
Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.
Und auch das kann man nochmal differenzieren: In Anwendungen ist AMD mit mehr (starken) Kernen im Multicore besser. Singlecore Intel.
 
Und am Ende arbeiten die tollen high End Kerne auf den super high end boards mit dem schnellsten tollsten speicher im Game mit ....25% Auslastung. Solange wir uns keine gtx3080/3090 leisten "wollen" reicht zum zocken in den nächsten Jahren locker ein günster ryzen 3600 oder ein intel 10400f. Alles darüber ist zwar top aber in Games dauerhaft brach liegende Leistung.
 
Solange wir uns keine gtx3080/3090 leisten "wollen" reicht zum zocken in den nächsten Jahren locker ein günster ryzen 3600 oder ein intel 10400f. Alles darüber ist zwar top aber in Games dauerhaft brach liegende Leistung.
Du hast noch nie ein Anno gespielt, oder? ^^
Leistungsfähigere CPUs sorgen ja nicht nur für höhere durchschnittliche Frameraten, sondern auch für bessere Frametimes. Das wird gerne übersehen.
 
Du hast noch nie ein Anno gespielt, oder? ^^
Leistungsfähigere CPUs sorgen ja nicht nur für höhere durchschnittliche Frameraten, sondern auch für bessere Frametimes. Das wird gerne übersehen.
Klar, aber schon viele jahre her. Glaube anno 1400 war der letzte titel. Mir ist natürlich schon klar das es eine handvoll spiele wie anno gibt die es schaffen alle cpu kerne auszulasten. Da macht ein guter 8 kerner dann auch Sinn. 99% der spiele sind in realistischen hohen-ultra settings in wqhd/uhd auch auf 4 kernern permanent im gpu Limit.
MS Flightsim/anno etc. bilden da die Ausnahme.
 
Kingdom Come Deliverance, Anno 1800, Planet Zoo, Crysis Remastered, Total War, Red Dead Redemption 2 ... es gibt so viele Spiele, die von einer leistungsfähigeren CPU (auch) mit weniger Kernen profitieren. Das soll natürlich nicht heißen, dass ein Ryzen 3600 oder Core i5-10400F dafür zu langsam wäre.
 
64 Kerne sind sicher auch "besser", aber es hängt nun mal davon ab, was man mit den CPUs macht ^^
Die Anzahl der Kerne ist somit egal, was zählt, ist, was am Ende herauskommt.
Ein 64 Kerner ist schon ein Threadripper und nicht zum spielen geeignet auch wenn ich einen 24er TR schon als auch einen Gaming PC auf der Arbeit zusammen gebaut habe. Mit einer 3090er, 128 GB RAM und einem 1000 € Board und es ist egal wofür man die CPU braucht. AMD macht derzeit die besseren CPUS seit der 5000er Reihe und das seit letztem Jahr. Zum spielen würde ich auch einen 5800X kaufen anstelle eines 8 Kerners von Intel. Da ich mehr mache als nur das deswegen der 16 Kerner
Bei Spielen wie Total War , die ich auch sehr gerne spiele je mehr Kerne desto besser
 
Und die neueren "Total War" Spiele.
Strategie gerade mit vielen Einheiten schaffen es ganz gut die cpu aus dem tiefschlaf zu wecken. Shooter und mmog und viele andere games profitieren kaum von mehr als 4 Kernen. Und in HD spielt eh niemand mehr, wqhd ist mittlerweile schon unterster Standard. Habe selber doe rtx3060ti und intel i5 10400f. Der Intel wird dabei nichtmal auf Betriebstemp. warm
 
Mit meinem MSI Edge Board ist mir nichts der Gleichen aufgefallen und die Temperaturen fallen mit meiner verbauten Wasserkühlung wie erwartet gut aus. Daher wird sich dieses Problem nicht auf alle Mainboards beziehen. Igor sagt auch dazu, dass nur manche bestimmte Boards, die weniger kosten, davon betroffen sind. Hier soll angeblich das Mainboard selbst etwas dünner ausfallen, was dieses durchbiegen begünstigen soll.

Daher sollte man nicht alle Mainboards über einem Tisch ziehen. Igor benennt hier aber keine bestimmten Boards, daher ist hier auch nicht genau bekannt, von welchen Board er ausgeht. Hatte auch das Asus Strik-A (DDR4) da und da ist mir am Mainboard selbst nichts aufgefallen. Beide Boards hatten aber eine recht massive Backplate des Sockels verbaut. Die fällt sogar massiver aus, als die Backplate meines alten Asus Hero Z390 Board aus.

In Games erreicht mein Prozessor (Stock) um die 50-55°C, was so in Ordnung ist.
Zum Beispiel mit BF 2042, was sich auch etwas im CPU-Limit bewegt.
Anhang anzeigen 1382922
Bf2042 nutzt weder CPU noch GPU aus !

Mein 9900K liegt bei 40% meine RTX3090 bei 35% bei 125FPS !
BF2042 ist ein ganz ganz ganz schlechtes Beispiel !
 
Bf2042 nutzt weder CPU noch GPU aus !

Mein 9900K liegt bei 40% meine RTX3090 bei 35% bei 125FPS !
BF2042 ist ein ganz ganz ganz schlechtes Beispiel !
Du bist lustig und was ist, wenn deine Grafikkarte nicht voll ausgelastet wird? Ich nenne sowas CPU-Limit und das merkst du auch an der Leistungsaufnahme der CPU, denn diese wird im Game entsprechend auch mit ansteigen. Natürlich wird dein Prozessor dabei nicht auf alle Kerne mit 100% belastet und für ein CPU-Limit müssen auch keine 100% Prozessorauslastung anliegen.
BF2042 ist ein ganz ganz ganz schlechtes Beispiel !
Doch, dieses Spiel ist ein sehr gutes Beispiel, denn mit meinem 9900K habe ich die GPU nur auf max. 80% ausgelastet bekommen und mit meinem 12900K komme ich jetzt auf mindestens 90% und mit OC auf 5000/4000 MHz habe ich sogar die 99% Auslastung der Grafikkarte gesehen.

Ich bestreite nicht, dass dieses Game kein Problem ist, dieses Spiel lässt sich sehr schwer ins GPU-Limit bringen.

Mein 9900K liegt bei 40% meine RTX3090 bei 35% bei 125FPS !
Das hat genau sowenig was auszusagen, da es auch auf deine Auflösung mit ankommt.
Es soll auch Leute geben, die sich eine 3090 Grafikkarte kaufen und nur ein FullHD Monitor haben und sich dann wundern, wieso sie die Grafikkarte nicht voll ausgelastet bekommen.
 
Zuletzt bearbeitet von einem Moderator:
Alter meine CPU verbraucht in BF2042 keine 70Watt die GPU 180Watt
In BF5 120Watt CPU und 350Watt GPU

Was versteht du nicht an "Schlechtes Beispiel" !
Das Game nutzt die Hardware nicht und macht auch keinen Unterschied ob ich alles Übertakte oder nicht

Hinzu kommt das ich in BF5 200FPS Kontant halte und in BF2042 dank der Tollen Hardwarenutzung 125-140FPS habe
64 oder 128Server ist auch Latte...

und Samsung G9 32/9 erklärt wohl die RTX3090....

124cm/49''​

(5120x1440) Samsung Odyssey G9 C49G95TSSR​

Curved Gaming​

32:9​

1ms​

240Hz​

 
Zuletzt bearbeitet:
Alter meine CPU verbraucht in BF2042 keine 70Watt die GPU 180Watt
In BF5 120Watt CPU und 350Watt GPU

Was versteht du nicht an "Schlechtes Beispiel" !
Du hast es immer noch nicht verstanden, ein Game der gut läuft und problemlos ins GPU-Limit läuft, macht kein Unterschied. Die Güte solch eines System kommt aber dann zur Geltung, sobald ein Game mehr Leistung abverlangt.

Hinzu kommt das ich in BF5 200FPS Kontant halte und in BF2042 dank der Tollen Hardwarenutzung 125-140FPS habe
64 oder 128Server ist auch Latte...
Vollkommen uninteressant, da die Settings dazu immer ausschlaggebend sind.
 
Nein, wäre überhaupt nicht absurd gewesen, ...

Doch, vor fünf Jahren wäre die Aussage "Intel überholt AMD in nur zwei Generationen" für viele Absurd gewesen, denn vor fünf Jahren lag AMD noch meilenweit hinter Intel und bis vor gut zwei Jahren allenfalls gleich auf. Jemanden zu überholen zu wollen, der nicht vor einem liegt, ist absurd. ;-) Da die meiste Zeit über Intel 10 nm "nächstes Jahr" erwartet wurde, konnte man auch zu keiner Zeit absehen, dass Intel mal zwei Generation hinter AMD zurückfallen würde.


Da AMD im Moment versucht alle 3 Generationen das Konzept komplett umzukrempeln (und dazwischen stets iterative Verbesserungen bringt) ist das nicht zu erwarten, dass man plötzlich völlig hinterherfährt.
Auch weil man nun bei TSMC produziert und nicht plötzlich Jahre hinterher ist beim Prozess (selbst wenn Intel 2024 mit 20A anrückt, ist der Vorsprung nicht so groß wie früher).

Worst Case für AMD: Intel ist erwacht und übernimmt wieder die Führung, aber AMD hat jetzt ein breites Produktportfolio mit dem es auch überleben kann wenn es nur zweitschnellsten ist, vor allem weil man solche massiven Betinklötze wie die Verlustbehaftete Fertigung bei kleinem Marktanteil nicht mehr mitschleppen müsste.
Ich gehe davon aus, dass AMD und Intel sich bis 2025 ein Kopf an Kopf-Rennen geben was CPUs betrifft. WENN Intel 20A und 18A zeitgerecht rausbringen sind sie wieder "vorne" sonst bleibts knapp.
Aktuell betrachte ich die Lage im Performancesegment als Gleichstand: Intel hat eine höhere Performance in vielen Bereichen, Aber auch einen deutlich höheren Verbrauch unter Last

AMD hat bislang weder einen Entwicklungsrythmus gezeigt noch angekündigt. Im Gegenteil, wenn dann vielen Aussagen im Sinne von "wir bringen, was möglich ist, wenn es möglich ist". Sollte das einmal nicht mehr reichen, um mit Intel auf Augenhöhe (oder besser) zu agieren, dürfte man aber mittelfristig Probleme bekommen. Das heutige Produktportfolio ist nicht wesentlich breiter als zu späten Athlon-64-vs-Netburst-Zeiten und wenn (!) AMD wieder Marktanteile verlieren sollte, müssten sie sich erneut auf wenige Märkte konzentrieren. Schlimmer noch: Während Intel in vergleichbaren Situationen in der Vergangenheit (Jahrtausendwende, Conroe-Ära) den Konkurrenzdruck deutlich zurückgefahren hat, sobald man wieder näherungsweise 90 Prozent Gesamtmarktanteil erreicht hatte, scheint man in Santa Clara derzeit reichlich angefressen zu sein, dass alle Welt von Apple schwärmt und sich sowieso nur noch um GPUs gekümmert wird.


Das Problem ist hier, dass Intel einen Etikettenschwindel betreibt zumindest versucht man zu suggerieren, man hätte mit 10Nm zu AMD gleichgezogen, was die Fertigungsstruktur betrifft und zu sagen diese Struktur sei nicht mehr entscheidend ist, sagen wird mal höchst fragwürdig.

Intel 7 gilt auf dem Papier als gleichwertig zu TSMC 7N und mittlerweile haben Tiger Lake und Cezanne sowie Alder Lake und Vermeer auch entsprechende Praxisbelege geliefert, sofern das bei so unterschiedlichen Prozessoren überhaupt möglich ist. Mit 10 Newtonmetern haben beide Prozesse übrigens genauso wenig etwas zu tun, wie mit 7 Nanometern, was PCGH-Lesern aber seit längerem bekannt sein sollte.

Kingdom Come Deliverance, Anno 1800, Planet Zoo, Crysis Remastered, Total War, Red Dead Redemption 2 ... es gibt so viele Spiele, die von einer leistungsfähigeren CPU (auch) mit weniger Kernen profitieren. Das soll natürlich nicht heißen, dass ein Ryzen 3600 oder Core i5-10400F dafür zu langsam wäre.

Zu beachten ist, dass viele dieser Spiele sogar nur von leistungsfähigen Spielen mit wenigen Kernen profitieren, aber relativ wenig von mehr als acht Rechenherzen.


Du bist lustig und was ist, wenn deine Grafikkarte nicht voll ausgelastet wird? Ich nenne sowas CPU-Limit und das merkst du auch an der Leistungsaufnahme der CPU, denn diese wird im Game entsprechend auch mit ansteigen. Natürlich wird dein Prozessor dabei nicht auf alle Kerne mit 100% belastet und für ein CPU-Limit müssen auch keine 100% Prozessorauslastung anliegen.

Ein CPU-Limit kann zwar bei deutlich unter 100 Prozent Auslastung gemäß Windows-Anzeige vorliegen, aber einer gewissen Kernanzahl ist eine Single-Thread-CPU-Limitierung mit genauso diesem Ergebnis sogar die wahrscheinlichere und hier vermutlich gegeben. Aber die Schlussfolgerung "wenn die Grafikkarte nicht voll ausgelastet wird, herrscht ein CPU-Limit" stimmt keineswegs immer und hier ging es um die Wärmeentwicklung einer CPU in ausgelastetem Zustand. Ein CPU-Limit, dass schon teilweiser CPU-Auslastung auftritt, erlaubt darüber keine Aussagen.
 
Zurück