Laut aktueller (inoffizieller) Roadmap "nur" bis Raptor Lake. Mit Meteor Lake (Z890, mutmaßlich neuer Sockel, 14. Core-Generation) setzt Intel bereits auf "Intel 4", also 7 nm.Ja ja warten wir mal ab, wie weit Intel in 10nm wirklich kommen wird!?
Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.Das heißt dass die CPUs der 12 Gen immer noch nicht das leisten was die 5000er Reihe von Zen 3 seit letztem Jahr leistet.
Intel macht nicht so ein Fass nur für eine Generation auf, zudem möchte AMD ab Zen 4 auch auf den Hybrid-Ansatz setzen. Schon Raptor wird viel bessere (und mehr) E-Cores als Alder bieten. Gewöhne dich dran, das ist die Zukunft.Intel hat mit Alder Fake aufgeholt aber ich denke das big little Prinzip ist für die Zukunft eine Sachkasse.
zudem möchte AMD ab Zen 4 auch auf den Hybrid-Ansatz setzen.
Da werden die CPU's nicht wie hier für games getestet sondern für alles eben also kann man schon es pauschal sagenLaut aktueller (inoffizieller) Roadmap "nur" bis Raptor Lake. Mit Meteor Lake (Z890, mutmaßlich neuer Sockel, 14. Core-Generation) setzt Intel bereits auf "Intel 4", also 7 nm.
Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.
Intel macht nicht so ein Fass nur für eine Generation auf, zudem möchte AMD ab Zen 4 auch auf den Hybrid-Ansatz setzen. Schon Raptor wird viel bessere (und mehr) E-Cores als Alder bieten. Gewöhne dich dran, das ist die Zukunft.
Du hast prinzipiell recht.Ich halte das für höchst unwahrscheinlich, dass intel ihren Rückstand in so kurzer Zeit gegenüber TSMC und hierbei geht es ja um TSMC und nicht AMD pulverisiert und sogar in Führung geht. Bei TSMC arbeiten auch keine Idioten und mittlerweile steckt da deutlich mehr Kohle dahinter was die Forschung an Fertigungsprozessen betrifft.
Von daher bin ich da mal sehr gespannt, was letztendlich geliefert wird.
Ich verstehe was du meinst, ergänzend möchte ich aber sagen: Was sich spätestens mit Meteor Lake ändert.Von den Konzepten her hat man bei AMD und intel ja auch deutliche Unterschiede, AMD hat sich mit seinem Chipletdesign ja deutlich mehr in Richtung HPC Markt fokussiert und kann auch einen wesentlich höheren Corecount liefern, während intel aktuell ja mit ihrem Konzept mehr im Deskop/Notebook Markt punktet.
Das wird auch noch interessant ja. Das ganze steht und fällt mit der Softwareökonomie.Wobei ich es eh spannender finde, wie man sich im Bereich GPUs für Datacenter aufstellen wird. AMD und nvidia setzen dort ja unterschiedliche Schwerpunkte und ich schätze mal, dass man sich da eher mit nvidia im KI Bereich duellieren wird.
AMD hat keine Fertigung. Du weißt also immer noch nicht, dass die Hersteller die Prozesse nur so BENENNEN, und das mit der REalität wenig zu tun hat? Intels 10nm Prozess ist hier den 7nm GENANNTEN Prozessen in so manchen Punkten überlegen.Eben mit aktuell 10nm ist Intel noch weit abgeschlagen ggü. AMDs Fertigung!
Der 6nm Prozess ist ein umbenannter TSMC 7nm Prozess.Und AMD wird bei ihrem Zen3 Refresh schon auf 6nm setzen und bei Zen4 wird man etwa bei 4 NM sein.
Sind wir ehrlich, wirklich gut sieht das für Intel nicht aus.
alle Hersteller können ihren Prozess auch mit dem Namen "Jackewiehose" verkaufen. Völlig egal.Nur weil Intel 7nm drauf schreibt, heißt das noch lange nicht, dass auch 7nm drin steckt!
AMD hat doch schon längst angedeutet, dass man mit Zen 4c etwas ähnliches probieren wird, spätestens Zen 5 wird wahrscheinlich ein Hybriddesign mitbringen.ich gehe eher davon aus, dass AMD biglittle aussitzen wird aber man wird sehen.
Denn am Ende sind 16 strake Kerne besser als 8 Schwache und 8 Starke.
64 Kerne sind sicher auch "besser", aber es hängt nun mal davon ab, was man mit den CPUs macht ^^Denn am Ende sind 16 strake Kerne besser als 8 Schwache und 8 Starke.
Und auch das kann man nochmal differenzieren: In Anwendungen ist AMD mit mehr (starken) Kernen im Multicore besser. Singlecore Intel.Habe ich etwas verpasst? Das kann man doch pauschal gar nicht sagen. Es hängt immer von Anwendungsgebiet ab. Quick & Dirty würde ich sagen: In Spielen ist Alder Lake schneller als Zen 3 und in Anwendungen ist Zen 3 schneller als Alder Lake.
Du hast noch nie ein Anno gespielt, oder? ^^Solange wir uns keine gtx3080/3090 leisten "wollen" reicht zum zocken in den nächsten Jahren locker ein günster ryzen 3600 oder ein intel 10400f. Alles darüber ist zwar top aber in Games dauerhaft brach liegende Leistung.
Klar, aber schon viele jahre her. Glaube anno 1400 war der letzte titel. Mir ist natürlich schon klar das es eine handvoll spiele wie anno gibt die es schaffen alle cpu kerne auszulasten. Da macht ein guter 8 kerner dann auch Sinn. 99% der spiele sind in realistischen hohen-ultra settings in wqhd/uhd auch auf 4 kernern permanent im gpu Limit.Du hast noch nie ein Anno gespielt, oder? ^^
Leistungsfähigere CPUs sorgen ja nicht nur für höhere durchschnittliche Frameraten, sondern auch für bessere Frametimes. Das wird gerne übersehen.
Und die neueren "Total War" Spiele.MS Flightsim/anno etc. bilden da die Ausnahme.
Ein 64 Kerner ist schon ein Threadripper und nicht zum spielen geeignet auch wenn ich einen 24er TR schon als auch einen Gaming PC auf der Arbeit zusammen gebaut habe. Mit einer 3090er, 128 GB RAM und einem 1000 € Board und es ist egal wofür man die CPU braucht. AMD macht derzeit die besseren CPUS seit der 5000er Reihe und das seit letztem Jahr. Zum spielen würde ich auch einen 5800X kaufen anstelle eines 8 Kerners von Intel. Da ich mehr mache als nur das deswegen der 16 Kerner64 Kerne sind sicher auch "besser", aber es hängt nun mal davon ab, was man mit den CPUs macht ^^
Die Anzahl der Kerne ist somit egal, was zählt, ist, was am Ende herauskommt.
Strategie gerade mit vielen Einheiten schaffen es ganz gut die cpu aus dem tiefschlaf zu wecken. Shooter und mmog und viele andere games profitieren kaum von mehr als 4 Kernen. Und in HD spielt eh niemand mehr, wqhd ist mittlerweile schon unterster Standard. Habe selber doe rtx3060ti und intel i5 10400f. Der Intel wird dabei nichtmal auf Betriebstemp. warmUnd die neueren "Total War" Spiele.
Bf2042 nutzt weder CPU noch GPU aus !Mit meinem MSI Edge Board ist mir nichts der Gleichen aufgefallen und die Temperaturen fallen mit meiner verbauten Wasserkühlung wie erwartet gut aus. Daher wird sich dieses Problem nicht auf alle Mainboards beziehen. Igor sagt auch dazu, dass nur manche bestimmte Boards, die weniger kosten, davon betroffen sind. Hier soll angeblich das Mainboard selbst etwas dünner ausfallen, was dieses durchbiegen begünstigen soll.
Daher sollte man nicht alle Mainboards über einem Tisch ziehen. Igor benennt hier aber keine bestimmten Boards, daher ist hier auch nicht genau bekannt, von welchen Board er ausgeht. Hatte auch das Asus Strik-A (DDR4) da und da ist mir am Mainboard selbst nichts aufgefallen. Beide Boards hatten aber eine recht massive Backplate des Sockels verbaut. Die fällt sogar massiver aus, als die Backplate meines alten Asus Hero Z390 Board aus.
In Games erreicht mein Prozessor (Stock) um die 50-55°C, was so in Ordnung ist.
Zum Beispiel mit BF 2042, was sich auch etwas im CPU-Limit bewegt.
Anhang anzeigen 1382922
Du bist lustig und was ist, wenn deine Grafikkarte nicht voll ausgelastet wird? Ich nenne sowas CPU-Limit und das merkst du auch an der Leistungsaufnahme der CPU, denn diese wird im Game entsprechend auch mit ansteigen. Natürlich wird dein Prozessor dabei nicht auf alle Kerne mit 100% belastet und für ein CPU-Limit müssen auch keine 100% Prozessorauslastung anliegen.Bf2042 nutzt weder CPU noch GPU aus !
Mein 9900K liegt bei 40% meine RTX3090 bei 35% bei 125FPS !
BF2042 ist ein ganz ganz ganz schlechtes Beispiel !
Doch, dieses Spiel ist ein sehr gutes Beispiel, denn mit meinem 9900K habe ich die GPU nur auf max. 80% ausgelastet bekommen und mit meinem 12900K komme ich jetzt auf mindestens 90% und mit OC auf 5000/4000 MHz habe ich sogar die 99% Auslastung der Grafikkarte gesehen.BF2042 ist ein ganz ganz ganz schlechtes Beispiel !
Das hat genau sowenig was auszusagen, da es auch auf deine Auflösung mit ankommt.Mein 9900K liegt bei 40% meine RTX3090 bei 35% bei 125FPS !
Du hast es immer noch nicht verstanden, ein Game der gut läuft und problemlos ins GPU-Limit läuft, macht kein Unterschied. Die Güte solch eines System kommt aber dann zur Geltung, sobald ein Game mehr Leistung abverlangt.Alter meine CPU verbraucht in BF2042 keine 70Watt die GPU 180Watt
In BF5 120Watt CPU und 350Watt GPU
Was versteht du nicht an "Schlechtes Beispiel" !
Vollkommen uninteressant, da die Settings dazu immer ausschlaggebend sind.Hinzu kommt das ich in BF5 200FPS Kontant halte und in BF2042 dank der Tollen Hardwarenutzung 125-140FPS habe
64 oder 128Server ist auch Latte...
Nein, wäre überhaupt nicht absurd gewesen, ...
Da AMD im Moment versucht alle 3 Generationen das Konzept komplett umzukrempeln (und dazwischen stets iterative Verbesserungen bringt) ist das nicht zu erwarten, dass man plötzlich völlig hinterherfährt.
Auch weil man nun bei TSMC produziert und nicht plötzlich Jahre hinterher ist beim Prozess (selbst wenn Intel 2024 mit 20A anrückt, ist der Vorsprung nicht so groß wie früher).
Worst Case für AMD: Intel ist erwacht und übernimmt wieder die Führung, aber AMD hat jetzt ein breites Produktportfolio mit dem es auch überleben kann wenn es nur zweitschnellsten ist, vor allem weil man solche massiven Betinklötze wie die Verlustbehaftete Fertigung bei kleinem Marktanteil nicht mehr mitschleppen müsste.
Ich gehe davon aus, dass AMD und Intel sich bis 2025 ein Kopf an Kopf-Rennen geben was CPUs betrifft. WENN Intel 20A und 18A zeitgerecht rausbringen sind sie wieder "vorne" sonst bleibts knapp.
Aktuell betrachte ich die Lage im Performancesegment als Gleichstand: Intel hat eine höhere Performance in vielen Bereichen, Aber auch einen deutlich höheren Verbrauch unter Last
Das Problem ist hier, dass Intel einen Etikettenschwindel betreibt zumindest versucht man zu suggerieren, man hätte mit 10Nm zu AMD gleichgezogen, was die Fertigungsstruktur betrifft und zu sagen diese Struktur sei nicht mehr entscheidend ist, sagen wird mal höchst fragwürdig.
Kingdom Come Deliverance, Anno 1800, Planet Zoo, Crysis Remastered, Total War, Red Dead Redemption 2 ... es gibt so viele Spiele, die von einer leistungsfähigeren CPU (auch) mit weniger Kernen profitieren. Das soll natürlich nicht heißen, dass ein Ryzen 3600 oder Core i5-10400F dafür zu langsam wäre.
Du bist lustig und was ist, wenn deine Grafikkarte nicht voll ausgelastet wird? Ich nenne sowas CPU-Limit und das merkst du auch an der Leistungsaufnahme der CPU, denn diese wird im Game entsprechend auch mit ansteigen. Natürlich wird dein Prozessor dabei nicht auf alle Kerne mit 100% belastet und für ein CPU-Limit müssen auch keine 100% Prozessorauslastung anliegen.