Ja schon. Aber mehr P-Cores wären doch noch besser. Die E-Cores sollen ja in Games nicht soviel bringen.
Das ist so nicht ganz richtig. Einerseits sollen die grob das Niveau des alten Skylake erreichen, sind daher also durchaus
relativ durchzugsstark, andererseits können diese dazu beitragen die P-Kerne zu entlasten bzw. freizuhalten.
Intel hat sich mit dem Hardware Guided Scheduling und dem Thread Director viel Arbeit gemacht um eine möglichst gute Migration auf die Hybrid Architektur zu ermöglichen, denn selbstredend wird es keine angepasste Software "über Nacht" geben. Aktuell ist es bspw. so, dass ein lange parallel laufender Physik-Thread, der vergleichsweise wenig Last erzeugt und zumeist asynchron und mit niedrigerer Aktualisierungsrate läuft von der derzeitigen Scheduling-Implementation dennoch bevorzugt auf einen P-Core gelegt wird, was suboptimal ist. Dieser und andere, ähnliche Threads sollten jedoch idealerweise auf den E-Cores platziert werden und halten damit die P-Cores für zeitkritischere Tasks frei. Das aktuell beobachtete Verhalten zeigt ganz klar die Grenzen der bisherigen Hardwarelösung auf, den natürlich kann die keine "Gedanken lesen". Entsprechend sehen Microsoft und Intel neue Flags vor, die kennzeichen um welche Art Thread es sich handelt, damit der Scheduler diese optimal plazieren und priorisieren kann. Hier wird man absehbar mit neu erscheinenden Titeln (und Software allgemein) entsprechende Optimierungen beobachten können, die einen noch höheren Nutzen aus der neuen Architektur ziehen können werden.
[...] in Intel 4, TSMC N4 oder TSMC N5 wären (was allessamt 7-nm-Nodes sind) [...]
Du meintest absehbar "allesamt
5-nm-Nodes".
Randbemerkung: Intel scheint bzgl. seiner Namensgebung "Intel 4" nicht übertrieben zu haben bzw. die Abschätzungen aus Fachkreisen scheinen sich bewahrheitet zu haben, denn der konkurriert bzgl. mindestens der Logikdichte tatsächlich eher mit TSMCs N4(xyz)-Prozessen. Intel 4 verfügt über keine High Density-Cell-Lib und erreicht bereits mit der High Performance-Lib um die 160 MTr/mm2, also nur geringfügig weniger als das, wofür TSMC in seinen N5-Derivaten eine High Density-Lib benötigt.
Zwei Jahre später.... Lunar Lake mit 2 P-Cores und 128 E-Cores
Lol, wäre vermutlich möglich mit Intel 20A oder gar 18A, wäre dann aber schon eher ein Die bzw. MCM in der Größe eines Xeons ... und am Ende müssten auch noch die Softwareentwickler mitspielen, denn wenn 112 Kerne gelangweilt Däumchen drehen, hilft der technische Aufwand nichts ... und da die Konsolen in den kommenden 24 - 48 Monaten gesichert nicht zu Kernmonstern mutieren werden und kein Entwickler/Publisher diesen Markt ignorieren wollen wird, wird das vorerst nur ein feuchter Traum der PC-Enthusiasten bleiben.
Hätte aber auch was für sich ... ein dedizierter Thread, der ganz alleine für die detailierte Simulation von gerade mal nur vier NPCs zuständig wäre und das 100-fach mit einem dedizierten Kern pro Thread. Da könnte man bspw. Night City in gänzlich anderem Maße simulieren.
Da sind mir vier saftige Zen 4 Kerne die sowohl E als auch P sind 1000x lieber als 128 diese vertrockneten E Cores
die nur dazu dienen im CB den längsten zu haben.
Eine vollkommen unsinnige und inhaltlich falsche Aussage.
Warum "
saftig"? Laufen da Rückstände von nicht restlos beseitigtem ABF-Substrat aus der CPU aus?
"
die sowohl E als auch P sind", ein Widerspruch in sich oder ist ein Auto auch ein Fahrrad, ist ein Auto ...?!?
Die Zen4-Architektur hat einen SweetSpot in der sie ihr operatives Maximum erreicht. Sobald sie sich davon entfernt fallen die Leistungswerte schrittweise ab, völlig normal.
Genau aus dem Grund gibt es ja Hybriddesigns, deren Aufgabe es ist mit unterschiedlichen Architekturen mit jeweils gänzlich anders gelagerten leistungstechnischen SweetSpots die extrem inhomogene Workload-Bandbreite im Consumer-Segment bestmöglich bedienen zu können. Entsprechende Entwicklungen gehen bis zum Anfang dieses Jahrtausends zurück, denn das grundlegende Problem ist schon relativ alt und mit einem einzigen Design kann man nun einmal nicht bestmöglich alle möglichen Workloads in optimaler Art und Weise bedienen.
Intel spielt das Design derzeit natürlich auch noch zusätzlich mit Blick auf die Fertigung in die Hände aber diese Notwendigkeit verflüchtigt sich gerade mit großen Schritten und dennoch wird Intel von der Hybrid Technology weiterhin umfangreichen Gebrauch machen, denn es ist einfach ineffizient immer mehr große Kerne in den Consumer-Markt zu bringen, denn die meisten Workloads in diesem Markt können diese nicht sinnvoll ausnutzen.
Und absehbar wird AMD diesem Weg auch folgen, wenn auch etwas später.
Ich bin mal gespannt wann AMD auch auf diesen Zug aufspringt.
Mit ZEN 4 ja noch nicht. Vielleicht mit ZEN 5?
Ja, Zen5 ist diesbezüglich recht wahrscheinlich, denn Intel wird bis dahin schon zwei CPU-Generationen mit 24 Kernen im Markt etabliert haben und das wird sich AMD absehbar nicht noch länger ansehen können. Prozesstechnisch wird Intel zu dem Zeitpunkt mit einem gleichwertigen oder ggf. gar leicht überlegenen Prozess *) unterwegs sein und das würde bedeuten, dass AMD mit nur großen Kernen wieder teuerer fertigen müsste **), indem man Full-Size-Kerne in gleicher Zahl anbietet, während Intel effizienter mit weniger Wafer-Fläche auskommt.
Ein Szenario ist hier, dass AMD ein reguläres 8-Kern-Zen5-CCD mit einem 16-Kern-Zen4c-Kern kombinieren wird, sodass es weiterhin bei zwei CCDs und einem IOD bleiben wird. (
Ein neues Zen5c-Design wird vermutlich erst zu einem späteren Zeitpunkt fertiggestellt.)
*) Intel wird hier in 2024 Arrow Lake bereits in Intel 20A fertigen, der TSMCs N3 in etwa ebenbürtig sein sollte. Aktuell ist aber noch nicht einmal klar ob AMD überhaupt den N3 (oder ggf. den günstigeren N3E) für Zen5 nutzen wird, da man hier bisher nur von einem "
Advanced Node" zu Zen5 spricht, was mit Gerüchten zusammenfällt, die es derzeit als ungewiss ansehen, ob 3nm-Kapazitäten in ausreichender Menge für AMD bereits zu diesem Zeitpunkt zur Verfügung stehen werden. Alternativ wird es für Zen5 ein N4-Ableger werden, auf den AMD bzgl. dem CCD ausweichen müsste.
**) In dem Falle müsste AMD entweder seine Preise anheben und die Mehrkosten mindestens zu einem gewissen Teil durchreichen, jedoch würde das ihre absatztechnische Konkurrenzfähigkeit gefährden und man müsste dieses wiederum mit anderen Mitteln zu kompensieren versuchen, was wiederum kosten wird.
Alternativ müsste man mit einer niedrigeren Marge leben, etwas, das AMD genausowenig akzeptieren wollen wird, denn die Marge benötigt man für weiteres Wachsum. Entsprechend darf man davon ausgehen, dass AMD hier seine Produkte gleichermaßen "optimieren" wird und ebenso auf ein Hybriddesign setzen wird.