Wieso sollte der 12-Kerner per se im Nachteil sein? Falls du das kürzlich durchgesickerte Cinebench R20 Ergebnis des i9-12900K ansprichst, [...]
Typische CB R20-Werte i. V. z. zu dem ADL-
Leak:
ADL QS 12900K : 11600+
R9 5950X : 10440 (-10 %)
R9 5900X: 8550 (-26 %)
Man darf annehmen, dass in dem einfachen Durchlauf der Turbo voll zur Geltung kam (beim Ryzen allerdings auch), sodass man hier sicherlich von dem kolportierten Wert einiges abziehen kann, wenn man eine reale Dauerlast betrachten will, jedoch ist der 5900X bereits so weit von dem Ergebnis entfernt, dass da absehbar keine Fragen mehr offen bleiben.
Zudem noch einmal der Hinweis bzgl. des richtigen Lesens ... entsprechende Passagen bei mir bezogen sich auf den 5900X und nicht etwa eine V-Cache-gepimpte Version.
[...] Mal abgesehen davon, dass sich AMDs 12-Kerner eher mit kleineren AL Modellen messen wird [...]
Natürlich kannst du den auch gerne mit einem alten Skylake aus 2015 vergleichen, wenn du dich dann besser fühlst, sinnvoll ist das jedoch keinesfalls.
Durchaus witzig zu beobachten, wie so manche Leute zu argumentieren versuchen. Mit schöner Regelmäßigkeit wird auf harmlose Aussage oftmals ein "
ja aber der 16-Kerner [ist doch unerreichbar]" als eine Art universelles Totschlagargument eingeworfen und hier soll es nun ausgerechnet in umgekehrter Weise gelten und man muss für den Vergleich mit dem 5900X nun gar zu einer deutlich kleineren Intel-CPU als Vergleichsobjekt greifen? Abgesehen davon, dass mindestens die Hälfte der betreffenden Klientel bis vor Kurzem noch versuchte in Abrede zu stellen, dass man die kleinen Gracemont-Kerne überhaupt zählen/beachten darf. Verrückte Welt.
Was am Ende das sinnvolle Vergleichsobjekt ist, wird Intel schlussendlich mit seiner Preisgestaltung festlegen und hier wird entscheiden, ob die CPU preislich näher am 12- oder am 16-Kerner liegen wird und die V-Cache-Varianten werden das Gefüge noch einmal verschieben, denn die werden absehbar teuerer werden als ihre älteren Pendants (
es sei denn, AMD ist die Position auf dem Treppchen so viel wert, dass die sich das Marge kosten lassen).
So wie Zen 3 schon von RL bezüglich Gaming abgehängt werden sollte? [...]
Das hast du tatsächlich geglaubt? Dann hast du vermutlich weitaus weniger Ahnung, als du hier zum Besten zu geben versuchst, denn dass RKL mit Zen3 gleichzieht, war bestenfalls der optimistische Best Case und nicht sonderlich wahrscheinlich.
Die "
abhängen", "
in den Staub treten" und "
Sargnagel"-Sprüche kommen gemeinhin zumeist von Leuten mit einem roten Hütchen ... das sollte dir doch als vermutlich regelmäßiger Leser nicht entgangen sein, also warum implizierst du hier was anderes?
Und hier, da ein weiteres Mal, offenbart sich dann ganz offensichtlich eine grundsätzliche Leseschwäche bei dir, denn du kommst schon wieder mit den beiden V-Cache-Modellen an, während ich explizit vom einfachen Zen3 sprach. Und dementsprechend wird meine Prognose bzgl. der Gaming-Leistung auch mit sehr hoher Wahrscheinlichkeit zutreffen. Wie AMD das dann später mit dem nachgereichten V-Cache zu kontern versucht, ist dann erst mal wieder was für das nächste Kapitel.
Woher soll denn der grosse Sprung von AL kommen?
Die Frage ist jetzt nicht ernst gemeint oder? Bist du so naiv oder blauäugig? Bei Intel sitzen wahrscheinlich nur E-Technik-Azubis, die sich mal ein bisserl am Prozessordesign probieren, oder was?
AMD musste gar nichts. V-Cache scheint erstens nicht wirklich viel teurer zu sein. Und zweitens macht man es, weil es mittlerweile eben umsetzbar ist, ohne die Kosten explodieren zu lassen. AMD forscht daran schliesslich schon seit Jahren. Zudem soll 2022 ja Zen 4 kommen. Das ist die eigentliche Next Gen von AMD, gegen die sich AL behaupten muss. Und V-Cache soll es auch dort geben.
Da AMD ein CPU-Modell von der Roadmap gestrichen hat und nun teuere V-Cache-Technik auf die Ryzen's kommt, die ursprünglich primär für "Milan-X" entwickelt wurde ... ganz offensichtlich mussten sie schon.
Und auch wenn ich deine Illusionen nicht zerstören möchte, aber primär forscht und entwickelt hier TSMC an derartiger Technik und diesem Bonding von stacked Chips und nicht AMD. Bei AMD geht es um die Evaluierung des Nutzens und schließlich wie man das bestmöglich implementieren kann, was zweifellos auch ein gewisses KnowHow erfordert ... den Großteil dieses ganzen Themenkomplexes kauft man jedoch schlussendlich extern ein.
Und was hat jetzt Zen4 mit dem Thema hier zu tun? Der kommt voraussichtlich gar erst im 2HJ22. Und selbst hierbei greifst du noch daneben, denn Alder Lake muss sich mit dem keinesfalls messen, denn hier ist schon lange bekannt, dass Intel Zen4 Raptor Lake entgegenstellen wird. **) Du solltest mal deine Hausaufgaben machen.
Deinen Vorschlag mit dem "
Füße stillhalten" solltest du dir vielleicht mal wirklich zu Herzen nehmen und dich entspannt zurücklehnen und schaune was da kommen mag. Es ist ja nicht mehr so lange ... da muss man nicht gleich in panikartige Beißreflexe verfallen ...
*) Zudem mal zur Erhellung, da der Confirmation Bias ein tückisch Dingen ist:
RKL ist bzgl. der Gaming-Leistung bereits sehr nahe an Zen3 dran und das bei 720p, was zwar nett zu messen, aber reichlich praxisfern ist, was bedeutet, dass es mit dem von einigen so gern herbeigeredeten Gaming-Krönchen per se nicht allzu weit her ist. Entsprechend lässt sich auch leicht ausrechnen, dass wenn jetzt eine deutlich leistungsstärkere Mikroarchitektur kommt, damit Zen3 entsprechende auch erst mal wieder verlieren wird.
Ergänzend noch zu deinen schiefen Vergleichsversuchen: AMD erklärte explizit, dass es die V-Cache-Modelle nur als 12- und 16-Kerner geben wird, was vermutlich ein Kostenthema ist, d. h. alle regulären Kunden schauen hier diesbezüglich in die Röhre, denn derart hochpreisige CPUs kauft nur ein kleiner Teil des Marktes. ADL dagegen bedient das gesamte Portfolio bis hinunter zu Ultra-Portable-Geräten ... muss man die alle jetzt auch zwangsweise gegen die beiden V-Cache-Modelle vergleichen?
**) Dem wird ebenso unzweifelhaft auch nur die Aufgabe zufallen gegenzuhalten, denn hierbei handelt es sich voraussichtlich weiterhin um ein 10nm-Design. Erst ab 2023+ (Meteor Lake als erstes Consumer-Design mit einem 7 bzw. 5/4nm-Äquivalent) wird Intel seine Fertigung wieder in die Spur gebracht haben und ab da wird man dann sehen zu was sie imstande sein werden, wenn sie nicht mehr mit angezogener Handbremse fertigen müssen.
Und ja, absehbar wird es bei bei Zen4 irgendwo den V-Cache geben, denn die Technik begräbt man ja nicht gleich wieder, nachdem man sie einmal angewendet hat. Darüber hinaus kommt man vermutlich auch nicht drum herum das regulär in die Produkte einzuführen, denn von Intel's Raptor Lake weiß man ebenso schon länger von einem Design-Feature, das zuweilen als "
Gaming-Cache" zitiert wird, d. h. trotz der umfangreichen Cache-Überarbeitungen bei Alder Lake legt man beim unmittelbaren Nachfolger erneut Hand an, was sich ebenso nach einem stark vergrößerten L3$ oder einem L4$ anhört. Letzten Endes aber auch nicht unerwartet, denn mit ihren 10nm (wenn das zutrifft) gegen TSMCs 5nm muss man sich schon spezielle Bereiche zur Optimierung herauspicken. Hier einen bspw. per EMIB angeflanschten größeren, optionalen Cache zu implementieren wäre naheliegend, denn damit kann man das Produkt im Rahmen der Möglichkeiten mittels eigener Inhouse-Technologie erweitern obwohl man voraussichtlich noch eine weitere Runde in 10nm einlegen muss.
Für alle dies nicht mit bekommen haben, PCGH hat nicht drüber berichtet.
Alder Lake mit den 8+8 Kernen ist im CB20 so schnell wie ein Ryzen 5950X mit 16 Kernen. Im Singlecore ist Alderlake 30% schneller als ein 5950X.
Der 3D Cache wird den 5900X um 15% schneller machen... Damit ist er immer noch 15% langsamer als Alderlake...
Zum einen ist das erst mal nur ein Leak, also grundsätzlich mit Vorsicht zu genießen, dazu noch mit Vorserienmodellen und einem undokumentierten Testszenario. Und ja, das sage ich explizit, obwohl ich die Werte ebenso oben verwertet habe, jedoch sollte man deren Ursprung nie vergessen.
Zum anderen funktioniert die "
3D Cache"-Rechnung für die Ryzen's nicht, denn die von AMD kolportierten Gaming-Zugewinne dürften sich nicht unmittelbar auf 3D Rendering-Workloads übertragen lassen ... Äpfen & Birnen
Du glaubst auch jedes Gerücht, oder? Lass den Hybrid Kram erstmal am Markt ankommen, das wird einige Zeit dauern bis da alles drauf optimiert ist. Afk, ich gehe dann mal weiter Cinebench spielen, weil das so ungeheuer aussagekräftig ist.
Unabhängig von der Richtigkeit oder den vielleicht später tatsächlich dabei herauskommenden Werten: Bei bspw. 3D-Rendering-Workloads muss nichts optimiert werden für diese Architektur. Derartige Workloads stellen gar den Best Case dar, da die einzelnen Render-Threads weitestgehend unabhängig voneinander sind, d. h. im Rahmen der Möglichkeiten sammelt der Hautpthread hier nahezu 100 % der von den jeweilgen Kernen zur Verfügung gestellten Leistung ein ohne das hier nennenswerte Reibungsverluste querschießen.
Weitaus interessanter wird es bei etwas wie dem Gaming ... und vor allem auch weitaus relevanter für dieses Forum hier.