AMD Ryzen & Radeon: Neuigkeiten zu Zen 3D, Zen 4 und RDNA 3

Macht euch doch nicht gleich nass, auch in multi-core Anwendungen wird Alder lake den Kürzeren ziehen.
Bei CB R20 handelt es sich doch nur um ein best case Szenario das die feuchten Träume einiger Intel Ledernacken während zu mindest 56s+ am leben erhalten soll.
Das am Schluss im besten Fall nur die Hälfte der im Vorfeld durchgesickerten Leistung in einer breiten Auswahl an Benchmarks beim Kunden ankommt sollte doch mittlerweile bekannt sein.

@gerX7a
Die Hoffnung stirbt zuletzt.
 
Bin gespannt, ob Zen3D auch noch für X450/470-Plattformen kommen wird. Wäre langsam ein recht spannendes Upgrade vom 3700X, um danach die erste AM5-Mainboard-Gen zu überspringen.
 
Bin gespannt, ob Zen3D auch noch für X450/470-Plattformen kommen wird. Wäre langsam ein recht spannendes Upgrade vom 3700X, um danach die erste AM5-Mainboard-Gen zu überspringen.
Warum sollte er nicht? Ist ein normaler Zen3, halt nur mit größerem Cache. Wäre bestenfalls eine künstliche Beschneidung, wie es AMD schon mal anfänglich bei Zen3 versuchte und den Shitstorm wollte man dann ja offensichtlich doch nicht aussitzen und ist zurückgerudert, also denke ich, dass du mit sehr hoher Wahrscheinlichkeit davon ausgehen kannst, dass die beiden V-Cache-Varianten auch auf die größeren 400er-Boards passen werden (wenn der MB-Hersteller ein BIOS-Update liefert).

Das ist mir klar. Aber korrigiere mich wenn ich falsch liege, AlderLake kommt doch nur mit 8 "großen"-Kernen?
Ergo wird der 3D Cache es in Spielen richten, während AMD dank 12 bzw. 16 Kernen in MultiCore Anwendungen eh vorne bleibt.
Ergänzend: AMDs 12-Kerner dürfte im Multithreading per se das Nachsehen haben, denn dafür sind die vorab gemessenen Ergebnisse bereits viel zu hoch. Beispielsweise im Rendering nützt der Cache nur wenig, wird das also nicht kompensieren können. Hier muss man schon spezielle Workloads suchen, bspw. 7zip & Co werden durch den Cache beträchtlich zulegen.
Im Gaming, wie gesagt, wird Zen3 auf jeden Fall abgehängt werden, denn bereits der Vorsprung vor RKL als 11900K war bereits schon nur denkbar gering und ADL legt hier deutlich zu und genau aus dem Grund musste AMD nun umsatteln und die teuere V-Cache-Technik auch in den Consumer-Markt bringen.
Man darf gespannt sein in wie weit AMD die Kosten durchreichen wird und was in realen Spielen mit höheren Auflösungen am Ende in Vergleichen herauskommen wird. Im Best Case wird der gepimpte Zen3 sich vor ADL platzieren, im Worst Case wird es nur für einen Gleichstand reichen. Schätzungsweise im Oktober dürfte es soweit sein.
 
Zuletzt bearbeitet:
Bei DDR5 ist derzeit noch schwer abzuschätzen, wie im Gaming die Auswirkungen von schnellen low-CL-DDR4-Modulen i. V. z. JEDEC-A-DDR5-Modulen sind. Nur auf die Latenzen schauen kann man hier nicht, da die Bandbreite bei letzterem typischerweise deutlich höher ist.
Nur ist Bandbreite für die Gamingperformance eher zweitrangig. Die Latenzen der ersten DDR5 Module werden über die Performance von ADL in Spielen entscheiden. Auch wenn die Caches gewachsen sind, Kompensation ist kein Schritt nach vorne.
 
Ich frage mich, ob man sich direkt zu Anfang dann ein System mit auf DDR5 beschränkten Support kaufen sollte....
Wie man ja u.a. hier im Plus Test zu RAM lesen kann, sind die ersten RAMs der neusten Generation i.d.R. erstmal nicht empfehlenswert (unausgereifte Technik, schlechte Preisleistung). Ist ja auch eher unwahrscheinlich, dass neue Boards für ZEN4 auch Abwärtskompatibel mit DDR4 sind.
Ich werde also nach Release wohl besser etwas warten mir wie geplant mein neues (diesmal AMD-basiert) Rig zusammen zu stellen.
 
Ergänzend: AMDs 12-Kerner dürfte im Multithreading per se das Nachsehen haben, denn dafür sind die vorab gemessenen Ergebnisse bereits viel zu hoch. Beispielsweise im Rendering nützt der Cache nur wenig, wird das also nicht kompensieren können. Hier muss man schon spezielle Workloads suchen, bspw. 7zip & Co werden durch den Cache beträchtlich zulegen.
Wieso sollte der 12-Kerner per se im Nachteil sein? Falls du das kürzlich durchgesickerte Cinebench R20 Ergebnis des i9-12900K ansprichst, wirklich hoch war der nicht, gemessen an den bisher schnellsten CPUs. Mal abgesehen davon, dass sich AMDs 12-Kerner eher mit kleineren AL Modellen messen wird, war der 12-12900K gerade mal ~10% über einem Ryzen 5950X. Und das mit Wasserkühlung, also sicherlich getaktet bis an die Power Target Kotzgrenze. Mit Luft ist eher weniger bei AL zu erwarten. Alleine ein 12-Kern V-Cache Zen 3 sollte also problemlos gleichziehen oder wieder über seinen Konkurrenten liegen können. Ich glaube ehrlich gesagt nicht mal, dass AL im Multithreading den aktuellen Zen 3 schlagen können wird. Intel hat zu viel bei den vergangen Generationen versprochen und zu wenig geliefert. Man wird sehen, ob AL wieder ein positiveres Bild abgibt.

Im Gaming, wie gesagt, wird Zen3 auf jeden Fall abgehängt werden
So wie Zen 3 schon von RL bezüglich Gaming abgehängt werden sollte? LOL. Haltet doch mal die Füsse still mit solchen Prognosen. Sollte ein V-Cache Zen 3 15% oder mehr zulegen in Spielen, dann wird es AL auch hier verdammt schwer haben. Woher soll denn der grosse Sprung von AL kommen? Etwa 20% mehr IPC wurde auch beim Vogänger versprochen, was in Spielen aber nahezu verpuffte. Mehr Takt gibt's auch nicht. Bliebe noch DDR5.

und ADL legt hier deutlich zu und genau aus dem Grund musste AMD nun umsatteln und die teuere V-Cache-Technik auch in den Consumer-Markt bringen.
AMD musste gar nichts. V-Cache scheint erstens nicht wirklich viel teurer zu sein. Und zweitens macht man es, weil es mittlerweile eben umsetzbar ist, ohne die Kosten explodieren zu lassen. AMD forscht daran schliesslich schon seit Jahren. Zudem soll 2022 ja Zen 4 kommen. Das ist die eigentliche Next Gen von AMD, gegen die sich AL behaupten muss. Und V-Cache soll es auch dort geben. ;)
 
Warum sollte er nicht? Ist ein normaler Zen3, halt nur mit größerem Cache. Wäre bestenfalls eine künstliche Beschneidung, wie es AMD schon mal anfänglich bei Zen3 versuchte und den Shitstorm wollte man dann ja offensichtlich doch nicht aussitzen und ist zurückgerudert, also denke ich, dass du mit sehr hoher Wahrscheinlichkeit davon ausgehen kannst, dass die beiden V-Cache-Varianten auch auf die größeren 400er-Boards passen werden (wenn der MB-Hersteller ein BIOS-Update liefert).


Ergänzend: AMDs 12-Kerner dürfte im Multithreading per se das Nachsehen haben, denn dafür sind die vorab gemessenen Ergebnisse bereits viel zu hoch. Beispielsweise im Rendering nützt der Cache nur wenig, wird das also nicht kompensieren können. Hier muss man schon spezielle Workloads suchen, bspw. 7zip & Co werden durch den Cache beträchtlich zulegen.
Im Gaming, wie gesagt, wird Zen3 auf jeden Fall abgehängt werden, denn bereits der Vorsprung vor RKL als 11900K war bereits schon nur denkbar gering und ADL legt hier deutlich zu und genau aus dem Grund musste AMD nun umsatteln und die teuere V-Cache-Technik auch in den Consumer-Markt bringen.
Man darf gespannt sein in wie weit AMD die Kosten durchreichen wird und was in realen Spielen mit höheren Auflösungen am Ende in Vergleichen herauskommen wird. Im Best Case wird der gepimpte Zen3 sich vor ADL platzieren, im Worst Case wird es nur für einen Gleichstand reichen. Schätzungsweise im Oktober dürfte es soweit sein.

Weil es davon abhängt, ob die X/B4xx-Boards noch mit BIOS-Updates versorgt werden oder ob sie ebenfalls wie X/B3xx-Boards beim Ryzen 5xxx weitgehend abgesägt werden.
 
15% Mehrleistung gegenüber Zen 3 ist doch super.

Ich muß mich allerdings noch einlesen was es mit diesen 3D Cache auf sich hat.

Ich frage mich, ob man sich direkt zu Anfang dann ein System mit auf DDR5 beschränkten Support kaufen sollte....
Wie man ja u.a. hier im Plus Test zu RAM lesen kann, sind die ersten RAMs der neusten Generation i.d.R. erstmal nicht empfehlenswert (unausgereifte Technik, schlechte Preisleistung). Ist ja auch eher unwahrscheinlich, dass neue Boards für ZEN4 auch Abwärtskompatibel mit DDR4 sind.
Ich werde also nach Release wohl besser etwas warten mir wie geplant mein neues (diesmal AMD-basiert) Rig zusammen zu stellen.
Es ist sowieso immer besser etwas abzuwarten.
 
Für alle dies nicht mit bekommen haben, PCGH hat nicht drüber berichtet.
Alder Lake mit den 8+8 Kernen ist im CB20 so schnell wie ein Ryzen 5950X mit 16 Kernen. Im Singlecore ist Alderlake 30% schneller als ein 5950X.

Der 3D Cache wird den 5900X um 15% schneller machen... Damit ist er immer noch 15% langsamer als Alderlake...
 
Für alle dies nicht mit bekommen haben, PCGH hat nicht drüber berichtet.
Alder Lake mit den 8+8 Kernen ist im CB20 so schnell wie ein Ryzen 5950X mit 16 Kernen. Im Singlecore ist Alderlake 30% schneller als ein 5950X.

Der 3D Cache wird den 5900X um 15% schneller machen... Damit ist er immer noch 15% langsamer als Alderlake...

Erstmal das Produkt auf den Markt kommen lassen und dann wird es PCGH testen.
Dann wissen wir auch, wie der Hase laufen wird.

Davor, kann man viel erzählen. :streit:
 
Das hört sich krass an.
Aber wenn Zen4 kommt sieht das wieder anders aus.
So etwas nennt man Wettbewerb.
 
@Nebulus07 : Sorry ich hatte meinen Beitrag nochmal überarbeitet.

Cinebench ist sonst ja eigentlich immer die Paradedisziplin von AMD. Wenn das so stimmt wäre das krass.
 
Zuletzt bearbeitet:
Für alle dies nicht mit bekommen haben, PCGH hat nicht drüber berichtet.
Alder Lake mit den 8+8 Kernen ist im CB20 so schnell wie ein Ryzen 5950X mit 16 Kernen. Im Singlecore ist Alderlake 30% schneller als ein 5950X.

Der 3D Cache wird den 5900X um 15% schneller machen... Damit ist er immer noch 15% langsamer als Alderlake...
Du glaubst auch jedes Gerücht, oder? Lass den Hybrid Kram erstmal am Markt ankommen, das wird einige Zeit dauern bis da alles drauf optimiert ist. Afk, ich gehe dann mal weiter Cinebench spielen, weil das so ungeheuer aussagekräftig ist.
 
Wieso sollte der 12-Kerner per se im Nachteil sein? Falls du das kürzlich durchgesickerte Cinebench R20 Ergebnis des i9-12900K ansprichst, [...]
Typische CB R20-Werte i. V. z. zu dem ADL-Leak:
ADL QS 12900K : 11600+
R9 5950X : 10440 (-10 %)
R9 5900X: 8550 (-26 %)
Man darf annehmen, dass in dem einfachen Durchlauf der Turbo voll zur Geltung kam (beim Ryzen allerdings auch), sodass man hier sicherlich von dem kolportierten Wert einiges abziehen kann, wenn man eine reale Dauerlast betrachten will, jedoch ist der 5900X bereits so weit von dem Ergebnis entfernt, dass da absehbar keine Fragen mehr offen bleiben.
Zudem noch einmal der Hinweis bzgl. des richtigen Lesens ... entsprechende Passagen bei mir bezogen sich auf den 5900X und nicht etwa eine V-Cache-gepimpte Version.

[...] Mal abgesehen davon, dass sich AMDs 12-Kerner eher mit kleineren AL Modellen messen wird [...]
Natürlich kannst du den auch gerne mit einem alten Skylake aus 2015 vergleichen, wenn du dich dann besser fühlst, sinnvoll ist das jedoch keinesfalls.
Durchaus witzig zu beobachten, wie so manche Leute zu argumentieren versuchen. Mit schöner Regelmäßigkeit wird auf harmlose Aussage oftmals ein "ja aber der 16-Kerner [ist doch unerreichbar]" als eine Art universelles Totschlagargument eingeworfen und hier soll es nun ausgerechnet in umgekehrter Weise gelten und man muss für den Vergleich mit dem 5900X nun gar zu einer deutlich kleineren Intel-CPU als Vergleichsobjekt greifen? Abgesehen davon, dass mindestens die Hälfte der betreffenden Klientel bis vor Kurzem noch versuchte in Abrede zu stellen, dass man die kleinen Gracemont-Kerne überhaupt zählen/beachten darf. Verrückte Welt. ;-)
Was am Ende das sinnvolle Vergleichsobjekt ist, wird Intel schlussendlich mit seiner Preisgestaltung festlegen und hier wird entscheiden, ob die CPU preislich näher am 12- oder am 16-Kerner liegen wird und die V-Cache-Varianten werden das Gefüge noch einmal verschieben, denn die werden absehbar teuerer werden als ihre älteren Pendants (es sei denn, AMD ist die Position auf dem Treppchen so viel wert, dass die sich das Marge kosten lassen).

So wie Zen 3 schon von RL bezüglich Gaming abgehängt werden sollte? [...]
Das hast du tatsächlich geglaubt? Dann hast du vermutlich weitaus weniger Ahnung, als du hier zum Besten zu geben versuchst, denn dass RKL mit Zen3 gleichzieht, war bestenfalls der optimistische Best Case und nicht sonderlich wahrscheinlich.
Die "abhängen", "in den Staub treten" und "Sargnagel"-Sprüche kommen gemeinhin zumeist von Leuten mit einem roten Hütchen ... das sollte dir doch als vermutlich regelmäßiger Leser nicht entgangen sein, also warum implizierst du hier was anderes?
Und hier, da ein weiteres Mal, offenbart sich dann ganz offensichtlich eine grundsätzliche Leseschwäche bei dir, denn du kommst schon wieder mit den beiden V-Cache-Modellen an, während ich explizit vom einfachen Zen3 sprach. Und dementsprechend wird meine Prognose bzgl. der Gaming-Leistung auch mit sehr hoher Wahrscheinlichkeit zutreffen. Wie AMD das dann später mit dem nachgereichten V-Cache zu kontern versucht, ist dann erst mal wieder was für das nächste Kapitel.

Woher soll denn der grosse Sprung von AL kommen?
Die Frage ist jetzt nicht ernst gemeint oder? Bist du so naiv oder blauäugig? Bei Intel sitzen wahrscheinlich nur E-Technik-Azubis, die sich mal ein bisserl am Prozessordesign probieren, oder was?

AMD musste gar nichts. V-Cache scheint erstens nicht wirklich viel teurer zu sein. Und zweitens macht man es, weil es mittlerweile eben umsetzbar ist, ohne die Kosten explodieren zu lassen. AMD forscht daran schliesslich schon seit Jahren. Zudem soll 2022 ja Zen 4 kommen. Das ist die eigentliche Next Gen von AMD, gegen die sich AL behaupten muss. Und V-Cache soll es auch dort geben. ;)
Da AMD ein CPU-Modell von der Roadmap gestrichen hat und nun teuere V-Cache-Technik auf die Ryzen's kommt, die ursprünglich primär für "Milan-X" entwickelt wurde ... ganz offensichtlich mussten sie schon.
Und auch wenn ich deine Illusionen nicht zerstören möchte, aber primär forscht und entwickelt hier TSMC an derartiger Technik und diesem Bonding von stacked Chips und nicht AMD. Bei AMD geht es um die Evaluierung des Nutzens und schließlich wie man das bestmöglich implementieren kann, was zweifellos auch ein gewisses KnowHow erfordert ... den Großteil dieses ganzen Themenkomplexes kauft man jedoch schlussendlich extern ein.

Und was hat jetzt Zen4 mit dem Thema hier zu tun? Der kommt voraussichtlich gar erst im 2HJ22. Und selbst hierbei greifst du noch daneben, denn Alder Lake muss sich mit dem keinesfalls messen, denn hier ist schon lange bekannt, dass Intel Zen4 Raptor Lake entgegenstellen wird. **) Du solltest mal deine Hausaufgaben machen.
Deinen Vorschlag mit dem "Füße stillhalten" solltest du dir vielleicht mal wirklich zu Herzen nehmen und dich entspannt zurücklehnen und schaune was da kommen mag. Es ist ja nicht mehr so lange ... da muss man nicht gleich in panikartige Beißreflexe verfallen ...

*) Zudem mal zur Erhellung, da der Confirmation Bias ein tückisch Dingen ist:
RKL ist bzgl. der Gaming-Leistung bereits sehr nahe an Zen3 dran und das bei 720p, was zwar nett zu messen, aber reichlich praxisfern ist, was bedeutet, dass es mit dem von einigen so gern herbeigeredeten Gaming-Krönchen per se nicht allzu weit her ist. Entsprechend lässt sich auch leicht ausrechnen, dass wenn jetzt eine deutlich leistungsstärkere Mikroarchitektur kommt, damit Zen3 entsprechende auch erst mal wieder verlieren wird.
Ergänzend noch zu deinen schiefen Vergleichsversuchen: AMD erklärte explizit, dass es die V-Cache-Modelle nur als 12- und 16-Kerner geben wird, was vermutlich ein Kostenthema ist, d. h. alle regulären Kunden schauen hier diesbezüglich in die Röhre, denn derart hochpreisige CPUs kauft nur ein kleiner Teil des Marktes. ADL dagegen bedient das gesamte Portfolio bis hinunter zu Ultra-Portable-Geräten ... muss man die alle jetzt auch zwangsweise gegen die beiden V-Cache-Modelle vergleichen? :-D

**) Dem wird ebenso unzweifelhaft auch nur die Aufgabe zufallen gegenzuhalten, denn hierbei handelt es sich voraussichtlich weiterhin um ein 10nm-Design. Erst ab 2023+ (Meteor Lake als erstes Consumer-Design mit einem 7 bzw. 5/4nm-Äquivalent) wird Intel seine Fertigung wieder in die Spur gebracht haben und ab da wird man dann sehen zu was sie imstande sein werden, wenn sie nicht mehr mit angezogener Handbremse fertigen müssen.
Und ja, absehbar wird es bei bei Zen4 irgendwo den V-Cache geben, denn die Technik begräbt man ja nicht gleich wieder, nachdem man sie einmal angewendet hat. Darüber hinaus kommt man vermutlich auch nicht drum herum das regulär in die Produkte einzuführen, denn von Intel's Raptor Lake weiß man ebenso schon länger von einem Design-Feature, das zuweilen als "Gaming-Cache" zitiert wird, d. h. trotz der umfangreichen Cache-Überarbeitungen bei Alder Lake legt man beim unmittelbaren Nachfolger erneut Hand an, was sich ebenso nach einem stark vergrößerten L3$ oder einem L4$ anhört. Letzten Endes aber auch nicht unerwartet, denn mit ihren 10nm (wenn das zutrifft) gegen TSMCs 5nm muss man sich schon spezielle Bereiche zur Optimierung herauspicken. Hier einen bspw. per EMIB angeflanschten größeren, optionalen Cache zu implementieren wäre naheliegend, denn damit kann man das Produkt im Rahmen der Möglichkeiten mittels eigener Inhouse-Technologie erweitern obwohl man voraussichtlich noch eine weitere Runde in 10nm einlegen muss.

Für alle dies nicht mit bekommen haben, PCGH hat nicht drüber berichtet.
Alder Lake mit den 8+8 Kernen ist im CB20 so schnell wie ein Ryzen 5950X mit 16 Kernen. Im Singlecore ist Alderlake 30% schneller als ein 5950X.

Der 3D Cache wird den 5900X um 15% schneller machen... Damit ist er immer noch 15% langsamer als Alderlake...
Zum einen ist das erst mal nur ein Leak, also grundsätzlich mit Vorsicht zu genießen, dazu noch mit Vorserienmodellen und einem undokumentierten Testszenario. Und ja, das sage ich explizit, obwohl ich die Werte ebenso oben verwertet habe, jedoch sollte man deren Ursprung nie vergessen.
Zum anderen funktioniert die "3D Cache"-Rechnung für die Ryzen's nicht, denn die von AMD kolportierten Gaming-Zugewinne dürften sich nicht unmittelbar auf 3D Rendering-Workloads übertragen lassen ... Äpfen & Birnen ;-)

Du glaubst auch jedes Gerücht, oder? Lass den Hybrid Kram erstmal am Markt ankommen, das wird einige Zeit dauern bis da alles drauf optimiert ist. Afk, ich gehe dann mal weiter Cinebench spielen, weil das so ungeheuer aussagekräftig ist.
Unabhängig von der Richtigkeit oder den vielleicht später tatsächlich dabei herauskommenden Werten: Bei bspw. 3D-Rendering-Workloads muss nichts optimiert werden für diese Architektur. Derartige Workloads stellen gar den Best Case dar, da die einzelnen Render-Threads weitestgehend unabhängig voneinander sind, d. h. im Rahmen der Möglichkeiten sammelt der Hautpthread hier nahezu 100 % der von den jeweilgen Kernen zur Verfügung gestellten Leistung ein ohne das hier nennenswerte Reibungsverluste querschießen.
Weitaus interessanter wird es bei etwas wie dem Gaming ... und vor allem auch weitaus relevanter für dieses Forum hier. ;-)
 
Zuletzt bearbeitet:
Typische CB R20-Werte i. V. z. zu dem ADL-Leak:
ADL QS 12900K : 11600+
R9 5950X : 10440 (-10 %)
R9 5900X: 8550 (-26 %)
Man darf annehmen, dass in dem einfachen Durchlauf der Turbo voll zur Geltung kam (beim Ryzen allerdings auch), sodass man hier sicherlich von dem kolportierten Wert einiges abziehen kann, wenn man eine reale Dauerlast betrachten will, jedoch ist der 5900X bereits so weit von dem Ergebnis entfernt, dass da absehbar keine Fragen mehr offen bleiben.
Zudem noch einmal der Hinweis bzgl. des richtigen Lesens ... entsprechende Passagen bei mir bezogen sich auf den 5900X und nicht etwa eine V-Cache-gepimpte Version.
Die Frage bleibt: lief ADL nur auf dem Intelboost oder war er komplett unlocked. Sprich freies PT. Denn da holt man teilweise noch sehr viel raus solange du das gekühlt kriegst. Ein 5900x kann auch mehr wenn du ihn lässt auch wenn er ziemlich sicher nicht diese Werte erreichen wird.
Natürlich kannst du den auch gerne mit einem alten Skylake aus 2015 vergleichen, wenn du dich dann besser fühlst, sinnvoll ist das jedoch keinesfalls.
Durchaus witzig zu beobachten, wie so manche Leute zu argumentieren versuchen. Mit schöner Regelmäßigkeit wird auf harmlose Aussage oftmals ein "ja aber der 16-Kerner [ist doch unerreichbar]" als eine Art universelles Totschlagargument eingeworfen und hier soll es nun ausgerechnet in umgekehrter Weise gelten und man muss für den Vergleich mit dem 5900X nun gar zu einer deutlich kleineren Intel-CPU als Vergleichsobjekt greifen? Abgesehen davon, dass mindestens die Hälfte der betreffenden Klientel bis vor Kurzem noch versuchte in Abrede zu stellen, dass man die kleinen Gracemont-Kerne überhaupt zählen/beachten darf. Verrückte Welt. ;-)
Was am Ende das sinnvolle Vergleichsobjekt ist, wird Intel schlussendlich mit seiner Preisgestaltung festlegen und hier wird entscheiden, ob die CPU preislich näher am 12- oder am 16-Kerner liegen wird und die V-Cache-Varianten werden das Gefüge noch einmal verschieben, denn die werden absehbar teuerer werden als ihre älteren Pendants (es sei denn, AMD ist die Position auf dem Treppchen so viel wert, dass die sich das Marge kosten lassen).
Das ist immer eine Frage der Betrachtung. Die meisten haben den Vergleich mit dem Preis begründet. Ich bezweifel auch dass der 12900k sich mit dem 5900x messen muss da er preislich wohl in den Regionen des 5950x bewegen wird.
Es ist daher durchaus legitim zu erwarten, dass der 5900x nicht den direkten Vergleich mit dem 12900k sucht. Intels wahl der Kerne macht es auch leider schwierig. SMT Thread ist eben bei weitem kein Kern. Einen vergleich der Threads halte ich daher auch nicht für zielführend.

Die Frage ist jetzt nicht ernst gemeint oder? Bist du so naiv oder blauäugig? Bei Intel sitzen wahrscheinlich nur E-Technik-Azubis, die sich mal ein bisserl am Prozessordesign probieren, oder was?
Wenn man sich RKL anschaut könnte man das fast denken :P Für einen teuren Backport nur 11% und das obwohl man auch beim RAM etwas mehr darf? Dafür aber mehr Fläche und Verbrauch. Wirklich gelungen ist was anderes.
Letzten Endes hat Intel die letzten Jahre technisch massiv enttäuscht. Immerhin ist die 10nm Schublade offen und damit das potential deutlich besser zu performen. Wäre auch mal langsam Zeit wir brauchen Konkurrenz für gute Preise!

Da AMD ein CPU-Modell von der Roadmap gestrichen hat und nun teuere V-Cache-Technik auf die Ryzen's kommt, die ursprünglich primär für "Milan-X" entwickelt wurde ... ganz offensichtlich mussten sie schon.
Und auch wenn ich deine Illusionen nicht zerstören möchte, aber primär forscht und entwickelt hier TSMC an derartiger Technik und diesem Bonding von stacked Chips und nicht AMD. Bei AMD geht es um die Evaluierung des Nutzens und schließlich wie man das bestmöglich implementieren kann, was zweifellos auch ein gewisses KnowHow erfordert ... den Großteil dieses ganzen Themenkomplexes kauft man jedoch schlussendlich extern ein.
In der Entwicklung hat man ständig Änderungen. Das muss teilweise nicht mal Marktspezifisch sein, sondern kann auch einfach sein, weil eine Technik doch nicht so gut läuft wie erwartet oder eine andere viel weiter ist wie man antizipiert hat. Du spekulierst schon gewaltig dass AMD einen "Zwang" hatte. Wenn die Technik zu teuer wäre, würde man es nicht machen. Ich gehe da eher von aus, dass der Prozess deutlich besser läuft als man erwartet hat und entsprechend für ADL releasen will um weiter Druck aufzubauen.
 
Die Frage bleibt: lief ADL nur auf dem Intelboost oder war er komplett unlocked. Sprich freies PT. Denn da holt man teilweise noch sehr viel raus solange du das gekühlt kriegst. Ein 5900x kann auch mehr wenn du ihn lässt auch wenn er ziemlich sicher nicht diese Werte erreichen wird.
Die Frage haben ich doch schon erschöpfend beantwortet :-D : Man weiß es nicht, da es undokumentiert ist, weil es nur ein wenige Zeilen umfassender Tweet war.
Das einzige, was der Leaker explizit erwähnte, ist, dass hier kein "OC" betrieben wurde und selbst da kann man intepretieren. Einfach mal abwarten. Wie bei jeden Leak (dem man zumindest einen gewissen Wahrheitsgehalt zuordnet) kann man das vielleicht als Indikation aber zweifellos noch nicht für bare Münze nehmen. Einen finalen Sachverhalt werden erst Tests mit fertigen Produkten liefern können.

Das ist immer eine Frage der Betrachtung. Die meisten haben den Vergleich mit dem Preis begründet. Ich bezweifel auch dass der 12900k sich mit dem 5900x messen muss da er preislich wohl in den Regionen des 5950x bewegen wird.
Es ist daher durchaus legitim zu erwarten, dass der 5900x nicht den direkten Vergleich mit dem 12900k sucht. Intels wahl der Kerne macht es auch leider schwierig. SMT Thread ist eben bei weitem kein Kern. Einen vergleich der Threads halte ich daher auch nicht für zielführend.
Intels Hardwarekomposition hat nichts mit dem zu tun was man vergleichen kann und was nicht. Am Ende zählt nur das abgelieferte Leistungsniveau und das ist grundsätzlich immer Workload-spezifisch, selbst bei den bisherigen "homogenen" CPU-Architekturen.
Wie ich schon zuvor erklärte, wird Intel hier indirekt über den ausgerufenen Preis die Vergleichsbasis schaffen, denn am Ende ist der das entscheidende Kriterium. Einen 5950X wollen sicherlich "alle" gerne haben, dass ihn am Ende so wenige kaufen, liegt schlicht daran, dass es sich hierbei um die teuerste CPU für die AM4-Plattform handelt.

[E-Technik-Azubis] Wenn man sich RKL anschaut könnte man das fast denken :P ...
Eine derartige Aussage legt bestenfalls die Vermutung nahe, dass du vielleicht aus einem Bereich kommst, der von Technik nicht weiter entfernt sein könnte und du dementsprechend von technischen Belangen keinerlei Ahnung hast ... oder aber du wolltest nur sinnlos provozieren ...

In der Entwicklung hat man ständig Änderungen. Das muss teilweise nicht mal Marktspezifisch sein, sondern kann auch einfach sein, weil eine Technik doch nicht so gut läuft wie erwartet oder eine andere viel weiter ist wie man antizipiert hat. Du spekulierst schon gewaltig dass AMD einen "Zwang" hatte. Wenn die Technik zu teuer wäre, würde man es nicht machen. Ich gehe da eher von aus, dass der Prozess deutlich besser läuft als man erwartet hat und entsprechend für ADL releasen will um weiter Druck aufzubauen.
Ja, Änderungen und Anpassungen sind normal in der Projektwelt, jedoch (re)agiert man hier grundsätzlich unter irgendwelchen internen und externen "Zwängen", wie du es formulierst, denn keiner implementiert irgend ein Feature einfach nur aus Spaß an der Freud oder ändert eine laufende Planung aus purer Langeweile, denn das kostet und oftmals gleich in vielerlei Hinsicht.

Das "zu teuer sein" mit einer gewissen absoluten Note hast du ins Spiel gebracht, nicht etwa ich, denn ich verglich hier nur relativ und dass es teuerer werden wird (für AMD), steht vollkommen außer Frage und sogar signifikant, denn einerseits wird deutlich mehr mehr belichtetes Silizium im 7nm-Prozess *) benötigt und hinzu kommt der aufwendige Bonding-Prozess.
Und dass sie den Aufwand ebensowenig aus purer Langeweile betreiben, dürfte hoffentlich klar sein, ebenso, wie dass sie, wenn sie mit einer günstigeren Fertigung ADL Paroli in ausreichendem Maße hätten bieten können, diese natürlich auch bevorzugt hätten, denn Wirtschaftlichkeit ist hier das A & O. Also ja, hier gab es ganz offensichtlich einen "Zwang", dass man nun mehr Wafer-Flache und ein teueres Bonding für das Consumer-Produkt zumindest in den Topmodellen implementiert. Es mag durchaus sein, dass man diese Möglichkeit als Option schon frühzeitig im Projektplan als eine Art Notfallplan hatte, aber es lässt sich leicht und nachvollziehbar vermuten, dass die Entwicklung zumindest in dieser Gen als Pilot primär für Milan entwickelt wurde, denn hier lässt sich eine derart aufwendige Technik noch vergleichsweise leicht einbepreisen.
Darüber hinaus ist dein letzter Satz auch nur eine Frage der Perspektive. Du behauptest AMD versucht Druck aufzubauen, in einer zeitlichen Abfolge geht es jedoch vielleicht eher darum mit den V-Cache-Modellen den auf AMD wirkenden Druck wieder rauszunehmen, denn den wird ADL mit den bisher sich abzeichnenden Leistungswerten ganz offensichtlich aufbauen können.

*) Nimmt man AMDs Marketing-Präsentation zur Hand, dann wird für ein derartiges Design min. +50 % Wafer-Fläche im 7nm-Prozess benötigt und das dürfte bereits der Best Case sein, denn das stacked Cache-Modul hat doppelt so viel Kapazität wie der on-die L3$.

Von welcher Roadmap haben sie was gestrichen?
Von Warhol sprachen in der Vergangenheit diverse Quellen und der war offensichtlich kein Hirngespinst. Mittlerweile scheint keiner mehr von dem Modell zu reden, so auch bspw. von MLiD ausführlich erklärt, der diverse verlässliche Quellen hierzu befragte und mittlerweile gar nichts mehr von dem Design zu hören bekommt, was, wenn der innerhalb des nächsten halben oder dreiviertel Jahres erscheinen sollte, quasi unmöglich wäre. Also verschwand hier ganz offensichtlich ein Design von der Roadmap.
Wenn seine Vorhersagen nicht eintreffen, wird er davon nichts mehr wissen;)
Angesichts der Tatsache, dass hier alles im Forum digital festgehalten wird, grenzt die Aussage schon an *******.
 
Zuletzt bearbeitet:
Zurück