AMD Zen 3D in Serienfertigung: Ankündigung im Januar?

Ach was solls denn Leute.... Der Sarg hat keine Regale weg mit der Kohle.
Macht´s wie Ich, kauft die Zen3- 3D CPUs doch einfach wenn ihr nen AM4 habt und Fertig.

Mein AM4 Board wird in seiner Sockel-Rente noch mal so richtig durchstarten! ....tja ja..., Denke schon!
Die, kein Plan- 12-17% die Zen 4 bringt sind doch Banane, lieber eine Gen. danach kaufen. Dann haben die sich bei AMD ordentlich drauf eingefuchst
 
Zuletzt bearbeitet:
Und klar kann ich beweisen, dass eure Messungen nonsens sind, weil ihr Äpfel mit Birnen vergleicht und dann auch noch die Dreistigkeit besitzt, daraus eine Allgemeingültikeit abzuleiten und diese hier immer wieder zu propagieren.
Aber um einen fairen und sachlichen Vergleich ging es euch gar nie, sonst hättet ihr euch entweder jeweils einen 6 oder 8 Kerner genommen, um daraus einen Vergleich abzuleiten und das zusätzlich noch mit APUs, also Monolithen verglichen.
Ansonsten um auf deiner Messmethodik zu bleiben, wieso habt ihr kein 5950 genommen? Was kann AMD denn dafür, dass intel keine 16 Core CPUs anbietet? Aber wait der hat ja die gut gebinnten Chiplets und da wäre dann ja nicht das gewünschte Ergebnis herausgekommen.:schief:
Das haben schon so einige hier im Forum bemerkt. Die meisten äußern sich aber nur verhalten zu diesem Thema.
Ich hatte mir den "Test" sogar mal auf der in der Signatur verlinkten Seite angesehen, in der Hoffnung einen neutralen Test der Community zu sehen.

Leider hatte sich bei mir dabei der gegenteilige Eindruck eingestellt, wie bei so einigen.
In einem Beitrag zu diesem Thema ist mal die Begrifflichkeit "Intention -> schmeicheln einer Architektur" gefallen. Das hat mir sehr gut gefallen und es zeigt gut den verhaltenen Unmgang mit diesem Thema
 
Zuletzt bearbeitet:
@ gaussmath
Was ist das was du da so alles getestet hast.Sind das alles die Einheiten was die meisten ANwendungs so brauen werden wie auch Videoumwandlung ebenso?

Ich habe jemand gefunden der ebenso den i9 12900k getestet hat.Heißt das der Vorgänger war auch schon so stark gewesen oder gab es da echt ne Leistungssteigerung bei beiden mit 125 Watt?
 
Wir haben nicht explizit die Effizienz der Architekturen verglichen du Nase. Wir haben den 10900K und den 5900X verglichen, was völlig legitim ist, weil das für viele eine Anschaffungsalternative war: kaufe ich den 10900K oder den 5900X? Alleine das macht den Test völlig legitim. Nach deiner "Logik" dürfte man kein Effizienzranking erstellen, welches CPUs unterschiedlicher Kernzahl enthält. Holy Shit, was ist das für ein intellektuelles Niveau...

Das einzige Problem hier ist, dass du das nicht verstehst, Dude.
Ihr habt vor allem leider so getestet, dass der IF voll durchschlägt. Mit all den Nachteilen der 12NM und dann habt ihr betont, wie ineffizient doch AMDs 7NM sind...
Auch oft und immer wieder in den Foren, um dann als Beweis auf eure Tests zu verweisen. Der in eurer Sig, der manchmal auch wächst, also die Buchstaben in der Signatur.
So genug davon. Ich mag ja Tests generell doch und wenn man diese einzuordnen weiß, kann man aus jedem Test nützliche Informationen mitnehmen, die unwichtigen Dinge muss man dann einfach ignorieren.

Viele Grüße
@ gaussmath
Was ist das was du da so alles getestet hast.Sind das alles die Einheiten was die meisten ANwendungs so brauen werden wie auch Videoumwandlung ebenso?

Ich habe jemand gefunden der ebenso den i9 12900k getestet hat.Heißt das der Vorgänger war auch schon so stark gewesen oder gab es da echt ne Leistungssteigerung bei beiden mit 125 Watt?

Ps. der neue hat mehr Kerne, Extrakerne auf Skylakeniveau. Da kommt viel Leistung bei rum, in Videoverarbeitung.
Ich sage dazu nichts weiter :D

Aber keine Sorge, ich werde mir die Arbeit auch erstmal nicht mehr machen ^^

Ich will ja nicht die Leute mit objektiven Messungen verwirren.
Messungen mit Objektiv meinst du wohl
 
Zuletzt bearbeitet:
@Lamaan
Das war nicht so gemeint. Meinte das bild was er gepostet hat. Was das aussagt. Ob es alle Einheiten einer CPU abbildet und das auch die Auswirkung jeder Anwendung aufzeigt.
Das diese CPU voll bei Leistung durchschlägt weiß ich weil ich jemand mit einem I9 12900k habe testen lassen. Diese generation ist bei Misch betrieben und welche wo mehrere oder unterschiedliche Anwendung verwendet wirklich sehr stark. So hat dieser 2x videoumwandlung gleichzeitig gestartet. Das Ergebnis ist gut aber der Stromverbrauch mit 250 Watt ist ebenso sehr hoch. Bei mir 125 Watt sinkt der Vorteil auch ein wenig. Wenn das Intel bei ihrer 2 Generation anpackt dann bin ich überzeugt das da noch viel mehr wieder Intel CPUs kaufen werden als aktuell. Die rohleistung passt jedenfalls. Daran scheitert es nicht. Sogar wenn man die CPU etwas stutzt wie jeder Anwendung 2 Kerne weg nimmt ist die Leistung noch gut. Ab da geht die Leistung immer weiter nach unten. Und klar das dann bei nur 6 Kernen +8 ht und die zweite Anwendung mit 6 kleinen cores dann schlechter als ein ryzen 9 5900x ist. Irgendwo geht halt dann immer Leistung flöten. Ich bin mir sicher Intel gibt nun so richtig Gas. Und weil das durchaus super funktioniert, sehen wir das auch nicht allzu langer fenre es auch bei Amd. Und kleine Kerne sind besser als ht oder smt. Das sehe ich ja am Ergebnis super. Sonst würde der 5950x nicht auch langsam ins schwitzen kommen. Hier scheint smt auch nicht mehr so rein zu hauen. Irgendwo limitiert also smt bzw ht. Die kleinen Kerne sind also ne super wunder Waffe bei Anwendungen. Ich werde auch in Zukunft so fahren. 2 Anwendung umwandeln und nebenbei zocken. Hier wird ebenso der 12900k glänzen wie beim 5950x. Darum nam ich diese Kerne auch den Anwendungen weg. Ich simulierte so ein zocken nebenbei. Ich hoffe so Tools mit Kern Zuweisung beherrschen das auch und erkennen ebenso die kleinen Kerne. Denn damit steuere ich dauerhaft die Kernzufuhr der jeweiligen Anwendung bei jedem start weg.
 
Ihr habt vor allem leider so getestet, dass der IF voll durchschlägt. Mit all den Nachteilen der 12NM und dann habt ihr betont, wie ineffizient doch AMDs 7NM sind...
Hilf mir gerade mal mit diesem Punkt bitte, was hätten wir denn konkret mit dem IF machen sollen?

Wenn du sagst, dass wir angeblich betonen, wie ineffizient der 7nm doch sei, dann hast du den Text entweder nicht gelesen oder nicht verstanden, denn das wurde nie behauptet
 
Ob mein b550 aorus pro nochn cpu sehen wird hängt stark davon ab wie schnell die nächste gpu mit max 175w an leistung gewinnt eher will ich 125w mit doppelten tf leistung (von 9 auf 18tf)
Wenn nvidia sich nicht blöd anstellt bei 5nm fertigung und den richtigen mix aus takt Größe und chipdichte
Sehe ich bis zu 2,85ghz in vollen mir egal temps und ineffizienz zu vernünftigen 2,5ghz im sweetspot bei 48sm in ampere chipdesign
das kann sich ändern wenn nvidia ihren sm design ändert und dann noch weniger fp16 dedizierte einheiten einsetzt was bei gaming produkten sehr wahrscheinlich ist.
Bsp wäre das nvidia dann von 128 alu 96x fp32 und 32x fp16/int32 einsetzt
Und den tensor cores mehr flexibilität einräumt mit int32 16 8 4
das würde die fp32 leistung mit 48sm auf 26tf anheben
bei nur vermutlich 135w
Annahme bis zu 30% energieeinsparung vs 8nm
Mit ampere design wären es nur 23tf bei 135w
ich bin mir aber nicht sicher ob nvidia den ad106 auf nur 48sm kastriert
es werden eher 72 und 60sm
allein die chipgröße vermutlich spricht dagegen
160mm²-200mm² das müsste in n5 etwa 85% yield bedeuten und mit fehlerhaften bis zu 95%
Da lohnt es sich für nvidia nochn chip anzufertigen mit nur 30sm 99mm²-120mm²
was dann zu 95% yield führt
da aber kein ad107 geplant ist gehe ich von en ampere refresh aus. ga104 ga106 auf 6nm tsmc hier wären die chips bei 240mm² und 150mm²
Ein 5nm wafer im schlimmsten fall 20k$ und 6nm vermutetet 16k$
Warum nicht bei samsung bleiben nun das würde nvidia zu teuer werden
Ein 8nm wafer vermutlich festpreise für intakte chips aber umgerechnet gehe ich von 6k bis 8k $ pro wafer und ner yield zwischen 15% ga102 (628mm²) 375-500$ - 60% ga106 (276mm²) 39-52$
Die hohen dgpu preise kommen vom den vram kosten (1gb derzeit bei 13$)
merke fällt der vram preis auf normale niveau gibt es wieder unter 500€ dgpu
Das mining kommt da oben drauf derzeit ist es nicht möglich eine rtx3060 und später sogar rtx2060 12gb unter 500€ zu fertigen
das einzige was die preise sinken ließe wäre wenn amd und nvidia ihre gpu einzeln OHNE vram verkaufen würden
Das aber sehe ich nicht kommen.
Es wäre sogar jetzt billiger hbm2e einzusetzen
Die kommende rtx3090 ti mit 2gb chips gddr6x wird zumindest die kapazitäten erhöhen von gddr6x
das kuriose ist das gddr6x derzeit billiger ist als gddr6
Es macht also wirklich sinn das nvidia alle rtx30 gpu auf gddr6x mit 2gb modulen refreshed

Zurück zu cpu nun ich meine das zen3d durchaus für mein board irgendwann wenn ichn ad106 mit 60sm bekomme
Von 28sm auf 60sm das wären stolze Verdreifachung der fp32 Leistung
da aber ad106 so ziemlich sicher high end wird (80sm mit 2,85ghz ab 999€
wird das nicht passieren.
aber nen ryzen r7 6800x 4,90ghz octacore nehme ich für mein board gerne
Es könnte auch sein das amd die zen3d einfach r7 5800xt nennt
15% mehr ipc über die schon +20% vs zen2.
35% mehr leistung in einer sockel gen
aber wie betont ohne passende dgpu werde ich nix umbauen
 
Ihr habt vor allem leider so getestet, dass der IF voll durchschlägt. Mit all den Nachteilen der 12NM und dann habt ihr betont, wie ineffizient doch AMDs 7NM sind...
Auch oft und immer wieder in den Foren, um dann als Beweis auf eure Tests zu verweisen. Der in eurer Sig, der manchmal auch wächst, also die Buchstaben in der Signatur.
So genug davon. Ich mag ja Tests generell doch und wenn man diese einzuordnen weiß, kann man aus jedem Test nützliche Informationen mitnehmen, die unwichtigen Dinge muss man dann einfach ignorieren.
Die Problematik ist nicht dass 7nm ineffizient ist sondern der Boost extrem agressiv. Dabei sorgt der extrem starke Spannungs-und Taktanstieg für eine hohe Leistungsaufnahme. Insbesondere bei den geringen Gaminglasten haut die rein.
Das merkt man vor allem mit manuellen OC mit festen Voltage das die Ryzens wesentlich effizienter bleiben können. Mit 1,36V @4,4Ghz ist meine CPU beim zocken oft sparsamer wie @Stock.
Das sowas dann bei Tests negativ auffällt braucht dann keinen Wundern.
Und selbst wenn der IF rausgerechnet wird bleibt der getestete Ryzen oft unter üblichen Gaminglasten halt ineffizienter, dass ist die Desginentscheidung von AMD gewesen und da braucht man den Tester nicht zu kritisieren der das feststellt.
 
Wenn der bei 700-800 ist Kauf ich den 16 Kerner... quasi im Presale
Wollte ja wenn Leistungstechnisch auch nötig den 5950X kaufen, Jedoch die Gerüchte um eine weiteren AM4 Prozessor+ Optimierten Cache haben mich umgestimmt.
Ich benötige die Leistung zwar noch nicht... auch wenn ich sie durchaus fast voll nutzen kann -der 3900X ist noch gut dabei-.
Jedoch glaube ich das sich die Fantasiepreis Käufe der GPUs, auch stark auf die restliche Desktop-Hardware auswirken werden. Die Hersteller werden "auch" deshalb die UVPs Anziehen. Natürlich wollen auch noch andere stärker mitverdienen
 
Wenn der bei 700-800 ist Kauf ich den 16 Kerner... quasi im Presale
Wollte ja wenn Leistungstechnisch auch nötig den 5950X kaufen, Jedoch die Gerüchte um eine weiteren AM4 Prozessor+ Optimierten Cache haben mich umgestimmt.
Ich benötige die Leistung zwar noch nicht... auch wenn ich sie durchaus fast voll nutzen kann -der 3900X ist noch gut dabei-.
Jedoch glaube ich das sich die Fantasiepreis Käufe der GPUs, auch stark auf die restliche Desktop-Hardware auswirken werden. Die Hersteller werden "auch" deshalb die UVPs Anziehen. Natürlich wollen auch noch andere stärker mitverdienen
Dann kauf halt nicht wenn es zu teuer wird, so schwer ist das ja nicht.
 
Dann kauf halt nicht wenn es zu teuer wird, so schwer ist das ja nicht.
Ich weiß wie "nicht kaufen" geht, ich wollte im Juli/August 2020 ne GPU kaufen, werde aber wohl bis Ende 2023 so wie es aussieht meine 1080Ti behalten und einfach kein neues AAA Spiel kaufen.

Allerdings ist es bei der CPU völlig egal "wann" ich sie kaufe, denn Kaufen werde ich eh. Weil es die letzte für AM4 ist. Vermutlich kosten die 5000(+) im EOL sowiso nahezu das gleiche wie zu Release.

Es ist eine leicht andere Situation wie bei den GPUs z.B. . Auf dieses Board hier kann ich quasi in 7-8 Jahren noch die neuste GPU,RAM,SSDs Schrauben(vermutlich^^) die CPU allerdings nicht.

Deswegen ist "nicht kaufen" nicht immer die richtige Wahl. Auch wenn du generell recht hättest
 
Für 400 Euro Aufpreis würden sicherlich viele Leute 32 GiB HBM nehmen. Aber mal zur Orientierung, was sowas kosten kann:
Beschleunigerkarte mit 8 GiB HBM2 für 1.250 Euro
Beschleunigerkarte mit 16 GiB HBM2 für 1.850 Euro beim gleichen Händler
Weitere Unterschiede gibt es praktisch nicht und auch wenn von den 600 Euro Endkundenaufpreis für 8 GiB HBM noch 50 Prozent Luxus-Aufschlag dabei sein könnten, ergibt sich für 32 GiB eine klar vierstellige Summe allein für den Speicher. Möchtest du das gleiche noch in einer CPU integriert haben, musst du zusätzlich noch ein komplexeres Package, einen größeren/extra angepassten Sockel und vor allem einen HBM-Controller samt Anbindung innerhalb der CPU mitbezahlen.

Intel wird die Technik aber nächstes Jahr bei Sapphire Rapids anbieten, dann kannst du deine Kaufbereitschaft unter Beweis stellen. Ich wäre positiv überrascht, wenn man mit weniger als 2.000 Euro Preisaufschlag davon kommen wird.





Nachdem AMD die Pipelines mit Zen 2 und die CCX-Organisation mit Zen 3 gefixt hat, bleibt als große Schwachstelle noch die Kommunikation zwischen den Chips. Verglichen mit On-Die-Interconnects oder Intels EMIB-Versprechen ist das IF lahm, träge und stromhungrig. Unter anderem deswegen profitiert Zen auch so stark von Cache.

Hier hätte AMD noch viel Potenzial. Allerdings rangiert das IF unter den On-Substrate-Interconnects trotzdem ganz weit vorne, es ist also nicht leicht etwas besseres anzubieten ohne komplett neue Packaging-Technologien anzuwenden. TSMC hat deren Einführung zwar angekündigt, noch ist aber nichts verfügbar. Alternativ könnte AMD in den für Spieler interessanten Leistungsklassen natürlich auch komplett auf monolithische Designs umstellen. Damit wäre das Problem vom Tisch und die Stückzahlen sollten mittlerweile für so einen Schritt reichen.
Das die von mir genannten 400€ nicht realistisch sind war mir durchaus klar, allerdings war mir nicht bewusst das sich die Kosten immer noch in einem so großen Rahmen bewegen. Ich habe ehrlicherweise aber auch nicht nachgeschaut. Naja, ist halt immer noch ein Nischenprodukt bzw. wird nur in Enterprise Lösungen wirklich verbaut.

Dazu muss man natürlich auch realistisch sein, der Markt dafür wäre sehr klein. Für den Highend PC zu Hause wird wohl kaum reichen das ein Unternehmen auch nur darüber nachdenkt. Für richtige Workstations sind 32 GB zu wenig, für Server sowieso und für den Office PC tun es auch 8 oder 16 GB old school Ram.

Und nein, ich denke meine Kaufbereitschaft setzt an der Stelle aus ;-) So interessant wie ich das technisch finde, das gibt der Geldbeutel nicht ohne große Schmerzen her.
 
Eigentlich ist der Sprung (nur die Arch ohne den Cache) von Zen 2 auf Zen 3 nicht so groß. Dafür muss man sich nur mal den Vergleich mit dem 5700G anschauen. Das sind im Mittel gerade mal 4,2%. Wo ist der Unterschied zu den Desktop Modellen? Richtig, es ist der L3 Cache.

Die Folie ist doch völlig irrelevant für eine Bewertung der Architekturen. Und erst recht ist die Schlussfolgerung völlig daneben, der Sprung sei "nicht so gross", nur weil man ein "kastriertes" Zen 3 Modell mit einem vollwertigen Vorgänger vergleicht. Das ist bewusste Desinformation.

Zudem ist es ist eben nicht nur die Hälfte des L3, die der APU fehlen. Es betrifft vor allem auch die generellen Cache Latenzen, die beim mobilen Design etwas weniger aggressiv sind. Sieht man z.B. gut beim Vergleich der core-to-core Latenzen von 5800X und 5980HS bei AT. Und der 5700G ist im Endeffekt nur ein für Desktop vermarkteter Cezanne. Zudem hat dieser einen On-Die Speichercontroller, was die Vergleichbarkeit zusätzlich wenig sinnvoll macht.

Ein sinnvoller Vergleich zu Matisse kann natürlich nur Vermeer sein. Wer objektiv getestet hätte, hätte also z.B. 3800X mit 5800X verglichen. Und da ist auch der Unterschied grösser. Was eben auf alle Verbesserungen der Architektur zurückzuführen ist und nicht nur am Cache liegt. AMD selbst hat auch gesagt, dass sie am IO-Die kaum was verändert haben mit Zen 3. Grössere Veränderungen sollen dort erst bei kommenden Generationen kommen. Darin können die Unterschiede also auch nicht begründet sein.
 
Zurück