Ryzen 4000: AMD lässt sich angeblich Zeit, weil man es kann - düsterer Ausblick für Intel?

Kaum mal 2 Jahre richtigen Erfolg mit Ryzen 2000 und 3000 und schon wir AMD größenwahnsinnig, so hat Intel auch anfangen. Technik zurück gehalten weil kein konkurrenzfähiger Mitbewerber da gewesen ist.

Die Suppe muss jetzt ausgelöffelt werden 8 Jahre später.

Auf dem GPU Markt wird AMD dieses Jahr auch nicht nennenswertes raushauen, wir vielleicht für die RTX 3070-3080 reichen.

Wenn AMD eins kann ist heiße Luft verschießen im GPU Bereich.
 
Ryzen 4000 Anfang 2021 ist vollkommen ausreichend :daumen:. Nur mit RDNA2 sollten sie es nicht verscherzen, ich erwarte 3080TI Leistung für unter 1000€ (@Snowhack):daumen: .
 
Nichtmal grossartig weniger effizient? Soll das Sarkasmus sein?

Intel Core i9-10900K und i5-10600K im Test: Leistungsaufnahme, Effizienz, Temperatur und Overclocking - ComputerBase

i9-10900K Delta 1 Thread: 50W
i9-10900K Delta volle Auslastung: 329W
Ryzen 9 3900X Delta 1 Thread: 42W
Ryzen 9 3900X volle Auslastung: 142W

Sind natürlich keine direkten CPU Leistungswerte, da hier noch Verluste durch Netzteil und SpaWas hinzukommen. Gibt aber trotzdem ganz gut das Verhältnis wieder. Und da der Ryzen 9 3900X etwa 10% schneller ist in Multicore Anwendungen, ist er mehr als 2,5 mal so effizient! Das ist schlichtweg eine einzige Katastrophe was Comet Lake an Effizienz zu bieten hat. Völlig überzüchtet, um zumindest bei der Performance nicht komplett den Anschluss zu verlieren. So schlimm war es seinerzeit nicht mal um Bulldozer bestellt. Sandy Bridge war unter Vollast "nur" etwa doppelt so effizient.


Man muss aber auch nichts verharmlosen. Comet Lake ist ein totaler Reinfall. Zu spät, zu altbacken, zu ineffizient, zu teuer. Und dafür wird Intel auch zurecht von den Käufern abgestraft.


Was soll daran enttäuschend sein? Entscheidend sind Fortschritte. Und die hat AMD zweifelsohne auch in diesem Bereich mit Zen 2 gemacht. Je nachdem in welchem Segment man vergleicht sind die Unterschiede komplett vernachlässigbar. Zum Launch der Ryzen 3000 Serie war der i9 9900K aktuell. Und mit einem vergleichbaren Power Target liefert der Ryzen 9 3900X quasi die gleichen Frametimes unter FHD. Alles weitere ist wie gesagt einfach der Überzüchtung der mittlerweile in die Jahre gekommenen Skylake Infrastruktur geschuldet. Man sollte nicht vergessen, Comet Lake ist fast ein Jahr später als Zen 2 erschienen. Der einzige echte Vorteil von Intel in Spielen hat weniger was mit der Kernarchitektur oder der Fertigung zu tun, sondern den DRAM Latenzen. Ich bin mir sicher AMD wird auch hier einiges verbessern mit Zen 3.


@topic

Auf die Gerüchte würde ich erstmal nichts geben. Die Quelle ist der gleiche Typ der behauptet hat, Zen 3 kommt bereits in 5 nm. Wobei ein 2021er Zen 3 in 5nm sicherlich möglich ist. Das ist dann aber eher eine Option für einen Refresh oder einen mobilen Ableger.

Ok, aber wenn man nun beide CPUs die du genannt hast auf 4 GHz maximal all core takt beschränkt, wird auch Intel weniger Stromverbrauch haben. Klar sinkt dann aber auch die Leistung. Wäre halt interessant wie viel dann Intel an Leistung verlieren würde. Wenig wird das wohl halt nicht sein.

Wenn das alles nur Gerüchte sind. Ist das mit dem aufgetauchten zen 3 16 Kerner mit es etwa auch nur ein Gerücht und kann nicht davon ausgehen das der 4950x 3,7 all core takt erreichen wird oder ist das Blödsinn und der 4950x schafft in Wahrheit noch mehr als nur all core 3,7. Also am besten gleich 4 GHz all core, was ich ja dann fein finden würde
 
Limitiert vs. unlimitiert ist kein sinnvoller Vergleich.
Das ist nicht limitiert vs unlimitiert. Das ist ein Vergleich mit den von den Herstellern festgelegten Parametern. Intel kann ihre Prozessoren doch gerne auf 100W oder so beschränken. Du weisst aber ganz genau wie es dann in Benchmarks aussehen würde. ;)
 
Es geht klar in die Verlängerung mit den Ryzen 3000 Prozessoren. Hierfür sprechen auch die neuen XT Versionen. Mich würde es nicht wundern, wenn die Ryzenn 4000 CPU erst im 1 Quartal 2021 kommen würden. Es geht schlichtweg um Gewinnmaximierung und da sind alle Unternehmen gleich. Intel kann preislich oder qualitativ kaum noch Paroli bieten und daher verzögert sich die Entwicklung. Ich würde jetzt einen Ryzen 3900X oder einen 3950x kaufen, denn günstiger wird AMD seine Prozessoren in Zukunft nie mehr anbieten, außer Intel holt wieder auf. Danach sieht es aber derzeit nicht aus.
 
Das ist nicht limitiert vs unlimitiert. Das ist ein Vergleich mit den von den Herstellern festgelegten Parametern. Intel kann ihre Prozessoren doch gerne auf 100W oder so beschränken. Du weisst aber ganz genau wie es dann in Benchmarks aussehen würde. ;)

Die Frage ist aber doch viel eher, was würde denn so ein auf 100W reglementierter 10900k wirklich leisten? Die Leistungsaufnahme steigt ja nicht parallel zur Leistungsabgabe, die Kurve ist eher quadratisch veranlagt. Daher glaube ich, dass die Benchmarks gar nicht so grob anders aussehen würden, letztlich liegen bei PL2 vieleicht 0,5Ghz mehr an als bei "normaler" Aufnahme. Da sprechen wir aber auch nur von 10% Mehrleistung. Klar macht Intel da um eben in den Benches diese 10% hinzuzugewinnen, aber realistisch gesehen völlig unnütz.

Daher hat Gaussmath schon absolut recht, ein Vergleich limitiert und unlimitiert ergibt effizienztechnisch betrachtet gar keinen Sinn.
 
Ryzen 3000 und Ryzen 4000 sollten in der Fertigung ca. das Selbe kosten.
Die Chiplets werden ja kaum viel größer werden.

Mal ne Frage, wie wird denn aktuell produziert?

Werden ganze CCDs belichtet? Oder werden CCXs belichtet?

Ganze CPUs werden ja offensichtlich nicht belichtet, sondern aus den o. g. Bauteilen "zusammengesetzt".

Da aber beide oben genannten Parts deutlich wachsen müssen, ein CCX mit 8 Kernen und ein CCD dann mit 16 Kernen könnte AMD bei Zen3 durchaus schlechtere Yields und dadurch bedingt höhere Kosten haben. So hatte ich bisher gar nicht darüber nachgedacht, wenn aber kein Denkfehler enthalten ist, sollte es so sein.
 
"habe AMD beschlossen, die Lebensspanne von Zen 2 zu verlängern." das wars dann mit AMD für mich. AMD macht den Intel. Direkt unsympathisch. Widerlich. Niemand will Zen2 alle warten auf Zen3 bzw Zen4 und nun wird das ganze künstlich verlängert ala Intel. Pfui.
 
Zuletzt bearbeitet:
Da wo die Moneten gemacht werden, also Datacenter und Mobile, sehe ich keine Dominanz von AMD, ganz im Gegenteil. Der Druck muss in diesen Bereichen gesteigert werden.
Das hängt aber weniger an dem, was AMD anbietet, denn sie sind Intel in den meisten Punkten voraus, sondern an den Umständen.
Datacenter ist träge, da gilt die Philosophie "Never change a runnning system" so sehr wie sonst nirgends. Dazu kommt der Quasi-Vendor-Lock-In den Intel seit Jahren gefahren ist. Da kommt man nicht leicht davon los.
 
AMD sollte sich nicht zu lange ausruhen. Der Fertigungsvorsprung wird nicht für immer halten. Ryzen 4k um ein paar Monate zu verschieben ist jetzt zwar kein Problem und kommt sicher auch der Firmware zu gute. Doch auf längere Sicht muss AMD weiter am Ball bleiben.
 
Mal ne Frage, wie wird denn aktuell produziert?

Werden ganze CCDs belichtet? Oder werden CCXs belichtet?
Natürlich wird ein ganzes CCD belichtet.

Da aber beide oben genannten Parts deutlich wachsen müssen, ein CCX mit 8 Kernen und ein CCD dann mit 16 Kernen könnte AMD bei Zen3 durchaus schlechtere Yields und dadurch bedingt höhere Kosten haben.
Wer sagt denn, daß ein CCD 16 Kerne bekommt?
 
Die if wird dann die CPU ja dann bremsen bei der Leistung. Ich habe da so meinr Zweifel das es if keine Auswirkung auf die CPU hat.
ich bezweifle darum auch das die 4000 Serie auch wirklich 15-20 % mehrleistung erreicht.
6 % durch die Anhebung des taktes.
Der Rest wird entweder ausgebremst oder verpufft in so manchen Anwendung ins Leere, weil je weniger man befehlsätze verwendet, desto weniger ist die leistungssteigerung. Und die if bremst auch noch ein wenig aus. Aus den 15 bzw 20 % könnten dann am Ende nur 12 bzw 17 % rauskommen.
Das wäre ja wirklich entäuschend,das ganze.
 
Der Wafer hat eine dielektrischen Passivierungsschicht, die über der letzten Metallisierungsschicht aufgedampft wird. Das Trägersubstrat hat Bondpads die mit den Halbleiterbonds übereinstimmen. Diese sind aber erst sichtbar, wenn der Wafer belichtet wird. Mit den Bumps (z.Bsp. copper pillar bumps) an sich, hat das nichts zu tun. Die Chiplets liegen im Substrat und die Kontakte diesen Trägers liessen sich auch verlöten. Er lässt sich wenn eher nicht bonden, wenn es nicht belichtet ist.

Ansonten ja du kannst ein Chiplet nicht bonden wenn es ein unbelichteter Dummy ist. Daher können die Chiplets im TR echt sein, sind aber nicht "verdrahtet" und damit nicht ansprechbar.

Ich kann Torsten also nicht zustimmen. genauso gut kann es sein wie er anspricht, dafür gibt es aber keinen Nachweis weil AMD selbst behauptet sie sind nicht ansprechbar.
 
Zurück