4 E-Kerne benötigen die Fläche eines P-Kerns, aber bereits 3 von ihnen sind schneller.Die E-Kerne bei Intel sind vor allem flächeneffizient. Vier E-Kerne sind kaum größer als ein P-Kern.
Zen4c ist durch die Optimierung auf geringeren Takt auch kleiner als Zen4.
Das habe alle. nur amd löst es besser.Naja, AMD hat ein Verbrauchsproblem
Es gibt keine starken und schwachen Kerne, sondern nur vier Cluster.Tut mir leid, aber du hast keinerlei Ahnung, wie die FX CPUs aufgebaut sind. Es sind 8 Kerne, von denen sich jeweils zwei gewisse Recheneinheiten teilen.
Bei gleicher Leistungsaufnahme sind das etwa 30 bis 40% zu den X3D CPUs und etwa 10 bis 15% zu den normalen Ryzen 7000, von 3x so effizient würde ich nicht unbedingt sprechen wollen.Da liegt der beste AMD-Prozessor im Hinblick auf die Effizienz mehr als dreimal vor einem konkurrenzfähigen Intel-Prozessor.
Ich finde "Vorlebt" ist ein passender Ausdruck, denn IBM hat mit PowerCore schon lange gezeigt, wie man SMT8 effektiv nutzt."Vorlebt" ist auch ganz schön dick aufgetragen, lebt IBM beim PowerCore auch das Multithreading vor weil man SMT8 im Angebot hat ?
Intel muss doch gezwungener Maßen die Atömchen mit ins Boot nehmen, weil alles Andere mit dem was man in der Fabrik abgeliefert hat eben speziell bei extremen multithreaded Workloads keine Früchte getragen hat.
Sich da an technischen Begrifflichkeiten aufzuhängen ist doch völlig infantil, AMD kann den Cache 5 mal stapeln und 1000mhz fahren und nennt die Recheneinheiten Kangaroo Kerne wenn sie das für richtig halten.
Ich finde, dass die X3D CPUs eine reine Marketinglüge sind. Sie haben nur ein paar zusätzliche Instruktionen, die kaum jemand braucht, und dafür verlangen sie einen saftigen Aufpreis. Die normalen Ryzen 7000 sind viel besser im Preis-Leistungs-Verhältnis und haben genug Leistung für alle Anwendungen. Die X3D CPUs sind nur für Leute, die mit Zahlen protzen wollen, aber keine Ahnung von Technik haben.```Bei gleicher Leistungsaufnahme sind das etwa 30 bis 40% zu den X3D CPUs und etwa 10 bis 15% zu den normalen Ryzen 7000, von 3x so effizient würde ich nicht unbedingt sprechen wollen.
Ja, aber wer braucht heute schon Anwendungen? Das haben Spieler nie gebraucht.Die normalen Ryzen 7000 sind viel besser im Preis-Leistungs-Verhältnis und haben genug Leistung für alle Anwendungen.
Ich verstehe nicht, warum du so abwertend über Anwendungen redest. Anwendungen sind nicht nur für Profis oder Nerds, sondern für alle, die mehr aus ihrem PC machen wollen. Anwendungen können dir helfen, kreativ zu sein, produktiv zu sein, zu lernen oder einfach Spaß zu haben. Anwendungen sind auch wichtig für die Entwicklung neuer Technologien und Innovationen. Ohne Anwendungen wäre dein PC nur ein teurer Briefbeschwerer.Ja, aber wer braucht heute schon Anwendungen? Das haben Spieler nie gebraucht.
Man kommt heute sogar noch mit 4Kernen und 8 Threads für Gaming aus, nur haben die CPUs dann entweder viel zu wenig Takt oder Cache.
Ich meinte ja Nutzer die ihren PC für Spiele benutzen.Anwendungen sind nicht nur für Profis oder Nerds, sondern für alle, die mehr aus ihrem PC machen wollen.
Spieleleistung ist >20% höher. Leistungsaufnahme viel geringer.Ich finde, dass die X3D CPUs eine reine Marketinglüge sind.
Was heißt, bei gleicher Leistungsaufnahme? Für die Spielleistung eines 13900KS benötigt AMD nicht mal 70 Watt:Bei gleicher Leistungsaufnahme sind das etwa 30 bis 40% zu den X3D CPUs und etwa 10 bis 15% zu den normalen Ryzen 7000, von 3x so effizient würde ich nicht unbedingt sprechen wollen.
Stimmt....deswegen kann ja auch nur ein 13900K mit einem 7800X3D bei Spielen mithalten, säuft aber dabei 3x soviel wie der 7800X3D. Und beim Raptor Lake Refresh braucht es dann schon ne ganze Armada an E-Cores zu den P-Cores, um sich mit dem 16 Kerner von AMD zu messen.AMD ist technisch bedingt am Ende, da muss was neues her sonst wird Intel immer weiter wegziehen.
Dieser Prozessor mag zwar beeindruckende technische Daten haben, aber er hat auch einige gravierende Nachteile, die du kennen solltest. Erstens ist er sehr teuer im Vergleich zu anderen Prozessoren auf dem Markt. Du zahlen viel mehr für eine geringfügige Leistungssteigerung, die du wahrscheinlich nicht einmal bemerken wirst. Zweitens ist er sehr energiehungrig und erzeugt viel Wärme. Das bedeutet, dass du ein leistungsfähiges Kühlsystem und ein hochwertiges Netzteil benötigst, um ihn zu betreiben. Drittens ist er nicht sehr kompatibel mit vielen Mainboards und Speichermodul Kombinationen.Spieleleistung ist >20% höher. Leistungsaufnahme viel geringer.
Top CPUs, keine Marketinglüge.
In erster Line dürfte der derzeitige Verzicht auf architektonisch auf Effizienz getrimmte Kerne schlicht ein wirtschaflicher Faktor sein. AMD braucht immer noch jeden Dollar für weiteres Wachstum. Eine komplett neue Mikroarchitektur zu entwickeln verschlingt einiges und man darf sich hier zudem fragen, ob AMD einen solchen Schritt überhaupt noch so kurz vor dem Ende der Zen-Mikroarchitektur *) gehen will. Vielleicht wird ein entsprechendes Design erst später vorgestellt werden (und möglicherweise wird hier eher erneut das Datacenter der Treiber sein und weniger das Consumer-Segment).Ich bin ein großer Fan von Ryzen-Desktop-CPUs, weil sie so viel Leistung für wenig Geld bieten. Aber ich frage mich, warum AMD sich entschieden hat, auf Effizienzkerne zu verzichten, die in den mobilen und Server-Varianten vorhanden sind. [...]
Da gibt es nichts dergleichen ... wie zuvor beschrieben kannst du grob an den obigen drei Bereichen ansetzen. Wenn du mit deinem Konkurrenten technologisch in etwa auf Augenhöhe bist und nur zwei der Bereiche optimierst und anpasst, während dein Konkurrent alle drei in Angriff nimmt, ist letzterer grundsätzlich im Vorteil.[...] Drittens könnte es sein, dass AMD einfach auf eine bessere Technologie wartet, die mehr Vorteile bietet als die Effizienzkerne. [...]
So etwas gibt es nicht. Das was du meinst ist Zen4c, also das dicht gepackte 16-Kern-CCD in 4 nm, das dafür mit niedrigerem Takt, geringerer Verlustleistung und deutlich kleineren und langsameren Caches auskommen muss. Entsprechend kann man den Server "Bergamo" dann auch für Cloud-Betreiber mit 128 Kernen anbieten.[...] Zum Beispiel arbeitet AMD angeblich an einem neuen Chiplet-Design namens Zen 4D, das eine zusätzliche Schicht von 3D-gestapeltem Cache-Speicher hinzufügt, der die Leistung und Effizienz deutlich verbessern könnte. [...]
Ich denke, dass AMD einfach kein Geld hat, um einen neuen Kern zu bauen. Die haben schon genug Probleme, mit Intel und Nvidia mitzuhalten. Eine neue Mikroarchitektur kostet viel Kohle und Zeit, und wer weiß, ob die sich überhaupt lohnt. Vielleicht kommt ja was Besseres in ein paar Jahren. AMD macht halt das Beste aus dem, was sie haben: ein bisschen am Design schrauben, die Fertigung optimieren und auf architektonische Spielereien verzichten. Das ist zwar nicht ideal, aber besser als nichts. Mal sehen, wie die Chips sich schlagen werden.In erster Line dürfte der derzeitige Verzicht auf architektonisch auf Effizienz getrimmte Kerne schlicht ein wirtschaflicher Faktor sein. AMD braucht immer noch jeden Dollar für weiteres Wachstum. Eine komplett neue Mikroarchitektur zu entwickeln verschlingt einiges und man darf sich hier zudem fragen, ob AMD einen solchen Schritt überhaupt noch so kurz vor dem Ende der Zen-Mikroarchitektur *) gehen will. Vielleicht wird ein entsprechendes Design erst später vorgestellt werden (und möglicherweise wird hier eher erneut das Datacenter der Treiber sein und weniger das Consumer-Segment).
Grundsätzlich gilt, dass man Effizienz auf drei Arten realisieren kann: designtechnisch, fertigungstechnisch und architektonisch. AMD greift derzeit beim Design nur in relativ kleinem Umfang ein, setzt dafür weitestgehend auf fertigungstechnische Anpassungen und verzichtet derzeit (wahrscheinlich aus kosten-, möglicherweise auch aus Ressourcengründen) weitestgehend auf architektonische Anpassungen. Das spart an diversen Stellen und aktuell scheint man schlicht zu dem Schluss gekommen zu sein, dass das vorerst für die erste Einführung derartiger Produkte ausreichend sein wird. Ob die Rechnung aufgehen wird, wird man abwarten müssen.
Ich bin nicht deiner Meinung. Es gibt viele Gründe, warum man sich gegen eine neue Mikroarchitektur entscheiden könnte, die nicht nur mit dem Preis zu tun haben. Zum Beispiel könnte es technische Herausforderungen geben, die eine solche Umstellung erschweren oder verzögern. Oder es könnte strategische Vorteile haben, die bestehende Architektur zu optimieren und zu verfeinern, anstatt ständig etwas Neues zu entwickeln. Oder es könnte einfach eine Frage des Geschmacks sein, welche Art von CPU man bevorzugt. Ich finde es unfair, AMD als Budget-Lösung abzustempeln, nur weil sie nicht jedes Jahr eine Revolution auf den Markt bringen. Sie bieten immer noch eine sehr gute Leistung und Effizienz für viele Anwendungsbereiche und haben sich einen loyalen Kundenstamm erarbeitet. Ich denke, du solltest deine Argumente etwas differenzierter betrachten und nicht nur auf die Watt-Zahlen schauen.In erster Line dürfte der derzeitige Verzicht auf architektonisch auf Effizienz getrimmte Kerne schlicht ein wirtschaflicher Faktor sein. AMD braucht immer noch jeden Dollar für weiteres Wachstum. Eine komplett neue Mikroarchitektur zu entwickeln verschlingt einiges und man darf sich hier zudem fragen, ob AMD einen solchen Schritt überhaupt noch so kurz vor dem Ende der Zen-Mikroarchitektur *) gehen will. Vielleicht wird ein entsprechendes Design erst später vorgestellt werden (und möglicherweise wird hier eher erneut das Datacenter der Treiber sein und weniger das Consumer-Segment).
Grundsätzlich gilt, dass man Effizienz auf drei Arten realisieren kann: designtechnisch, fertigungstechnisch und architektonisch. AMD greift derzeit beim Design nur in relativ kleinem Umfang ein, setzt dafür weitestgehend auf fertigungstechnische Anpassungen und verzichtet derzeit (wahrscheinlich aus kosten-, möglicherweise auch aus Ressourcengründen) weitestgehend auf architektonische Anpassungen. Das spart an diversen Stellen und aktuell scheint man schlicht zu dem Schluss gekommen zu sein, dass das vorerst für die erste Einführung derartiger Produkte ausreichend sein wird. Ob die Rechnung aufgehen wird, wird man abwarten müssen.
Noch zwei, drei Anmerkungen:
Da gibt es nichts dergleichen ... wie zuvor beschrieben kannst du grob an den obigen drei Bereichen ansetzen. Wenn du mit deinem Konkurrenten technologisch in etwa auf Augenhöhe bist und nur zwei der Bereiche optimierst und anpasst, während dein Konkurrent alle drei in Angriff nimmt, ist letzterer grundsätzlich im Vorteil.
Sich also gegen diesen zusätzlichen Entwicklungsschritt bzw. -aufwand zu entscheiden, dürfte wohlüberlegt sein und hat i. d. R. dann zumeist wirtschaftliche Gründe, zumal der Druck im Consumer-Segment derzeit auch nicht übermäßig hoch ist. Als Häme gegen Intel taugt die Effizenz der Ryzen's durchaus immer, aber keiner wäre bereit mal eben 20 % mehr für eine CPU zu bezahlen, wenn die jetzt statt gemittelten 70 W nur noch 45 W verheizen würde. AMD wird von einem nennenswerten Teil des Marktes immer noch als Budget-Lösung gekauft, d. h. man erwartet hier günstiger als bei der Konkurrenz wegzukommen und das widerspricht derzeit zusätzlichen, übermäßigen Investionen, wie es bspw. eine neue oder zumindest stark überarbeitete Mikroarchitektur erfordern würde.
Aktuell kommt man voraussichtlich auch so noch gut mit und erst wenn der Marktdruck zu groß wird, wird man mit einem entsprechenden Design ums Eck kommen, das dann aus der nicht existente aber vielzitierten "Schublade hervorgeholt wird".
Ein erster Prüfstein wird bereits Meteor Lake sein, der durchaus das Potential hat insgesamt effizienter als alle Zen4-APUs zu sein und das obwohl die neuen Crestmont-E-Cores hier anscheinend eher nur einen kleineren architektonischen Sprung machen werden. Der Großteil der Effizienzsteigerung wird hier auf den Fertigungsprozess zurückzuführen sein (Intel 4, also ein 5/4 nm-Äquivalent) sowie auf das neue Design, dass es voraussichtlich ermöglicht das Compute Tile mit den Rechenkernen komplett zu deaktivieren und Niedriglast-Szenarios wie bspw. Videoschauen und Browsen komplett auf die beiden zusätzlichen LowPower-E-Cores im SoC Tile zu verlagern.
Ob überhaupt und wenn ja, wie weit man sich absetzen können wird, wird interessant zu beobachten sein. Der neue "Ultra"-Beiname ist jedenfalls eine naheliegende und sinnige Ergänzung, denn das Design wird zweifellos einen signifikaten Sprung machen. **)
Im 2HJ24 dürfte es dann richtig spannend werden, denn Arrow Lake S könnte Zen5 sehr unter Druck setzen, da hier nahezu alles neu sein wird.
So etwas gibt es nicht. Das was du meinst ist Zen4c, also das dicht gepackte 16-Kern-CCD in 4 nm, das dafür mit niedrigerem Takt, geringerer Verlustleistung und deutlich kleineren und langsameren Caches auskommen muss. Entsprechend kann man den Server "Bergamo" dann auch für Cloud-Betreiber mit 128 Kernen anbieten.
AMD könnte zweifellos einen modifizierten 7950X rausbringen und ein CCD gegen ein Zen4c-CCD ersetzen und somit einen 24-Kerner anbieten, jedoch ist der Markt im Consumer-Segment dafür aktuell sehr klein und AMD müsste eine solche CPU noch teuerer als den aktuellen 16-Kerner verkaufen, was den marktbedingten Preisnachlässen zuwiederläuft.
Ich würde vermuten, dass man etwas wie einen 24-Kerner voraussichtlich erst mit Zen5 zu Gesicht bekommt und das nicht einmal gesichert, da sich AMD diese Möglicheit vielleicht nur offen hält, denn wie gesagt, könnte AMD ein solches Design selbst jetzt noch bei Zen4 nachreichen ... was aber recht unwahrscheinlich sein wird.
*) Nach aktuellen Stand darf man vermuten, dass mit Zen6 das Ende der Mikroarchitektur erreicht ist. Danach wird vermutlich was komplett Neues vorgestellt werden, denn nirgends in der Gerüchteküche ist bisher auch nur als leises Geflüster was von einem Zen 7 zu hören.
**) Wobei das keine Wertung zum "Ultra" selbst war. Da hätte man auch ein "Super", "Mega" oder "Galactus" oder gar "Ti" nehmen können, wichtig und sinnig ist hier lediglich aus marketing-/vertreiebstechnischer Sicht, dass man die neue Produktserie auch deutlich absetzt und hervorhebt.
Man hätte ihn nicht als 8-Kerner, sondern als 4-Kerner vermarkten sollen.Der FX ist einfach nur ein Flop, es gibt kein Problem, mit irgendwelcher Optimierung, das Ding ist einfach nur schlecht.