News AMD Ryzen: Hybrid-Prozessoren sollen nicht Intels Ansatz folgen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Ryzen: Hybrid-Prozessoren sollen nicht Intels Ansatz folgen

Laut einem leitenden AMD-Mitarbeiter will das Unternehmen für Hybrid-Prozessoren einen anderen Ansatz als Intel verfolgen. Bei kommenden Ryzen-Prozessoren dürften die P- und E-Kerne damit deutlich ähnlicher sein, als das bei der Konkurrenz der Fall ist.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Ryzen: Hybrid-Prozessoren sollen nicht Intels Ansatz folgen
 
Einfach nur niedriger takten macht die CPU zwar sparsamer, verringert aber eben auch die Leistung. Der Grund für spezielle E-Cores liegt darin, dass man diese auf Flächen- und Stromverbrauch optimieren kann. Dadurch sind sie nicht nur effizienter, sondern man erhält auch deutlich mehr Kerne pro Fläche. Dadurch hat man dann bei gleicher Die-Größe nicht weniger, sondern mehr Multithread-Leistung.
 
oder man macht so das die einen Kerne weniger Cache und Takt haben,die anderen mehr Takt und mehr Cache.Durch das erhalten alle das gleiche level und auch mehr Multi Thread Leistung.Für Anwendung die dann mehr Threads Nutzen kann,ist das dennoch ein Gewinn.Nun ich lasse mich da mal überraschen.Und auch welcher Cache so alles halbiert wird.ALso ich denke mal L3 Cache braucht wohl den meisten Platz,L1 und L2 wird man nicht so viel Platz sparen können.Oder doch,das werden wir ja noch sehen.
 
Wenn man alle Caches runter skaliert und dann entsprechend nur Kerntakte fährt die man mit dem kleineren Cache (ergo hauptsächlich aus dem RAM) versorgen kann, dürfte so ein Effizienzkern vorallem deutlichst niedriger takten. Wahrscheinlich kann man dann auch die Recheneinheiten physikalisch etwas schrumpfen, wenn sie nur mit z.B. 2GHz laufen müssen.
 
stimmt eines ist klar mit dem sinken der Cache größe wird Ramtakt wieder ne Rolle spielen.Wenn man da dann mit sehr hohen Ramtakt fährt,wird es da wieder massive Leistungssteigerungen geben.Aber nur wenn durch das reduzieren des Caches,der Ram anfängt zu Limitieren.Dann ist das so,dann müsste aber AMD dafür sorgen das sehr hoher Ramtakt auch die Plattform erlaubt.Dann sehe ich da überhaupt kein Nachteil.
Es wird schon 3 ghz ausreichen,denke mal nicht das AMD hier nur mit 2 ghz fahren wird.weil dann würde man ja die leistung massiv kanabilisieren.Aber so 3 ghz kann man schon zufrieden sein.Und die anderen Kerne,entweder 4 oder halt 4,8 ghz.Je nach dem was wie AMD machen wird.
Denke mal damit fahren die ganz sicher keine so hohen Taktraten weil dann die Abwärme bekäme man sonst nicht so gut abgeführt und der Stromverbrauch wäre kaum in den Griff zu bekommen.
Das extra mehr an Kernen,sehe ich drauf schon nen Gewinn an Leistung.
Aber nur wenn es so sein wird,wie ich das so geschrieben habe.Anonsten gibt es nicht recht viele andere Optionen.Das der takt dann nicht mehr über 5 ghz kommen wird bei allen Kernen generell,ist für mich kein Problem.Dann wird wenigstens die Hitze unter Kontrolle gebracht.Wie gut das Funktioniert,sieht man ja bei den Threadrippern sehr gut.Erst letzens nen Threadripper 5965 mit 4,6 ghz per Luftkühler wie Noctia NH D15 auf nur maximal 80 Grad gekommen.
Also mit der Aktion wird die Fläche größer und die CPU bleibt Kühler.Dann noch die Aktionen wie ich schrieb und man hat im grunde genommen schon gewonnen.Ob die Preise weiter so niedrig bleiben,bin ich mir da nicht sicher.
Aber gut das werden wir ja eh noch früh genug sehen.
 
Einfach nur niedriger takten macht die CPU zwar sparsamer, verringert aber eben auch die Leistung. Der Grund für spezielle E-Cores liegt darin, dass man diese auf Flächen- und Stromverbrauch optimieren kann. Dadurch sind sie nicht nur effizienter, sondern man erhält auch deutlich mehr Kerne pro Fläche. Dadurch hat man dann bei gleicher Die-Größe nicht weniger, sondern mehr Multithread-Leistung.
Ja, es wird unheimlich viel Fläche und auch Energie aufgewendet, um die Singlethreadleistung zu erhöhen, da hängt ein Riesenapparat dran, den man großteils einstampfen kann, wenn es hauptsächlich darum geht viele Rechenoperationen pro Fläche und/oder Energie zu bewältigen, als darum, dass ein einzelner Thread möglichst schnell verarbeitet wird. Das extreme andere Ende von modernen CPU-Leistungskernen aus gesehen wäre einer GPU recht nahe. Intels Larrabee wäre in die Richtung gegangen.
 
ja nur ob das so den Anwendung schmecken würde mit dem Larrabee,wobei wenn sich das damals durch gesetzt hätte,wären CPUS auch super schnell und flexible als jetzt gewesen.Mal sehen was sich AMD da so einfallen lassen wird.Bleibt auf jedenfall spannend das ganze.
 
Hm, ja aber was bringt mir die gleiche IPC wenn die Cores eh runtertakten werden, weil sie einfach weniger Leistung zur Verfügung haben. Erschließt sich mir jetzt irgendwie nicht. Der geringere L3 Cache wird aber, wenn auch nur wenig Einfluß (in meisten Anwendungen) auf die Leistung haben.. Es ist aber schon richtig, dass Golden bzw. Raptor Cove und Gracemont grundsätzlich unterschiedliche Architekturen sind, aber das Featureset ist bis auf AVX-512 identisch und im Clientbereich wo eigentlich garnicht mehr mit Maschiensprache programmiert wird imho kein Problem.
Wenn man jetzt böse wäre, könnte man sagen, AMD redet sich hier die Entscheidung keinen neuen Energiespar-Kern zu entwickeln schön. Aber ich denke dass ist einfach zu kurz gedacht. Ich denke AMD hat im Thema Effizienz mit Zen 4 bzw. dann Zen 4c ein heißes Eisen im Feuer. Aber wie heiß es ist, werden wir erst sehen, wenn die ersten CPUs mit zwei gleichen aber doch unterschiedlichen CCDs rauskommen...
 
aber das Featureset ist bis auf AVX-512 identisch und im Clientbereich wo eigentlich garnicht mehr mit Maschiensprache programmiert wird imho kein Problem.
Ich bin mir nicht sicher wie dynamisch ein JIT-Compiler das hin bekommt, aber jede kompilierte Applikation, welche damit rechnen muss jederzeit auf den Sparkern geschickt zu werden, darf so effektiv nicht mit AVX-512 Nutzung kompiliert werden. Und Programme die als fertiges Kompilat ausgeliefert werden gibt es insbesondere bei Windows dann doch noch ein paar.
 
Einfach nur niedriger takten macht die CPU zwar sparsamer, verringert aber eben auch die Leistung. Der Grund für spezielle E-Cores liegt darin, dass man diese auf Flächen- und Stromverbrauch optimieren kann. Dadurch sind sie nicht nur effizienter, sondern man erhält auch deutlich mehr Kerne pro Fläche. Dadurch hat man dann bei gleicher Die-Größe nicht weniger, sondern mehr Multithread-Leistung.
Das ist im Artikel erwähnt, durch eine Verringerung des Caches könnte man die Kerne kleiner halten, durch Taktsenkung die Effizienz auf Trab bringen. Man muss ja nur schauen, wie effizient bspw. ein 64Core ist, letztlich nur wegen des geringen Taktes.
 
Ich hoffe, dass es keine Cinebench-Beschleuniger gibt, wie bei intel. Ich will in Zukunft weiterhin einen sinlge-CCD Ryzen mit ordentlich Cache kaufen könnnen, wenn ich schon schon keinen HBM haben darf.

Und wenn, bitte abschaltbar, mir graut es vor diesen E-Cores, ich halte das immer noch für Verzweiflung und eine Schnapsidee.
Die brauchen in einem der CCX die Kerne doch einfach nur niedriger takten lassen. Schon ist die CPU sparsamer, in Multithread-Anwendungen aber immer noch konkurrenzfähig. Die aktuellen 3D-V-Cache-Modelle zeigen das sehr gut.
Genau das. Einfach abschalten bei Nichtgebrauch und unter Last eben nicht mit der Brechstange die letzten paar hundert MHz rauskloppen. Schon sind die Cores sehr viel effizienter. Niemand braucht "E-Cores", schon die Bezeichnung ist der absolute Marketing-BS.
 
Zuletzt bearbeitet:
Vermutlich wird dann wieder die gesamte Chiplet-Zuordnung über eine Windows-App vorgenommen? Was ist es dieses Mal? Xbox Game Bar? Candy Crush oder doch das MSN Wetter?

Mal ehrlich AMD. Es kann nicht sein, dass eine Windows-App sagt, was eine CPU jetzt für Kerne nutzen soll oder nicht. Ich sehe es jetzt schon kommen, wenn die Systeme erst einmal vier, fünf Jahre auf dem Buckel haben, interessiert AMD der Support einen Dreck und die Kernzuordnung gerät vollkommen durcheinander und ist somit schlicht nutzlos bis kontraproduktiv.
 
@Pokerclock
Ich glaube, du siehst das zu eng. Du kannst inzwischen in jedem UEFI unter CPPC die Einstellung vornehmen, dass bevorzugt die 3D-Cache-Kerne genutzt werden sollen, ganz ohne Windows, Candy Crush und Co. ;)
 
ja so niedrig wie bei dem 64 Kerner bringt mir leider nix ,auch wenn mir die mehr kerne beim 32 kerner zum 16 Kerner durchaus 10% mehr Leistung bringt.Aber durch den geringeren CPU Takt sinkt der Vorteil ja wieder,Am ende ist es bei mir ein Plus -Minus mehrleistung kann man so sagen.

Oder das von AMD wird standard werden.Bei den 16,12 kerne mit extra Cache oder zum 16 Kerner einen 8 Kerner mit extra Cache und geringerem CPU Takt.Also Sprich 8 Kerne mit extra L3 bei 4 ghz und 16 Kerne mit 4,5 .5 ghz, Beim 12 Kerner dann teildefekte Kerne also 4 extra Kerne mit extra L3 Cache.Beim 8 Kerner standard L3 Cache oder halt mit 2 Versionen also teildefekt weil L3 Cache nicht hingehaut hat.Beim 6 Kerner gibt es nur noch die defekten 8 Kerner.
Oder aber AMD macht das anderst und nicht so wie ich das beschrieben habe,das wird sich noch zeigen müssen.
 
Zuletzt bearbeitet:
Ich hoffe, dass es keine Cinebench-Beschleuniger gibt, wie bei intel. Ich will in Zukunft weiterhin einen sinlge-CCD Ryzen mit ordentlich Cache kaufen könnnen, wenn ich schon schon keinen HBM haben darf.

Und wenn, bitte abschaltbar, mir graut es vor diesen E-Cores, ich halte das immer noch für Verzweiflung und eine Schnapsidee.

Genau das. Einfach abschalten bei Nichtgebrauch und unter Last eben nicht mit der Brechstange die letzten paar hundert MHz rauskloppen. Schon sind die Cores sehr viel effizienter. Niemand braucht "E-Cores", schon die Bezeichnung ist der absolute Marketing-BS.
Komm schon die Atom sind doch niedlich. In klassichen CPU Workloads auch sehr effizient und takten auch nicht besonders hoch eigentlich. Wobei man sie tatsächlich auch per Knopfdruck abschalten kann.

Ich denke Intel ist auch klar das man von TSMC überrundet wurde, warum sollte AMD jetzt beim Chipdesign irgend einem Ansatz folgen, selbst Intel fängt ja schon an zu kleben :ugly:.
 
Denke, das größere Problem sind eher die Anwendungen und Games, die davon kaum was nutzen. Dass die Hardware das kann, ist ja eine Sache, aber wenn die Software die Hardware nicht richtig nutzt, bringen diese ganzen E-Kerne auch nicht viel.

Ich sehe es doch an meinem 13900K Prozessor. Mit CB R23 werden alle Kerne voll ausgelastet und hier macht es auch was aus, ob die E-Kerne mit laufen und in Games kann ich sie ganz weglassen und es macht sich gar nicht bemerkbar. Zumindest habe ich noch nicht eindeutig ersehen können, wann sich die E-Kerne bemerkbar machen.
(Benchmarks & Stresstests ausgenommen.)

Ich sehe es doch an meinem 13900K Prozessor. Mit CB R23 werden alle Kerne voll ausgelastet und hier macht es auch was aus, ob die E-Kerne mit laufen und in Games kann ich sie ganz weglassen und es macht sich gar nicht bemerkbar
Wobei ich das jetzt nicht 100 % aussagen kann, da ich da nicht viel getestet habe und ehe Windows 11 am Laufen habe. E-Kerne sollen ja mit Windows 11 besser ansteuert werden. Mein System läuft auch soweit sehr gut und so habe ich auch noch nie so richtig danach geschaut. Aber ich denke dennoch, dass Software E-Kerne nicht richtig nutzen wird.
 
Zuletzt bearbeitet von einem Moderator:
Also ich habe da schon nen nutzen aus die e Kerne gezogen. Auch wenn es nicht so viel war wie ich mir gedacht hätte. Zudem verhielt es sich alles sehe merkwürdig. Denke mal es wird die Mischung aus Windows 11 mit dem Programm sein,dann noch ungerade Kern Anzahl, der geringere cpu takt auf die e Kerne und schwups kommt ein ungleiches Ergebnis dabei raus. Kaum senkte man sehr stark durch Strom drosselung sank bei Intels cpus sehr stark die leistung. Ich vermute mal das hängt damit zusammen das meine Anwendung sehr gut mit takt skaliert. Und genau die großen Kerne hier alles getragen hatten. Durch die Strom limtierung der tskt sehr stark a gesunken ist. So das die Leistung ins bodenlose gefallen war
Ich hoffe doch AMD macht nicht den selben Fehler wie Intel. Bei mir ist klar cache limtierend scheine ich nicht mehr zu sein. Und der RAM takt bzw Leistung wird immer besser. Darum profitiere ich immer weniger von guten RAMtakt.
Wenn man freilich den Cache sehr stark reduziert, gehen die wege wieder mehr über den RAM.

Da ja ddr5 mit 6000 MHz schon bei der Bandbreite mit ddr4 Quadchannel 2133 MHz mithalten kann, sehe ich da keine Bedenken mehr. Es hat sich also was geändert gehabt. Ein test mit reduzierten Cache und hohen ram takt vs niedrigeren RAM takt als vergleich will ich dann schon sehen ob ich mit meiner Vermutung recht liege.

Wenn das stimmt müsste ich mit hohen CPU takt, gespart mit hohen RAM takt sowie doppelt so viele Kerne aber mit halbierten cache dennoch um einiges mehr leistung erhalten können.
Ich würde also die eh schon gute hitrate nicht Gefährden. Alleine bei meinem 5950x ist die missrate schon bei 0,05 % auf den l1 cache zu l2.
Das kann also die Halbierung mir damit nicht mehr nehmen.
Somit schadet mir also weniger cache nicht mehr wirklich.

Das es zwischen 5700g zu 5800x der Fall war liegt halt an den wenig kernen und wohl noch an weiteren Faktoren die ich dann bei richtigen testen auch merken werde, wenn es so weit ist.

Also AMD ich bin mit euren reduzierten cpu also offen und freue mich auf die guten Ergebnisse.
 
Zurück