Zen 5: AMD-Patent für Hybrid-Prozessoren behandelt Taskwechsel

Das könnte durch den I/O Die bei AMD durchaus der Fall sein. Ich habe jetzt nicht noch mal einen Test gelesen, aber rein auf die Kerne bezogen könnte seine Aussage stimmen (nicht CPU insgesamt).
 
Das könnte durch den I/O Die bei AMD durchaus der Fall sein. Ich habe jetzt nicht noch mal einen Test gelesen, aber rein auf die Kerne bezogen könnte seine Aussage stimmen (nicht CPU insgesamt).
Es genügt halt nicht, den höheren Energieaufwand alleine dem Interconnect zuzuschieben. Warum hat der I/O-Die keine P-States? Da liegt auf jeden Fall noch Potential brach.
 
Vielleicht stehen deshalb die weniger überzüchteten Zen 1 wie Ryzen 1600 und 1700 noch in der Effizienz recht gut da.
Die Kerne in alter Fertigung benötigen recht wenig Strom bedingt durch niedrigere Spannungen gegenüber den X-Modellen und der I/O Die ist Teil des CCD.
 
Zuletzt bearbeitet:
Was ich in Spielen nicht gerade als effizient bezeichnen würde ^^
Nicht unbedingt, aber mit 14nm und Kernen, die so groß wie Fußballfelder sind, ist das nicht schlecht. :D

8 schnelle und 8 langsame Kerne können NICHT so schnell sein wie 16 schnelle Kerne, jedenfalls wenns die gleiche Architektur ist. Was checkst du daran nicht?
Das kommt doch auf den Workload drauf an. wenn es keine Workloads gäbe, bei denen ein Little Core ungefähr so schnell wäre wie ein big Core, würde das Konzept keinen Sinn machen.
Sie sind nicht schief und ich habe dagegen keine Abneigung. Es macht im mid-high Core Count Desktopbereich aber für mich keinen Sinn und warum habe ich dir jetzt mehrfach erläutert.
Den Sinn muss es geben, sonst würde ein Konzern wie Intel nicht hohe Kosten in die Entwicklung stecken und dann für den Desktop launchen.
Leider doch. Alderlake gibt es nur im big.LITTLE Design.
Es wird auch SKUs ohne Little Cores geben.
 
Zuletzt bearbeitet von einem Moderator:
Intel CPU's sind in Teillastszenarien wie Gaming teils deutlich effizienter.

Auch wenn du den Schrotttest noch häufiger postest macht es die Aussage nicht richtiger. Es zeigt nur wie unfähig die Tester sind, zu denen du wohl auch gehörst?

Wenn man zwei Produkte testet dann tut man dies bei der exakt gleichen Kernanzahl und tut dies nicht mit einem 10 und einem 12 Kerner, sondern man verwendet jeweils zwei 8 oder 6 Kerner, da dies bei beiden Herstellern im Programm ist.
In deinem Schrotttest hast du nämlich noch die Inter DIE Kommunikation die mit in den Stromverbrauch mit einfließt und das ist einfach nur unseriös.
 
Wenn das Taskmanagement denn funktioniert, kann ich mir 2 bis 4 kleine Kerne auf 8 bis 12 große Kerne für laufende Windowsdienste oder Daemons recht gut vorstellen. Updates (Betriebssystem und BIOS) werden am Anfang aber evtl. zur wöchentlichen Aufgabe.
 
Wenn man zwei Produkte testet dann tut man dies bei der exakt gleichen Kernanzahl und tut dies nicht mit einem 10 und einem 12 Kerner, sondern man verwendet jeweils zwei 8 oder 6 Kerner, da dies bei beiden Herstellern im Programm ist.
Deine Maßstäbe sind leider keine allgemeingültigen Maßstäbe. Es gibt keine Gründe für eine strikte Kernnormierung. Warum auch? Es werden die Topmodelle verglichen und das ist völlig legitim. Das hieße außerdem in Konsequenz, dass man keine AMD CPU mit dem 10900K vergleichen kann. Alleine dieser Umstand sollte die eigene Argumentation überdenken lassen.

In deinem Schrotttest hast du nämlich noch die Inter DIE Kommunikation die mit in den Stromverbrauch mit einfließt und das ist einfach nur unseriös.
Ja, der fließt mit ein, weil AMD die CPU nun mal so designt hat. Beschwerden bitte an die Ingenieure von AMD richten und nicht an die Tester.
 
Zuletzt bearbeitet von einem Moderator:
Im Zweifelsfall werden in Zukunft bisher theoretische 6+4 Kerner und normale 8 Kerner verglichen, wenn beide in der selben Preisklasse sind. Da geht es nicht mehr um Leistungsklassen, sondern einfach um "CPUs zwischen 250 und 400€" bespielsweise.
 
Im Zweifelsfall werden in Zukunft bisher theoretische 6+4 Kerner und normale 8 Kerner verglichen, wenn beide in der selben Preisklasse sind.
In einem Effizienzranking wird ja auch schlicht alles mit allem verglichen. Es gib keine guten Gründe für eine künstliche Restriktion, außer natürlich das eigene Unbehagen wegen der Ergebnisse. Es ist natürlich bitter, dass Intel bis zu 50% effizienter ist mit einer alten Architektur und einem alten Fertigungsverfahren.
 
In einem Effizienzranking wird ja auch schlicht alles mit allem verglichen. Es gib keine guten Gründe für eine künstliche Restriktion, außer natürlich das eigene Unbehagen wegen der Ergebnisse. Es ist natürlich bitter, dass Intel bis zu 50% effizienter ist mit einer alten Architektur und einem alten Fertigungsverfahren.
Nur, wenn man Intel Fanboy ist, oder?
 
Nur, wenn man Intel Fanboy ist, oder?
Wie meinst du das? :confused:
Das kommt doch auf den Workload drauf an. wenn es keine Workloads gäbe, bei denen ein Little Core ungefähr so schnell wäre wie ein big Core, würde das Konzept keinen Sinn machen.
Ein kleines Selbstzitat. Ich muss das ein wenig erweitern. Wenn man eine Regel definieren will, quasi das big.LITTLE Gesetz oder Prinzip, dann ginge das ungefähr so.

Das gauss'sche big.LITTLE Effizienzprinzip
Die Ausführung eines Tasks auf einem LTTLE Kern statt auf einem big Kern ist genau dann vorzuziehen (Scheduling Priorität), wenn die relative Energieersparnis größer ist als der relative Performanceverlust.

Das fand ich als allgemeines Effzienzgesetz richtig gut bis gerade eben... ^^ Dann fiel mir ein, dass es eine Ausnahme gibt. Wenn nämlich ein Task zwar wesentlich länger braucht, aber parallel ausgeführt wird und nicht zeitkritsch ist, kann der dieser auch verschoben werden auf einen LITTLE Kern. Beispiel: Während man zockt, macht irgendein Windows Dienst irgendein Gedöns, das schneller auf einem big Kern liefe, aber überhaupt nicht zeitkritisch ist. Das obige Gesetz ist also gar nicht so allgemein.
 
Zuletzt bearbeitet von einem Moderator:
@gaussmath: Der Graphtyp bzw. die Zusammenfassung der unterschiedlichen Kategorien ist arg gewöhnungsbedürftig, ich würde hier bspw. folgendes bevorzugen mit deinen Daten:

cmp_watt_and_fps_1440p.png


Auffällig ist hier die horizontale Verschiebung (Watt), während sich vertikal (Fps) bei dieser Titelauswahl nur wenig tut.
Überraschend ist das aber auch nicht, da AMDs 2-CCD-Chips in Bezug auf Gaming vergleichsweise ineffizient sind, weil die CPU-Auslastung zu gering ist, d. h. der relative Leistungszugewinn in Relation zu den Watt ist relativ gering. Beispielsweise in einem anderen Test mit fordernden Grafiksettings beobachtet man bspw. in Borderlands 3 in 1440p mit Badass Quality:
R9 5950X142,991,5
R9 5900X143,381,2
R7 5800X143,459,6
i9-11900K144,195,7
i7-11700K144,095,2
i9-10900K144,676,4
(Daten von Igor)
Ist man hier irgendwie grün angehaucht, sollte man von den 2-CCD-Ryzen's und auch von Rocket Lake eher die Finger lassen. Leider habe ich bei Igor auf die Schnelle nichts zum 10700K gefunden, es bleibt jedoch zu vermuten, dass das alte Skylake-Design hier in etwa auf Augenhöhe mit dem 5800X liegen wird.
Bei AMD zerschießt insbesondere das zweite CCD die Effizienz, bei Intel ist es der 14nm-Prozess, der nicht mehr ausreicht, wenn man eine leistungsfähigere Architektur wie Sunny/Cypress Cove verwendet, die natürlicherweise mehr zieht (denn mehr Durchsatz gibt es nicht umsonst).

Anmerkung: Unsinnig ist ein Vergleich des 10-Kerners mit AMDs 12-Kerner dennoch nicht, denn Intels Topmodell liegt nun einmal kerntechnisch dazwischen und es gibt kein genaues Gegenstück von AMD. Dennoch werden viele Enthusiasten zum 10-Kerner gegriffen haben, wie man auch auf Steam beobachten konnte, denn hier steigerten sich die 10-Kern-CPU-Stückzahlen signifikant seit 2Q20 und die waren in dem Falle ausschließlich auf Comet Lake zurückzuführen, da zu der Zeit wohl kaum noch einer einen Core X gekauft haben wird. Beispiele:
Mai 2020Dezember 2020Mai 2021
10-Kerner0,08 %0,34 %0,64 %
12-Kerner0,37 %0,67 %0,99 %
16-Kerner0,10 %0,15 %0,25 %
 
Zuletzt bearbeitet:
@gaussmath: Der Graphtyp bzw. die Zusammenfassung der unterschiedlichen Kategorien ist arg gewöhnungsbedürftig, ich würde hier bspw. folgendes bevorzugen mit deinen Daten:
Du bist nicht der erste, der sich darüber beschwert hat. :D

Ist man hier irgendwie grün angehaucht, sollte man von den 2-CCD-Ryzen's und auch von Rocket Lake eher die Finger lassen. Leider habe ich bei Igor auf die Schnelle nichts zum 10700K gefunden, es bleibt jedoch zu vermuten, dass das alte Skylake-Design hier in etwa auf Augenhöhe mit dem 5800X liegen wird.
Könnte man vermuten, aber ich denke, dass der 5800X mit steigender Auflösung immer noch deutlich mehr zieht, wegen I/O-Die und IF.
 
Zuletzt bearbeitet von einem Moderator:
"Beschweren" würde ich jetzt nicht sagen ... eher eine Anmerkung ... ;-) Immerhin hast du dir hier mal die Arbeit gemacht und die Daten zusammengetragen.
Angesichts der Tatsache, dass der 5800X sich mit seinem nur einem CCD jedoch verbrauchstechnisch deutlich anders verhält in einem mittleren Lastszenario wie Gaming, wäre es natürlich schön, wenn noch ein Update folgen würde. Blöderweise würde ich dann aber auch hier weiterführend darauf hinweisen wollen, dass zwischen RKL und CML als 11700K und 10700K ebenso durchaus beträchtliche Unterschiede zu erwarten sind, die sich absehbar im Verbrauch deutlich niderschlagen werden ... ich weiß ... das ist die Geschichte mit dem kleinen Finger und dem ganzen Arm. :-D

Ergänzend, weil ich es gerade unten sehe: Den Header "Ist 7nm nun effizienter als 14nm?" würde ich umformulieren, denn der erscheint mir bestenfalls provokant aber nicht sachlich korrekt gewählt, denn die Frage stellt sich gar nicht, da TSMCs N7 grundsätzlich effizientere Designs ermöglicht als Intels 10nm+++ alias P1272.
Der Autor stellt hier ja auch keinen Prozess- sondern einen CPU-Vergleich an und hierbei ist der Prozess nur ein Teil des Gesamtbildes (bei AMD gleich umso mehr, da nicht einmal die ganze CPU im N7 gefertigt wird). Der Absatz erscheint mir inhaltlich ok, den Titel finde ich unnötig provokant bzw. in die Irre leitend, aber vielleicht wurde der ja auch absichtlich in der Art gewählt, um den geneigten Leser auch noch den letzten Absatz durchlesen zu lassen. ;-)

Einzig das "Fazit" im letzten Absatz erscheint unvollständig, aber da der Blogeintrag bisher keine Daten zu dem sich deutlich abweichend verhaltenden R7 5800X liefert, erscheint das hinnehmbar. Abgerundeter wäre es dennoch, wenn man einen Vorausblick auf diesen geben würde und zumindest schon einmal grob skizzieren würde, dass sich das Bild hier absehbar ändern wird.


Ergänzend zu obigem "Effizienzprinzip": Die letztgenannte Überlegung muss nicht nur für externe Prozesse gelten sondern kann auch auf Threads innerhablb einer Game-Engine übertragen werden. Physik und KI nehmen bspw. einen deutlich kleineren Anteil an der Gesamtrechenzeit/last eines Frames in Anspruch, d. h. wenn man hier zusätzliche Kerne hat, ist es natürlich von Vorteil, wenn man diese Threads gar komplett auslagern kann auf bspw. einen kleinen, effizienten, langsameren Kern. Die Überlegung einen komplett eigenständigen Kern für derartige Threads zu beanspruchen, kann natürlich auch auf FullSize-Kern-CPUs mit vielen Kernen übertragen werden, nur absehbar werden die kleinen Kerne hier diesen Workload effizienter berechnen, während auf ersterer CPU ein weiterer großer Kern veranschlagt wird, der dann nicht den Ruhemodus geschickt werden kann und die erzielten Einsparungen auf dem big.LITTLE-Design kommt am Ende der gesamten CPU zugute, entweder weil man sparen will oder weil man die freien Energieressourcen für mehr Takt verwenden kann.
Am Ende ist hier vieles Denkar, hier wird man abwarten müssen wie sich das über die Zeit entwickelt, aber ganz offensichtlich handelt es sich bei der Technologie um kein Experiement oder eine Art Eintagsfliege, wie von manchen suggeriert (oder erhofft?).
 
Zuletzt bearbeitet:
Ergänzend, weil ich es gerade unten sehe: Den Header "Ist 7nm nun effizienter als 14nm?" würde ich umformulieren, denn der erscheint mir bestenfalls provokant aber nicht sachlich korrekt gewählt, denn die Frage stellt sich gar nicht, da TSMCs N7 grundsätzlich effizientere Designs ermöglicht als Intels 10nm+++ alias P1272
Das ist schon absichtlich so "provokant" formuliert, denn am Ende soll der Umstand hervorgehoben werden, dass der Fertigungsprozess alleine nicht über die Effizienz entscheidet, denn die Architektur selbst ist genauso wichtig.
Am Ende ist hier vieles Denkar, hier wird man abwarten müssen wie sich das über die Zeit entwickelt, aber ganz offensichtlich handelt es sich bei der Technologie um kein Experiement oder eine Art Eintagsfliege, wie von manchen suggeriert (oder erhofft?).
Eine Eintagsfliege ist es nicht, alleine weil AMD mit Zen 5 auch einen auf heterogen macht. Den Leuten fehlt halt die Idee dahinter, warum das sinnvoll sein könnte. Mir fiel das auch schwer, einen Sinn darin zu sehen, weil ich mir dachte, dass man Kerne ja auch einfach runtertakten könnte und ein paar Watt im Desktopbereich spielen keine Rolle. Aber mit dem oben formulierten Effizienzprinzip und der Möglichkeit, dass effizientere Kerne mehr Powerbudget für die big Kerne freischaufeln können, schaue ich optimistischer auf die Sache.
 
Zuletzt bearbeitet von einem Moderator:
Ich hoffe sehr amd bleibt bei den Desktop CPUs bei normalen CPU Kernen!
Mir ist auch völlig egal ob die CPU 50 Watt mehr oder weniger benötigt bei Teillast. Big Little kann gerne in Notebooks usw. kommen, aber Bitte nicht im Gaming PC.
 
SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen. Leider hat die Mehrheit der Kunden das Prinzip nicht verstanden (obwohl ich extra einen Test gemacht habe^^) und da die Technik allgemein und 3,5-Zoll-Modelle extrem spät dran waren, konnte sie keinen Durchbruch erlangen bevor SSDs billig genug wurden.
Ich denke der Vergleich mit Hybrid - Prozessoren hinkt auch ein bißchen. ;)
 
Zurück