Zen-CPUs: Auch AMD forscht an Big-Little-Design für zukünftige Modelle

Hör du doch einfach auf und ignoriere diese "AMD-Fans". Je länger man diese ignoriert, desto mehr verschwinden mit der Zeit. Aber nein, das Thema muss sofort wieder ausgepackt werden. Damit zeigst du, dass du nicht viel besser bist. Danke dafür..
Ignorieren macht die Leute insgesamt nur stärker. Dadurch bleibt ihnen keine Möglichkeit der Reflexion und sie glauben immer mehr Recht zu haben.
Richtig wäre, ihnen freundlich und auf Augenhöhe zu begegnen und versuchen eine Ernsthafte Diskussion zu führen bei der jeder aufeinander etwas zugeht - so lernen beide Seiten, dass es nicht Schwarz/weiß ist sondern alles immer Vor-und Nachteile hat.

Das gilt nicht nur für Forenuser natürlich ;)
Es gibt auch genug historische Beispiele wo eine Person zu lange ignoriert wurde
 
1: CPU Leistung ist angeblich nicht wichtig, da die GPU begrenzt. Das ganze ist allerdings erst so, seit AMD den Kürzeren gezogen hat, vor dem Core2Duo war es anders. Mit Zen3 wird man wohl eine Kehrtwende erleben können, die dann bei Rocketlake zurückgenommen wird und Zen4 eventuell wieder kommt.
2: Stromverbrauch ist nicht wichtig, so war es jedenfalls beim alten FX, seit Ryzen sieht es wieder anders aus.
3: Als Intel einen alten Dualcore einfach nur länger angeboten hat, gab einen Shitstrom (obwohl er garnicht für Endverbraucher gedacht war). Beim R5 1600 war es dann plötzlich toll, dass AMD sein Portfolio mit uralt CPUs vervollständigt hat.
4: Jahrelang wurde darüber hergezogen, dass Intel seine Boards so schnell einstellt und wieviel besser AMD doch wäre. Kaum hat AMD angekündigt, Zen3 nicht auf alten Boards zu unterstützen, schon haben alle AMD Fanboys das Lied vom "alte Zöpfe abschneiden" gespielt (bis AMD dann zurückgerudert ist).
5: Das gleiche wird jetzt auch hier passieren.

Das Forum ist eben sehr AMD lastig und es tummeln sich viele AMD Fanboys herum (das Fanboykriterum ist erfüllt, wenn objektive Nachteile schöngeredet werden).

Ich weise eben nur darauf hin, dass die AMD Fraktion hier eine Kehrtwerde nach der anderen hinlegt.

Ich glaube du übertreibst ein wenig.
Es gibt hier auch genug Intel- und Sonstige Fanboys, die ebenfalls ihre ganz speziellen Ansichten haben.
Wenn eine Firma ein gutes Produkt hat oder Sympathieträger ist, gibt es auch viel positives Gerede.
Und Intel hat sich in vielerlei Hinsicht zuletzt nicht von der allerbesten Seite gezeigt, wenn man allein schon an die über 100 Sicherheitslücken und diverse manipulierte Benchmarks und Marketingfolien mit fragwürdigem Inhalt denkt.
Nettes Detail am Rande: Die von dir angesprochenen FX sind sogar ggf. relativ effizient (also gut dabei), wenn die voll ausgelastet werden udn der Takt nicht so hoch geschraubt wird.
Intels Core Gegenstück hingegen ist anscheinend derzeit besonders effektiv, wenn er nicht voll ausgelastet wird.
Das erklärt auch, warum man die Intel in Benches 210/250 Watt glühen lassen kann, im idle und auch in vielen Spielen sind sie dann aber sogar besser oder in gleichen regionen wie AMD.
Da holt jeder für sich seine Rosinenstückchne heraus,w as ihm wichtig ist und wie er es sieht.
Und man muss immer bedenken, dass nicht jeder jede News und Fakten kennt, was so eine Meinungsbildung auch beeinflussen kann.
Sicherlich hat 80% der Leser eine der zahlreichen News über die wirklich orbitanten Maximalverbräuche von Intel gelesen, udn damals auch von AMD FX.
Andererseits wohl die Wenigsten über die sehr rar gesähten Informationen zu den Einsparmöglichkeiten bei sinnvoller Nutzung oder der Alltagsleistung.
So wissen bis heute wohl nur sehr wenige (holt sich keiner die Print?), dass die Vega56 bereits bei viel zu hoher Werkseinstellung mitunter effizienter sein kann als die 1070/1080 (letztere habe ich gekauft, weil Vega lange Zeit trotz Gerüchte udn Ankündigung nicht da war^^).
Das ist natürlich dann Gift für jeden NVidia-Fanboy. ^^
So denn, Pause rum. Weiter gehts.
 
Als erste muss man erstmal eine Zielgruppe für diese Art der CPUs finden. Bei Desktoprechnern wird man wohl die zusätzlichen Kosten, die bei der Entwicklung einer zweiten Architektur anfallen nicht, nicht durch Stromersparnis reinholen und auf Akkulaufzeiten achtet man eh nicht. Für die meisten Tablets dürfte der dagegen der starke CPU-Teil recht überflüssig sein. Die CPUs sollten sihc daher hauptsächlich für Notebooks und Convertibles eignen, mit denen man lange unterwegs ist, aber man gleichzeitig am Schreibtisch ordentlich Power haben möchte. Allerdings sind nunmal in einem sehr mobilen Gerät die Kühlmöglcihkeiten sehr begrenzt, sodass man eh keine besonders stromhungrigen CPUs verbauen kann. Dort ist dann die Frage, ob sich noch sparsamere Kerne wirklich lohnen.
 
Ignorieren macht die Leute insgesamt nur stärker. Dadurch bleibt ihnen keine Möglichkeit der Reflexion und sie glauben immer mehr Recht zu haben.
Richtig wäre, ihnen freundlich und auf Augenhöhe zu begegnen und versuchen eine Ernsthafte Diskussion zu führen bei der jeder aufeinander etwas zugeht - so lernen beide Seiten, dass es nicht Schwarz/weiß ist sondern alles immer Vor-und Nachteile hat.

Das gilt nicht nur für Forenuser natürlich ;)
Es gibt auch genug historische Beispiele wo eine Person zu lange ignoriert wurde

Meinst du den aktuellen Präsidenten der USA zufälligerweise? :ugly: Erst zu lange ignoriert und dann auch noch verteidigt
 
Wird beim Powergating gemacht. Das hat der R9 3900X schon.
Und Zen3 kann mit einem speziellen ClockGating sogar teile des Kerns die nicht gebraucht werden bei geringem Takt belassen.

Clockgating schaltet keine zusätzlichen Recheneinheiten gegenüber Powergating ab, sondern deren Taktsignal. Je nach Implementation kann man das ggf. als alternativen Pausierungsmechanimus nutzen, vor allem geht es aber um den erstaunlich hohen Stromverbrauch der Clock-Fabrics selbst. Damit stellt es aber ein gutes Beispiel für die Hintergründe von big.little dar: Die Ansteuerung moderner CPUs ist so komplex geworden, dass ihr Transistor- und Strombedarf gegebenenfalls auf dem Niveau der eigentlichen produktiven Recheneinheiten oder sogar darüber liegt. (Genaue Zahlen kenne ich nicht, aber Die-Shots und seinerzeit Bonnell gaben einen gewissen Einblick.)
Da man eine Verwaltung meist nicht teilweise abschalten kann, sondern entweder ganz oder gar nicht, sind die Möglichkeit zur Teildeaktivierung großer Kerne also beschränkt und irgendwann wird es einfacher, gleich einen kompletten Low-Power-Kern zusätzlich zu verbauen, dessen Overhead der eigentlichen Aufgabe angemessen ist. Schade, dass Intel Bonnell aufgegeben hat – ein In-Order-Design wäre eigentlich naheliegend für derartige per Definition nicht latenzkritische Tätigkeiten. Und man hätte dann automatisch einen garantiert Spectre-immunen Co-Prozessor. :-)


Könnte eine Motivation dieses neuen Ansatzes sein, dass SMT in der bisherigen Umsetzungen nicht sicher genug ist? Ob man vier Kerne mit SMT oder vier normale Kerne und vier schwächere hat, sollte im Gesamtergebnis ähnliches bringen. Warten wir doch ab, was erste Tests ergeben und bewerten dann nochmal fünf Jahre später, wenn sich das Big-Little Design in Programmierungen widerspiegelt.

SMT nutzt Lücken in Workloads mit ausgeprägten Lastspitzen, zusätzliche .little-Kerne sollen Workloads mit konstanter, niedriger Last übernehmen. Das ist quasi das komplette Gegenteil.


Edit: Durchschnitts-Leerlauf-Systemverbräuche gemäß PCGH-Mainboardtests
Sockel 1200 = 51,2 W (nur Z490)
Sockel AM4 = 62,5 W. Nur X570 = 67,6 W
alter Parcours (vor allem GTX1080 statt 5700XT)
Sockel 1151 = 36,5 W
Sockel AM4 = 43,3 W (ohne X570: 40,1 W)
Es gibt also durchaus Unterschiede im Leerlaufverbrauch selbst zwischen bestehenden Desktop-Systemen, die in ähnlicher Größenordnung wie die big.little Versprechen für mobile liegen.
 
Zuletzt bearbeitet:
Damit stellt es aber ein gutes Beispiel für die Hintergründe von big.little dar: Die Ansteuerung moderner CPUs ist so komplex geworden, dass ihr Transistor- und Strombedarf gegebenenfalls auf dem Niveau der eigentlichen produktiven Recheneinheiten oder sogar darüber liegt.

Wobei ich mal gesehen hab, das alleine die Cache und vor allem die RAM-Speicherzugriffe ein vielfaches an Strom verbrauchen, als die eigentlich Berechnung auf den ALUs. Weiß nicht mehr, ob das bei uns in der Vorlesung, oder irgendwann mal in der PCGH war.
 
In dieser Allgemeinheit auf alle Fälle nicht bei uns. Denn bei intensiven Rechenlasten schlucken die Kerne deutlich mehr Strom als der Speichercontroller und (Last-Level-)Cache ist sowieso der pro Fläche genügsamste Teil einer CPU. Im Sonderfall Leerlauf kann es natürlich anders aussehen, da nun einmal von Innen nach außen abgeschaltet wird. Dann verbrauchen die Kerne gar nichts mehr, aber der Speicher-Controller muss immer noch den ganzen Speicher Zugriffsbereit halten. Wir hätten aber sicherlich den Lastzustand in den Fokus genommen.
 
Wer sucht, der findet:
Cache_Energieverbrauch.png

War doch mal in der Vorlesung gewesen. Das wäre das in der Folie angegebene Paper als Originalquelle: https://tu-dresden.de/zih/forschung...benchit/2010_IGCC_authors_version.pdf?lang=de

Ist die Frage, wie sieht es heute 10 Jahre nach Westmere aus?
 
Zuletzt bearbeitet:
Hm also clockgaiting interessant. Was ist denn dann packing bzw parking , das kann nämlich eines meiner software. Was ist das denn und kann man da durch etwa auch stromsparen oder eher nicht?

Achja und beim Thema Stromverbrauch bei cache und Speicher. Das heißt ja dann umkehrt dann auch, je weniger RAM Speicher und somit die Bandbreite ich da so brauche, desto sparsamer ist dann der PC oder und wie erkennt man welche cache die Software so verwendet, gibt es denn da so ne Software womit man es auslesen kann auf welche cache welche Software drauf zugreift oder nicht?
 
Zuletzt bearbeitet:
Wer sucht, der findet:
Anhang anzeigen 1097821

War doch mal in der Vorlesung gewesen. Das wäre das in der Folie angegebene Paper als Originalquelle: https://tu-dresden.de/zih/forschung...benchit/2010_IGCC_authors_version.pdf?lang=de

Ist die Frage, wie sieht es heute 10 Jahre nach Westmere aus?

Vermutlich deutlich anders. Seit den ersten DDR3-Tagen wurde massiv am RAM-Stromverbrauch gearbeitet und die Fähigkeiten moderner ALUs wurden massiv weiterentwickelt.

Wenn ich mir das Paper so angucke, war es möglicherweise auch für seine Zeit nicht so repräsentativ, wie in der Folie dargestellt:
"...due to stability problems ... of our pre-production Intel machine ..."
"We ... control power management and ensure a fixed clock rate"
"... a fixed frequency is enforced by selecting the lowest P-state (P0) on the AMD system and the second lowest ... on the Intel system. This effectively disables the Intel Turbo Boost technology ..."
"The contribution of the workload to the energy consumption of the CPU is determined by using the estimated baseline power consumption ... Only the additional power consumed when actually executing instructions is attributed to the respective execution unit."

Verbrauchstest mit Vorserienmodellen? Mit deaktivierten Stromsparmechanismen? Der eigentliche Betrieb der ALU wird ausgeklammert? :D Am Ende wurde für Systeme, die im normalen Leerlauf 140-150 W verbrauchen, eine Baseline von 220 W vom Gesamtverbrauch abgezogen. Ich kann nicht beurteilen, wie relevant das Ergenis für die Fragestellung des Papers war, aber für den Gesamtverbrauch einer modernen CPU besteht gegebenenfalls gar keine Aussagekraft.



Hm also clockgaiting interessant. Was ist denn dann packing bzw parking , das kann nämlich eines meiner software. Was ist das denn und kann man da durch etwa auch stromsparen oder eher nicht?

Parking müsste sich eher auf die Ansteuerung durch die Software beziehen. Eine Funktionseinheit wird wegen zu erwartender oder geplanter Nichtverwendung abgestellt – wie das aber in Hardware umgesetzt wird, hängt dann vom jeweiligen Prozessor ab. Power Gating wäre die naheliegenste und verbreiteste Methode.
 
Zurück