• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Zen 5: AMD-Patent für Hybrid-Prozessoren behandelt Taskwechsel

gerX7a

Software-Overclocker(in)
@owned139: Ich denke wir lassen das und ja, folge ich deinen diversen Post, dann scheint mir das bei dir weit über eine technisch nüchterne Betrachtung hinauszugehen, aber das kannst du natürlich halten wie du willst. Bezüglich meiner Argumentation habe ich mich, denke ich, verständlich ausgedrückt. Wenn du der nicht folgen kannst (wobei das nicht gleichbedeutet ist mit einer Meinung zu sein) ...

Als abschließender Kommentar: Letzteres ist allem Anschein nach falsch, da es auch ADL-Versionen ohne (oder mit abgeschalteten) Gracemont-Kernen geben wird, d. h. man wird voraussichtlich sehrwohl auch ein X+0-Design kaufen können *) und wenn es dieses gar als 8-Kerner geben sollte, dürfte das absehbar die derzeitigen Achtkerner hinter sich lassen.
AMD kommt schließlich nicht ohne Grund auf die Idee im nächsten Jahr den V-Cache auf die Topmodelle zu bringen, denn das wird Packaging-technisch teuer für sie (absehbar hatten sie diese Möglichkeit vorerst primär für eine Aufwertung von Milan vorgesehen, haben sich nun aber anscheinend umentschieden und deshalb wohl auch im letzten Jahr Warhol aufgekündigt, weil ein Minor-Architekturrefresh gegen Intel wohl nicht genug gewesen wäre).

*) Wobei sich mir dann aber hierbei die Relevanz bzgl. deiner Person stellt, denn wenn du mit dem 5950X zufrieden bist, kann dir doch vollkommen egal sein, was Intel mit seinem Portfolio macht.
Und mit Zen4 scheint es zudem auch eine gewisse Wahrscheinlichkeit füreinen 24-Kerner auf der Consumer-Plattform zu geben ... insofern könntest du das ganze Thema auch schlicht komplett ignorieren und bis das AMD betreffen wird, ziehen ja anscheinend noch zwei bis drei Jahre ins Land, da ist also dann noch Zeit genug sich aufzuregen. ;-)


@Pu244 , Ergänzung: APUs mit nur einem CCX und zusätzlich reduziertem L3$, was schlicht daran liegt, dass AMD das Design aus ressourcen-/kostengründen für Mobile und den Desktop gleichermaßen verwendet und insbesondere bei ersterem zählt jedes Watt.

"Zocker sind ein Minderheit, die eher wenig interessiert. Traurig, aber wahr." Lol, warum traurig ... ist schlicht so. Mit den Abermillionen PCs die jedes Quartal verkauft werden, wird größtenteils anderes gemacht. Was sollte daran schlimm sein, dass "wir" nicht der Nabel der Welt sind. ;-)

"Einerseits hat ihnen Apple wohl in den Hintern getreten (dass Alderlake so spät kommt, dürfte wohl vermutlich der Grund sein, warum Apple die Sache selbst in die Hand genommen hat)"
Das bezweifel ich übrigens stark. Für Apple dürfte es primär darum gehen unabhängiger zu werden und die Wertschöpfungskette weiter unter Kontrolle zu bekommen. Wäre Intel mit konkurrenzfähigeren Produkten schneller im Markt gewesen, hätte sich die Entwicklung bei Apple bestenfalls verzögert, "abgeseilt" hätten die sich so oder so. AMD haben sie ja ebenso kategorisch links liegen lassen und werfen jetzt mittelfristig auch deren letzte Reste aus dem Portfolio mit der Entwicklung einer eigenständigen GPU-IP. Die wollen einfach alles möglichst selbst entwickeln und fertigen, um mit höheren Margen arbeiten zu können.
 
Zuletzt bearbeitet:

geist4711

Software-Overclocker(in)
ganz pragmatisch:
wenn ich auswählen kann, ob ich eine CPU nehme mit big-little oder rein 16 big-kerne, dann nehm ich die 16 'ganzen kerne' weil 16 big/little IMMER langsamer sind als 16-nur-big kerne.
gäbe es von intel die selbe CPU nur mit big-kernen, würde man sicher sehen können, das die kunden auch ehr zur 'nur big-kerne' greifen werden, was nicht falsch ist.

kann natürlich sein, das ich damit falsch liege ABER,
DAS muss mir intel erstmal beweisen,
das dieser big-little-quark wirklich besser ist, selbst im mobilbereich bin ich davon nicht überzeugt.
 

hrIntelNvidia

Software-Overclocker(in)
.Wie gesagt: es geht hier nicht um die volle Auslastung, sondern um mittlere bis niedrige Last. Irgendwie ist das hier für einige ein Problem, das die Vorstellungskraft übersteigt, aber es gibt viele Szenarien, in denen die CPUs nicht auf Anschlag ausgelastet werden. Dort hat Intel schon jetzt seine Stärken und dort werden die kleinen Kerne wichtig.
Die 105 und 125 Watt liegen ja nicht bei Volllast an…
 

gerX7a

Software-Overclocker(in)
@geist4711: "kann natürlich sein, das ich damit falsch liege" ... wahrscheinlich hast du mit dieser Annahme recht. :-D
Vorweg: Intel wird das implizit durch die Veröffentlichung der konkreten Produkte beweisen, oder auch nicht, aktuell müsstest du jedoch versuchen deine getätigten Aussagen zu beweisen. ;-)
a) "immer langsamer" kann hier nicht mit Sicherheit bestimmt werden, da hier Produkte unterschiedlicher Hersteller mit unterschiedlichen Mikroarchitekturen und unterschiedlichen Eigenschaften verglichen werden (und die Karten werden mit jedem Jahr und jeder neuen Produktgeneration neu gemsicht). Ein hypothetisches worst case Beispiel: Die großen Kerne sind 25 % schneller als die großen Kerne der Konkurrenz und die kleinen Kerne sind gerade mal 10 % langsamer als die großen der Konkurrenz. Bei einem symmetrischen 8+8-Design i. V. z. zu einem 16-Kerner der Konkurrenz ... ein pauschales "immer" ist hier nicht zulässig.
b) Das "wenn ich wählen könnte" impliziert, dass es kleinerlei andere Unterscheidungskriterien und produktrelevante Faktoren gibt. Wenn du mir einen Fiat Punto und eine S-Klasse hinstellst und sagst "nimm dir einen", muss ich nicht lange überlegen, nur ist eine derartige Wahl i. d. R. rein theoretischer Natur und dementsprechend keine sinnvolle grundlage für praxisrelevante Bewertungen. Wie konkret sich das Marktgefüge in 4Q21 darstellen wird, bleibt abzuwarten.

Einfach mal abwarten was kommt und wie es sich entwickelt. Im einfachsten Fall könnte man in 2022+ Intel einfach komplett ignorieren und hätte dennoch keinen Verlust (es sei denn AMD schließt unerwartet die Pforten) ;-) Vielleicht wird man aber auch positiv überrascht ... wobei das vielleicht hier wörtlich zu nehmen ist, denn auch ich weiß hier nicht mehr.
 

owned139

BIOS-Overclocker(in)
@gerX7a wie du siehst finde nicht nur ich das big.LITTLE Design im Deskoptbereich unpassend, sondern viele andere auch:

Sind also nicht nur meine "schiefen" Vergleiche.
 

Rollora

Kokü-Junkie (m/w)
Und wo soll der rießen Vorsprung von intel bei den Laptops sein? Mit den neuen Zen3 APUs kann ich da keinen wesentlichen Unterschied erkennen, der einem rießen großen Vorteil im Idle für einen der beiden Hersteller gleicht.
Jep die Monolithischen APUs von AMD haben den (kleinen) Nachteil nicht, den die Desktopmodelle haben.
Bin da auf die kommenden Jahre gespannt auch auf den Kampf im Mobilmarkt
 

Nebulus07

Software-Overclocker(in)
Für alle die sich aufregen, dass kleine Kerne nichts bringen und lieber nur BIG Kerne haben wollen.

IHR seit die falsche Zielgruppe!

Die Zielgruppe des Litte.Big Ansatzes sind Büro Rechner die den ganzen Tag nur Word und Office auf haben und ab und an Lastspitzen in Photoshop haben. Und das sind die Mehrheit der Rechner da draußen. Eine Firme mit 1000 Rechnern die plötzlich nicht mehr 60W sondern nur noch 15W im Laufenden Betrieb verbrauchen, sind da natürlich reizvoller. Denn Rechner machen zu 90% ihrer Zeit, einfach nichts!

Wieso erreicht man nicht das Selbe mit Big Kernen im PC? Man kann ja alle schlafen legen und runtertackten bei Wenigauslastung! Leider ist eine BIG Core eben sehr BIG! Viel Cache! Viele Transsistoren! Viel und schnelle IO!
Eine Little CPU hat wenig Cache, wenig IO und sehr viel weniger Transistoren. Deshalb verbrauchen die Little Cores sehr viel weniger Strom bei wenig Last.

In einem Spiele PC, der zu 50% zum Surfen und 50% zum Spielen benutzt wird, bringt das Design auch viel! Viel weniger Wärme! Der PC wird komplett passiv! Alle Lüfter können nun aus gehen...
Bei Spielen, bringt das Konzept natürlich nichts!

Es geht einzig und alleine darum, bei wenig Last, den PC kühler und Sparsamer laufen zu lassen!
Man muß sich die Little Cores als Add-On oder Bonus vorstellen, die nicht dazu da sind die Big Cores zu unterstützen, sondern diese in wenig Last, zu ersetzen.

Bei einem 8+4 Design (8Big+4Little) wird das OS entscheiden, welches Programm wieviele und welche Kerne sehen wird. Wenn ich den Browser starte, wird dieser nur die 4 Little Kerne sehen. Und wird auch nur diese nutzen. Wenn ich ein Spiel starte, wird dieses eine 8 Kern CPU sehen und nur diese 8 nutzen. Wie genau das laufen wird und ob es sharing geben wird, wir man noch sehen.
Ich finde den Ansatz sehr Interessant! Freuen wir und auf etwas neues!

Leider hat AMD diesen Ansatz verschlafen. Man dachte, AMD Produkte kaufen nur Poweruser! Da AMD aber auch mehr Serverhardware verkaufen möchte und die Zukunft einfach Energiebilanz niedrig halten lautet, steigt AMD jetzt mit 2 Jahren Verspätung ein.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Eben, es geht nur um den Verbrauch.

Aber wie der Hersteller das jetzt zu erreichen hat, wird nicht vorgeschrieben.

Indirekt kann man schon von einem Quasiverbot sprechen, wenn die Grenzwerte entsprechend gesetzt sind. So wie die neuen CO2 und Abgasnormen ein indirektes Verbrennerverbot in den unteren Autoklassen sind. Man kann beides noch herstellen, nur beim einen braucht man wertvolle CO2 Zertifikate und beim anderen muß man dann ein 1000W Netzteil oder sehr viel RAM einbauen, um unter die Ausnahmeregelung zu fallen.
 

Bärenmarke

Software-Overclocker(in)
Am Ende wie gesagt alles eine Frage des Preises und der Leistung, insbesondere, wenn es bspw. um etwas wie 3D-Rendering geht, den ein ADL-S 8+8 wird zweifellos leistungsfähiger als ein 5900X sein, d. h. ob der attraktiv ist, hängt schlicht von der Preisgestaltung ab.

Da sind wir ja beruhigt, dass DU schon weißt, dass der ADL-S 8+8 zweifelslos leistungsfähiger als ein 5900X sein wird. Könntest DU uns dann vielleicht auch schon die Lottozahlen für Samstag nennen?

So etwas ohne Benches zu behaupten ist schon sehr fragwürdig, da muss man schons sehr biased sein, um sowas vom Stapel zu lassen. Da man überhaupt noch nicht weiß, wie der Großteil der Programme darauf reagieren wird und alte Programme, werden mit Sicherheit nicht ihren Quellcode dafür optimieren. Zumal man mit einer 20% höheren IPC nicht einmal 2 Kerne bei guter Skalierung ausgleichen kann und dann natürlich auch der Stromverbrauch nicht unbedeutend sein wird bzw. wie hoch man takten kann. Weil die höhere IPC bringt ja nicht wirklich einen Vorteil, wenn aufgrund der hohen Leistungsaufnahme dann wieder z.B. 500 MHz niedriger taktet wie die Konkurrenz.
Von daher einfach mal abwarten als sich soweit aus dem Fenster zu legen.

Aber ja du hattest in einem anderen Thread ja auch behauptet, dass der Marktanteil von AMD bei den GPUs so niedrig ist, weil sie keiner haben wollte (wenn es so wäre, würde man sie überall unterhalb der UVP frei Lager kaufen können), dass es wohl eher an den sehr knappen Produktionskapazitäten lag, kam dir nicht in Sinn. Aber gut du bist ja auch grundsätzlich Anti AMD und schreibst auch hier schon wieder seitenweise über ADL-S:schief:
 

SimonG

Software-Overclocker(in)
Big.Little ist in erster Linie eine Anpassung an die Nutzungsgewohnheiten. Es wird erwartet, dass ein PC mehrere Aufgaben parallel abarbeiten kann ohne Schluckauf. Genau dafür sind die kleinen Kerne ideal, denn sie vermeiden, dass ein großer Kern mit leichten Aufgaben unterbrochen wird.
 

RyzA

PCGH-Community-Veteran(in)
Warum auch nicht. Wenn dadurch die CPUs noch effizienter werden und nur dann mehr Leistung abrufen, wenn sie auch gebraucht wird.
 

DJPX

Komplett-PC-Aufrüster(in)
Ich bin ja mal gespannt wie die Umsetzung dann bei Virtualisierungen sein wird,bzw eher wie lange das braucht. Ich hoffe man kann dann die Kerne auswählen. Wäre ja sehr ungünstig wenn man dann bei einer VM mit einem hohen Workload die kleinen bekommt und für den schwachen Workload dann die großen Kerne.
 

Rollora

Kokü-Junkie (m/w)
ich bin einfach schon auf Benchmsrks gespannt. Niedriglast und Idleverbrauch. Im Spiele-PC ist das natürlich egal, denn die möglochen eingesparten... sagen wir 20 Watt verbläst die extra GPU sowieso.
Aber in PCs mit APUs die für den Büroeinsatz gedacht sind kann das natürlich ganz schön was bringen.

Für uns Spieler wäre es natürlich vielen lieber, aggressiveres Powergating zu haben. Selbst die flotteren (bzw die mit hoher TSP) Notebook-CPUs brauchen dann schnell mal weniger als 5 Watt. Da sieht man halt, dass es wohl auch anders ginge als mit kleineren Cores.


Ich selbst möchte vom Gefühl her für die Arbeit lieber 16 große Kerne, aber rein theoretisch bin ich auch schon gespannt was so ein "Rapid Lake" mit seinen gerüchtereise 8+16Kernen anstellen kann

Was das Scheduling betrifft, bin ich noch gespannt. Das hat mit SMT, Bulldozer und Co bereits ein paar Herausforderungen hinter sich
 

PCGH_Torsten

Redaktion
Teammitglied
ich frage mich, ob ich warten soll um ein letzten guten cpu für am4 noch zu kaufen, oder direkt zuschlagen kann.
einmal lese ich, zen 3 refresh kommt, und einmal wurde gesagt, amd hat den refresh doch sein gelassen weil ebend ddr5 vor der tür steht mit am5.

gibts da nun seitens pcgh bessere infos?

Von einem 3800X ausgehend sollte man aktuell noch keinen akuten Aufrüstbedarf haben und von der Leistung her kommen nur die sehr teuren 5900X und 5950X in Frage. Ich würde an deiner Stelle noch 1-2 Jahre warten und dann gucken, wie günstig ein 5950X gebraucht ist und wie teuer der Umstieg auf eine dann aktuelle Oberklasse-CPU inklusive neuer Plattform wäre. Auf CPU-Seite ist die Situation eigentlich sehr entspannt, weil der AM4 so weit über den heutigen Bedarf skaliert und es umgekehrt genug günstige CPUs gibt, die erstmal ausreichen. Kritischer wäre die Frage, wieviel RAM man heutzutage kaufen sollte, wenn der vorhandene knapp wird.


Das scheint sich ja bereits abzuzeichnen, wenn bei Raptor Lake nun 8+16 Kerne im größten Chip für das 2HJ22 kolportiert werden.

Interessant wäre bspw. auch zu wissen, wie Meteor Lake's Compute Tile aussieht. Ist die Bezeichnung ggf. unzutreffend und es gibt faktisch gar zwei Compute Tiles, eines mit großen und eines mit kleinen Kernen die man kombiniert. Oder gibt es möglicherweise mehrere Tiles, die unterschiedliche Kerne in festen Verhältnissen kombinieren?
So wie es aussieht, wird Intels Hybrid Technology zum festen Standard werden und möglicherweise mittelfristig Single-Core-Designs in Consumer-Produkten komplett verdrängen.

Seit den Fotos des Ponte Vechios-Puzzle schließe ich nicht einmal mehr aus, dass Intel die "Tile"-Illustrationen zu möglichen IP-Mischungen wortwörtlich meint...


Genau so ist es.
Seit 20 Jahren versucht die Softwareszene ihre Programme ordentlich auf SMT/HT Prozessoren zu verteilen.
Warum sollte das also von hier auf jetzt mit den Hybriddingern sofort vollumfänglich zufriedenstellend funktionieren?
Ich fahre lieber mit ganzen Kernen, die dann bei Bedarf teilweise oder ganz heruntergefahren und abgeschaltet werden können.
Bei Grafikkarten mit bis zu 500 Watt OC Leistungsaufnahme spielen die letzten 5 Watt Stromeinsparung im Idle auch keine Rolle mehr.
Im Notebooksektor find eich den Hybridansatz hingegen sinnvoll, wenn man so die Akkulaufzeit ne Stunde weiter herausquetschen kann.
Die letzte Hybridgeschichte waren ja die ach so hochgelobten HDD mit SSD Cache.
Die waren schneller wieder vom Markt verschwunden, ehe ein Schwein La Paloma pfeifen konnte. ^^

SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen. Leider hat die Mehrheit der Kunden das Prinzip nicht verstanden (obwohl ich extra einen Test gemacht habe^^) und da die Technik allgemein und 3,5-Zoll-Modelle extrem spät dran waren, konnte sie keinen Durchbruch erlangen bevor SSDs billig genug wurden.



Wenn die CPU wesentlich günstiger ist, kann sie eine Option sein, aber 16 Kerne sind ein blödes Beispiel dafür. Käufer solcher CPUs interessieren sich in erster Linie für die Geschwindigkeit und wenn die 8+8 CPU ähnlich schnell sein wird, wird sie nicht 200€ günstiger sein.
8 schnelle und 8 langsame Kerne können NICHT so schnell sein wie 16 schnelle Kerne, jedenfalls wenns die gleiche Architektur ist.

Wenn man zwischen 180° gegenüberstehenden Annahmen wechselt, findet man immer einen Grund zu meckern. Zumindest in diesem Fall ist aber schon der Grundansatz Banane:
Von der Siliziumfläche her konkurrieren 8+8-Kerner nicht mit 16+0, sondern (wenn man Lakefield und die ADL-Erwartungen als Grundlage nimmt) mit 10+0 gleicher Architektur. Aus Gründen, die hoffentlich keiner Erklärung bedürfen, plant niemand "kleine" Kerne, die genauso aufwendig und teuer wie große sind.


Mal ein Autovergleich für dich: Man kann einen 8L Saugmotor einstellen, wie man will, man wird bei niedriger Last niemals an die Effizienz eines hochaufgeladenen 1L Motors hinkommen. Genauso ist es da: wenn man ein simples Design hat, das auf Sparsamkeit spezialisiert ist, dann können die großen Kerne einpacken.

Genaugenommen ist das bei Motoren sogar sehr einfach, wenn man das passende Getriebe wählt. 8 l bei 200 U/min sind, sofern der Motor auf diesen Bereich ausgelegt wurde und es nicht ein 2-Fantastilliarden-PS-8-l-Motor sein soll, eigentlich immer effizienter als 1 l bei 1.600 U/min. Die Frage ist nur, wie man den effizienten Schiffsdiesel in einem Up unterbringt respektive wieviel vom Effizienzvorteil noch übrig bleibt, wenn man das Auto entsprechend größer bauen muss. Insbesondere wenn der immense Mehraufwand preislich durch weniger Leichtbau, primitivere Aerodynamik oder ähnliches kompensiert wird.

Bessere Analogie: Man kann ein Auto auf bestmöglichen (naja...) Verbrauch bei 500 km/h optimieren und auf möglichst effizienten Stadtbetrieb. Aber man kein Auto bauen, dass in beidem überlegen ist, schon die Zielsetzungen "minimale Stirnfläche" und "minimale Parkfläche" schließen sich bei gleichem Innenraumvolumen aus. Aber genau so etwas verlangen Anwender von einem modernen Notebook. In dem Fall einfache Lösung: Man baut beide "Autos" ein und nutzt sie je nach Bedarfslage.


Indirekt kann man schon von einem Quasiverbot sprechen, wenn die Grenzwerte entsprechend gesetzt sind. So wie die neuen CO2 und Abgasnormen ein indirektes Verbrennerverbot in den unteren Autoklassen sind. Man kann beides noch herstellen, nur beim einen braucht man wertvolle CO2 Zertifikate und beim anderen muß man dann ein 1000W Netzteil oder sehr viel RAM einbauen, um unter die Ausnahmeregelung zu fallen.

Auch dieser Autovergleich hinkt. Zum einen gibt es eine vergleichbare Verschärfung für die Grenzwerte von PCs schlichtweg nicht und aktuell werden sie ja bereits eingehalten, zum anderen kann man sehr wohl weiterhin Verbrenner bauen. Nur halt nicht so, wie es die deutschen Hersteller machen respektive so nur unter entsprechenden Ausgleichszahlungen an die Allgemeinheit.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen...
Das kann ich nur bestätigen. In der PS4 Slim meiner Schwester leistet eine 2 TB Seagate Firecuda SSHD im 2,5" Format sehr gute Dienste.
Selbst diese Festplatte ist wesentlich schneller als die Originale, außerdem kostete die 2019 nur 79€ in der Größe. Dafür hätte man bei einer günstigen SSD wieder nur maximal 480 GB bis heute bestenfalls 1 TB bekommen.
 

AyC

PC-Selbstbauer(in)
Die letzte Hybridgeschichte waren ja die ach so hochgelobten HDD mit SSD Cache.
Die waren schneller wieder vom Markt verschwunden, ehe ein Schwein La Paloma pfeifen konnte. ^^

Du möchtest uns also sagen, dass es nach einer kurzen Übergangszeit nur noch "kleine" Kerne gibt und die großen komplett abgeschafft werden für den Heimgebrauch?
 

gaussmath

Lötkolbengott/-göttin
Das ist so nicht richtig. Der einzige Hersteller, der im Moment einen "riesen großen" Vorteil bezüglich Leistungsaufnahme der Kerne hat, ist AMD. Sowohl unter Vollast als auch unter Teillast.
Intel CPU's sind in Teillastszenarien wie Gaming teils deutlich effizienter.

Korrigiert mich, wenn ich falsch liege. Aber braucht es denn wirklich große und kleine Kerne? Kann man denn für bestimmte, "anspruchslose" Aufgaben (also die für die kleinen Kerne) nicht auch eine großen Kern benutzen und den entsprechend runtertakten, womit er dann auch sehr energiesparend läuft?
Das ist ein Punkt, der viele Leute beschäftigt, mich natürlich auch. Es gibt sehr vielfältige Lastszenarien, die CPUs völlig unterschiedlich beanspruchen. big.Little macht nur dann Sinn in meinen Augen, wenn ein Task ungefähr so schnell auf einem Little Core läuft wie auf einem big Core, dafür aber signifikant weniger Energie benötigt wird. Ansonsten könnte man einen big Core ja auch einfach runtertakten. Darüber hinaus muss es genügend solcher Lastszenarien geben, damit sich das Design lohnt und das Scheduling muss schlau genug sein, um Misscheduling möglichst selten auftreten zu lassen. Im multikriteriellen Scheduling sehe ich die größten Probleme. Das muss auf unterschiedlichen Leveln gut funktionieren. Ich hoffe, dass Microsoft mit Windows 11 was ordentliches anbietet.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Das könnte durch den I/O Die bei AMD durchaus der Fall sein. Ich habe jetzt nicht noch mal einen Test gelesen, aber rein auf die Kerne bezogen könnte seine Aussage stimmen (nicht CPU insgesamt).
 

gaussmath

Lötkolbengott/-göttin
Das könnte durch den I/O Die bei AMD durchaus der Fall sein. Ich habe jetzt nicht noch mal einen Test gelesen, aber rein auf die Kerne bezogen könnte seine Aussage stimmen (nicht CPU insgesamt).
Es genügt halt nicht, den höheren Energieaufwand alleine dem Interconnect zuzuschieben. Warum hat der I/O-Die keine P-States? Da liegt auf jeden Fall noch Potential brach.
 

belle

PCGH-Community-Veteran(in)
Vielleicht stehen deshalb die weniger überzüchteten Zen 1 wie Ryzen 1600 und 1700 noch in der Effizienz recht gut da.
Die Kerne in alter Fertigung benötigen recht wenig Strom bedingt durch niedrigere Spannungen gegenüber den X-Modellen und der I/O Die ist Teil des CCD.
 
Zuletzt bearbeitet:

gaussmath

Lötkolbengott/-göttin
Was ich in Spielen nicht gerade als effizient bezeichnen würde ^^
Nicht unbedingt, aber mit 14nm und Kernen, die so groß wie Fußballfelder sind, ist das nicht schlecht. :D

8 schnelle und 8 langsame Kerne können NICHT so schnell sein wie 16 schnelle Kerne, jedenfalls wenns die gleiche Architektur ist. Was checkst du daran nicht?
Das kommt doch auf den Workload drauf an. wenn es keine Workloads gäbe, bei denen ein Little Core ungefähr so schnell wäre wie ein big Core, würde das Konzept keinen Sinn machen.
Sie sind nicht schief und ich habe dagegen keine Abneigung. Es macht im mid-high Core Count Desktopbereich aber für mich keinen Sinn und warum habe ich dir jetzt mehrfach erläutert.
Den Sinn muss es geben, sonst würde ein Konzern wie Intel nicht hohe Kosten in die Entwicklung stecken und dann für den Desktop launchen.
Leider doch. Alderlake gibt es nur im big.LITTLE Design.
Es wird auch SKUs ohne Little Cores geben.
 
Zuletzt bearbeitet:

Bärenmarke

Software-Overclocker(in)
Intel CPU's sind in Teillastszenarien wie Gaming teils deutlich effizienter.

Auch wenn du den Schrotttest noch häufiger postest macht es die Aussage nicht richtiger. Es zeigt nur wie unfähig die Tester sind, zu denen du wohl auch gehörst?

Wenn man zwei Produkte testet dann tut man dies bei der exakt gleichen Kernanzahl und tut dies nicht mit einem 10 und einem 12 Kerner, sondern man verwendet jeweils zwei 8 oder 6 Kerner, da dies bei beiden Herstellern im Programm ist.
In deinem Schrotttest hast du nämlich noch die Inter DIE Kommunikation die mit in den Stromverbrauch mit einfließt und das ist einfach nur unseriös.
 

belle

PCGH-Community-Veteran(in)
Wenn das Taskmanagement denn funktioniert, kann ich mir 2 bis 4 kleine Kerne auf 8 bis 12 große Kerne für laufende Windowsdienste oder Daemons recht gut vorstellen. Updates (Betriebssystem und BIOS) werden am Anfang aber evtl. zur wöchentlichen Aufgabe.
 

gaussmath

Lötkolbengott/-göttin
Wenn man zwei Produkte testet dann tut man dies bei der exakt gleichen Kernanzahl und tut dies nicht mit einem 10 und einem 12 Kerner, sondern man verwendet jeweils zwei 8 oder 6 Kerner, da dies bei beiden Herstellern im Programm ist.
Deine Maßstäbe sind leider keine allgemeingültigen Maßstäbe. Es gibt keine Gründe für eine strikte Kernnormierung. Warum auch? Es werden die Topmodelle verglichen und das ist völlig legitim. Das hieße außerdem in Konsequenz, dass man keine AMD CPU mit dem 10900K vergleichen kann. Alleine dieser Umstand sollte die eigene Argumentation überdenken lassen.

In deinem Schrotttest hast du nämlich noch die Inter DIE Kommunikation die mit in den Stromverbrauch mit einfließt und das ist einfach nur unseriös.
Ja, der fließt mit ein, weil AMD die CPU nun mal so designt hat. Beschwerden bitte an die Ingenieure von AMD richten und nicht an die Tester.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Im Zweifelsfall werden in Zukunft bisher theoretische 6+4 Kerner und normale 8 Kerner verglichen, wenn beide in der selben Preisklasse sind. Da geht es nicht mehr um Leistungsklassen, sondern einfach um "CPUs zwischen 250 und 400€" bespielsweise.
 

gaussmath

Lötkolbengott/-göttin
Im Zweifelsfall werden in Zukunft bisher theoretische 6+4 Kerner und normale 8 Kerner verglichen, wenn beide in der selben Preisklasse sind.
In einem Effizienzranking wird ja auch schlicht alles mit allem verglichen. Es gib keine guten Gründe für eine künstliche Restriktion, außer natürlich das eigene Unbehagen wegen der Ergebnisse. Es ist natürlich bitter, dass Intel bis zu 50% effizienter ist mit einer alten Architektur und einem alten Fertigungsverfahren.
 

Methusalem

Freizeitschrauber(in)
In einem Effizienzranking wird ja auch schlicht alles mit allem verglichen. Es gib keine guten Gründe für eine künstliche Restriktion, außer natürlich das eigene Unbehagen wegen der Ergebnisse. Es ist natürlich bitter, dass Intel bis zu 50% effizienter ist mit einer alten Architektur und einem alten Fertigungsverfahren.
Nur, wenn man Intel Fanboy ist, oder?
 

gaussmath

Lötkolbengott/-göttin
Nur, wenn man Intel Fanboy ist, oder?
Wie meinst du das? :confused:
Das kommt doch auf den Workload drauf an. wenn es keine Workloads gäbe, bei denen ein Little Core ungefähr so schnell wäre wie ein big Core, würde das Konzept keinen Sinn machen.
Ein kleines Selbstzitat. Ich muss das ein wenig erweitern. Wenn man eine Regel definieren will, quasi das big.LITTLE Gesetz oder Prinzip, dann ginge das ungefähr so.

Das gauss'sche big.LITTLE Effizienzprinzip
Die Ausführung eines Tasks auf einem LTTLE Kern statt auf einem big Kern ist genau dann vorzuziehen (Scheduling Priorität), wenn die relative Energieersparnis größer ist als der relative Performanceverlust.

Das fand ich als allgemeines Effzienzgesetz richtig gut bis gerade eben... ^^ Dann fiel mir ein, dass es eine Ausnahme gibt. Wenn nämlich ein Task zwar wesentlich länger braucht, aber parallel ausgeführt wird und nicht zeitkritsch ist, kann der dieser auch verschoben werden auf einen LITTLE Kern. Beispiel: Während man zockt, macht irgendein Windows Dienst irgendein Gedöns, das schneller auf einem big Kern liefe, aber überhaupt nicht zeitkritisch ist. Das obige Gesetz ist also gar nicht so allgemein.
 
Zuletzt bearbeitet:

gerX7a

Software-Overclocker(in)
@gaussmath: Der Graphtyp bzw. die Zusammenfassung der unterschiedlichen Kategorien ist arg gewöhnungsbedürftig, ich würde hier bspw. folgendes bevorzugen mit deinen Daten:

cmp_watt_and_fps_1440p.png


Auffällig ist hier die horizontale Verschiebung (Watt), während sich vertikal (Fps) bei dieser Titelauswahl nur wenig tut.
Überraschend ist das aber auch nicht, da AMDs 2-CCD-Chips in Bezug auf Gaming vergleichsweise ineffizient sind, weil die CPU-Auslastung zu gering ist, d. h. der relative Leistungszugewinn in Relation zu den Watt ist relativ gering. Beispielsweise in einem anderen Test mit fordernden Grafiksettings beobachtet man bspw. in Borderlands 3 in 1440p mit Badass Quality:
R9 5950X142,991,5
R9 5900X143,381,2
R7 5800X143,459,6
i9-11900K144,195,7
i7-11700K144,095,2
i9-10900K144,676,4
(Daten von Igor)
Ist man hier irgendwie grün angehaucht, sollte man von den 2-CCD-Ryzen's und auch von Rocket Lake eher die Finger lassen. Leider habe ich bei Igor auf die Schnelle nichts zum 10700K gefunden, es bleibt jedoch zu vermuten, dass das alte Skylake-Design hier in etwa auf Augenhöhe mit dem 5800X liegen wird.
Bei AMD zerschießt insbesondere das zweite CCD die Effizienz, bei Intel ist es der 14nm-Prozess, der nicht mehr ausreicht, wenn man eine leistungsfähigere Architektur wie Sunny/Cypress Cove verwendet, die natürlicherweise mehr zieht (denn mehr Durchsatz gibt es nicht umsonst).

Anmerkung: Unsinnig ist ein Vergleich des 10-Kerners mit AMDs 12-Kerner dennoch nicht, denn Intels Topmodell liegt nun einmal kerntechnisch dazwischen und es gibt kein genaues Gegenstück von AMD. Dennoch werden viele Enthusiasten zum 10-Kerner gegriffen haben, wie man auch auf Steam beobachten konnte, denn hier steigerten sich die 10-Kern-CPU-Stückzahlen signifikant seit 2Q20 und die waren in dem Falle ausschließlich auf Comet Lake zurückzuführen, da zu der Zeit wohl kaum noch einer einen Core X gekauft haben wird. Beispiele:
Mai 2020Dezember 2020Mai 2021
10-Kerner0,08 %0,34 %0,64 %
12-Kerner0,37 %0,67 %0,99 %
16-Kerner0,10 %0,15 %0,25 %
 
Zuletzt bearbeitet:

gaussmath

Lötkolbengott/-göttin
@gaussmath: Der Graphtyp bzw. die Zusammenfassung der unterschiedlichen Kategorien ist arg gewöhnungsbedürftig, ich würde hier bspw. folgendes bevorzugen mit deinen Daten:
Du bist nicht der erste, der sich darüber beschwert hat. :D

Ist man hier irgendwie grün angehaucht, sollte man von den 2-CCD-Ryzen's und auch von Rocket Lake eher die Finger lassen. Leider habe ich bei Igor auf die Schnelle nichts zum 10700K gefunden, es bleibt jedoch zu vermuten, dass das alte Skylake-Design hier in etwa auf Augenhöhe mit dem 5800X liegen wird.
Könnte man vermuten, aber ich denke, dass der 5800X mit steigender Auflösung immer noch deutlich mehr zieht, wegen I/O-Die und IF.
 
Zuletzt bearbeitet:

gerX7a

Software-Overclocker(in)
"Beschweren" würde ich jetzt nicht sagen ... eher eine Anmerkung ... ;-) Immerhin hast du dir hier mal die Arbeit gemacht und die Daten zusammengetragen.
Angesichts der Tatsache, dass der 5800X sich mit seinem nur einem CCD jedoch verbrauchstechnisch deutlich anders verhält in einem mittleren Lastszenario wie Gaming, wäre es natürlich schön, wenn noch ein Update folgen würde. Blöderweise würde ich dann aber auch hier weiterführend darauf hinweisen wollen, dass zwischen RKL und CML als 11700K und 10700K ebenso durchaus beträchtliche Unterschiede zu erwarten sind, die sich absehbar im Verbrauch deutlich niderschlagen werden ... ich weiß ... das ist die Geschichte mit dem kleinen Finger und dem ganzen Arm. :-D

Ergänzend, weil ich es gerade unten sehe: Den Header "Ist 7nm nun effizienter als 14nm?" würde ich umformulieren, denn der erscheint mir bestenfalls provokant aber nicht sachlich korrekt gewählt, denn die Frage stellt sich gar nicht, da TSMCs N7 grundsätzlich effizientere Designs ermöglicht als Intels 10nm+++ alias P1272.
Der Autor stellt hier ja auch keinen Prozess- sondern einen CPU-Vergleich an und hierbei ist der Prozess nur ein Teil des Gesamtbildes (bei AMD gleich umso mehr, da nicht einmal die ganze CPU im N7 gefertigt wird). Der Absatz erscheint mir inhaltlich ok, den Titel finde ich unnötig provokant bzw. in die Irre leitend, aber vielleicht wurde der ja auch absichtlich in der Art gewählt, um den geneigten Leser auch noch den letzten Absatz durchlesen zu lassen. ;-)

Einzig das "Fazit" im letzten Absatz erscheint unvollständig, aber da der Blogeintrag bisher keine Daten zu dem sich deutlich abweichend verhaltenden R7 5800X liefert, erscheint das hinnehmbar. Abgerundeter wäre es dennoch, wenn man einen Vorausblick auf diesen geben würde und zumindest schon einmal grob skizzieren würde, dass sich das Bild hier absehbar ändern wird.


Ergänzend zu obigem "Effizienzprinzip": Die letztgenannte Überlegung muss nicht nur für externe Prozesse gelten sondern kann auch auf Threads innerhablb einer Game-Engine übertragen werden. Physik und KI nehmen bspw. einen deutlich kleineren Anteil an der Gesamtrechenzeit/last eines Frames in Anspruch, d. h. wenn man hier zusätzliche Kerne hat, ist es natürlich von Vorteil, wenn man diese Threads gar komplett auslagern kann auf bspw. einen kleinen, effizienten, langsameren Kern. Die Überlegung einen komplett eigenständigen Kern für derartige Threads zu beanspruchen, kann natürlich auch auf FullSize-Kern-CPUs mit vielen Kernen übertragen werden, nur absehbar werden die kleinen Kerne hier diesen Workload effizienter berechnen, während auf ersterer CPU ein weiterer großer Kern veranschlagt wird, der dann nicht den Ruhemodus geschickt werden kann und die erzielten Einsparungen auf dem big.LITTLE-Design kommt am Ende der gesamten CPU zugute, entweder weil man sparen will oder weil man die freien Energieressourcen für mehr Takt verwenden kann.
Am Ende ist hier vieles Denkar, hier wird man abwarten müssen wie sich das über die Zeit entwickelt, aber ganz offensichtlich handelt es sich bei der Technologie um kein Experiement oder eine Art Eintagsfliege, wie von manchen suggeriert (oder erhofft?).
 
Zuletzt bearbeitet:

gaussmath

Lötkolbengott/-göttin
Ergänzend, weil ich es gerade unten sehe: Den Header "Ist 7nm nun effizienter als 14nm?" würde ich umformulieren, denn der erscheint mir bestenfalls provokant aber nicht sachlich korrekt gewählt, denn die Frage stellt sich gar nicht, da TSMCs N7 grundsätzlich effizientere Designs ermöglicht als Intels 10nm+++ alias P1272
Das ist schon absichtlich so "provokant" formuliert, denn am Ende soll der Umstand hervorgehoben werden, dass der Fertigungsprozess alleine nicht über die Effizienz entscheidet, denn die Architektur selbst ist genauso wichtig.
Am Ende ist hier vieles Denkar, hier wird man abwarten müssen wie sich das über die Zeit entwickelt, aber ganz offensichtlich handelt es sich bei der Technologie um kein Experiement oder eine Art Eintagsfliege, wie von manchen suggeriert (oder erhofft?).
Eine Eintagsfliege ist es nicht, alleine weil AMD mit Zen 5 auch einen auf heterogen macht. Den Leuten fehlt halt die Idee dahinter, warum das sinnvoll sein könnte. Mir fiel das auch schwer, einen Sinn darin zu sehen, weil ich mir dachte, dass man Kerne ja auch einfach runtertakten könnte und ein paar Watt im Desktopbereich spielen keine Rolle. Aber mit dem oben formulierten Effizienzprinzip und der Möglichkeit, dass effizientere Kerne mehr Powerbudget für die big Kerne freischaufeln können, schaue ich optimistischer auf die Sache.
 
Zuletzt bearbeitet:

Maxxx80

Kabelverknoter(in)
Ich hoffe sehr amd bleibt bei den Desktop CPUs bei normalen CPU Kernen!
Mir ist auch völlig egal ob die CPU 50 Watt mehr oder weniger benötigt bei Teillast. Big Little kann gerne in Notebooks usw. kommen, aber Bitte nicht im Gaming PC.
 

RyzA

PCGH-Community-Veteran(in)
SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen. Leider hat die Mehrheit der Kunden das Prinzip nicht verstanden (obwohl ich extra einen Test gemacht habe^^) und da die Technik allgemein und 3,5-Zoll-Modelle extrem spät dran waren, konnte sie keinen Durchbruch erlangen bevor SSDs billig genug wurden.
Ich denke der Vergleich mit Hybrid - Prozessoren hinkt auch ein bißchen. ;)
 
Oben Unten