Zen 5: AMD-Patent für Hybrid-Prozessoren behandelt Taskwechsel

@owned139: Ich denke wir lassen das und ja, folge ich deinen diversen Post, dann scheint mir das bei dir weit über eine technisch nüchterne Betrachtung hinauszugehen, aber das kannst du natürlich halten wie du willst. Bezüglich meiner Argumentation habe ich mich, denke ich, verständlich ausgedrückt. Wenn du der nicht folgen kannst (wobei das nicht gleichbedeutet ist mit einer Meinung zu sein) ...

Als abschließender Kommentar: Letzteres ist allem Anschein nach falsch, da es auch ADL-Versionen ohne (oder mit abgeschalteten) Gracemont-Kernen geben wird, d. h. man wird voraussichtlich sehrwohl auch ein X+0-Design kaufen können *) und wenn es dieses gar als 8-Kerner geben sollte, dürfte das absehbar die derzeitigen Achtkerner hinter sich lassen.
AMD kommt schließlich nicht ohne Grund auf die Idee im nächsten Jahr den V-Cache auf die Topmodelle zu bringen, denn das wird Packaging-technisch teuer für sie (absehbar hatten sie diese Möglichkeit vorerst primär für eine Aufwertung von Milan vorgesehen, haben sich nun aber anscheinend umentschieden und deshalb wohl auch im letzten Jahr Warhol aufgekündigt, weil ein Minor-Architekturrefresh gegen Intel wohl nicht genug gewesen wäre).

*) Wobei sich mir dann aber hierbei die Relevanz bzgl. deiner Person stellt, denn wenn du mit dem 5950X zufrieden bist, kann dir doch vollkommen egal sein, was Intel mit seinem Portfolio macht.
Und mit Zen4 scheint es zudem auch eine gewisse Wahrscheinlichkeit füreinen 24-Kerner auf der Consumer-Plattform zu geben ... insofern könntest du das ganze Thema auch schlicht komplett ignorieren und bis das AMD betreffen wird, ziehen ja anscheinend noch zwei bis drei Jahre ins Land, da ist also dann noch Zeit genug sich aufzuregen. ;-)


@Pu244 , Ergänzung: APUs mit nur einem CCX und zusätzlich reduziertem L3$, was schlicht daran liegt, dass AMD das Design aus ressourcen-/kostengründen für Mobile und den Desktop gleichermaßen verwendet und insbesondere bei ersterem zählt jedes Watt.

"Zocker sind ein Minderheit, die eher wenig interessiert. Traurig, aber wahr." Lol, warum traurig ... ist schlicht so. Mit den Abermillionen PCs die jedes Quartal verkauft werden, wird größtenteils anderes gemacht. Was sollte daran schlimm sein, dass "wir" nicht der Nabel der Welt sind. ;-)

"Einerseits hat ihnen Apple wohl in den Hintern getreten (dass Alderlake so spät kommt, dürfte wohl vermutlich der Grund sein, warum Apple die Sache selbst in die Hand genommen hat)"
Das bezweifel ich übrigens stark. Für Apple dürfte es primär darum gehen unabhängiger zu werden und die Wertschöpfungskette weiter unter Kontrolle zu bekommen. Wäre Intel mit konkurrenzfähigeren Produkten schneller im Markt gewesen, hätte sich die Entwicklung bei Apple bestenfalls verzögert, "abgeseilt" hätten die sich so oder so. AMD haben sie ja ebenso kategorisch links liegen lassen und werfen jetzt mittelfristig auch deren letzte Reste aus dem Portfolio mit der Entwicklung einer eigenständigen GPU-IP. Die wollen einfach alles möglichst selbst entwickeln und fertigen, um mit höheren Margen arbeiten zu können.
 
Zuletzt bearbeitet:
ganz pragmatisch:
wenn ich auswählen kann, ob ich eine CPU nehme mit big-little oder rein 16 big-kerne, dann nehm ich die 16 'ganzen kerne' weil 16 big/little IMMER langsamer sind als 16-nur-big kerne.
gäbe es von intel die selbe CPU nur mit big-kernen, würde man sicher sehen können, das die kunden auch ehr zur 'nur big-kerne' greifen werden, was nicht falsch ist.

kann natürlich sein, das ich damit falsch liege ABER,
DAS muss mir intel erstmal beweisen,
das dieser big-little-quark wirklich besser ist, selbst im mobilbereich bin ich davon nicht überzeugt.
 
.Wie gesagt: es geht hier nicht um die volle Auslastung, sondern um mittlere bis niedrige Last. Irgendwie ist das hier für einige ein Problem, das die Vorstellungskraft übersteigt, aber es gibt viele Szenarien, in denen die CPUs nicht auf Anschlag ausgelastet werden. Dort hat Intel schon jetzt seine Stärken und dort werden die kleinen Kerne wichtig.
Die 105 und 125 Watt liegen ja nicht bei Volllast an…
 
@geist4711: "kann natürlich sein, das ich damit falsch liege" ... wahrscheinlich hast du mit dieser Annahme recht. :-D
Vorweg: Intel wird das implizit durch die Veröffentlichung der konkreten Produkte beweisen, oder auch nicht, aktuell müsstest du jedoch versuchen deine getätigten Aussagen zu beweisen. ;-)
a) "immer langsamer" kann hier nicht mit Sicherheit bestimmt werden, da hier Produkte unterschiedlicher Hersteller mit unterschiedlichen Mikroarchitekturen und unterschiedlichen Eigenschaften verglichen werden (und die Karten werden mit jedem Jahr und jeder neuen Produktgeneration neu gemsicht). Ein hypothetisches worst case Beispiel: Die großen Kerne sind 25 % schneller als die großen Kerne der Konkurrenz und die kleinen Kerne sind gerade mal 10 % langsamer als die großen der Konkurrenz. Bei einem symmetrischen 8+8-Design i. V. z. zu einem 16-Kerner der Konkurrenz ... ein pauschales "immer" ist hier nicht zulässig.
b) Das "wenn ich wählen könnte" impliziert, dass es kleinerlei andere Unterscheidungskriterien und produktrelevante Faktoren gibt. Wenn du mir einen Fiat Punto und eine S-Klasse hinstellst und sagst "nimm dir einen", muss ich nicht lange überlegen, nur ist eine derartige Wahl i. d. R. rein theoretischer Natur und dementsprechend keine sinnvolle grundlage für praxisrelevante Bewertungen. Wie konkret sich das Marktgefüge in 4Q21 darstellen wird, bleibt abzuwarten.

Einfach mal abwarten was kommt und wie es sich entwickelt. Im einfachsten Fall könnte man in 2022+ Intel einfach komplett ignorieren und hätte dennoch keinen Verlust (es sei denn AMD schließt unerwartet die Pforten) ;-) Vielleicht wird man aber auch positiv überrascht ... wobei das vielleicht hier wörtlich zu nehmen ist, denn auch ich weiß hier nicht mehr.
 
@gerX7a wie du siehst finde nicht nur ich das big.LITTLE Design im Deskoptbereich unpassend, sondern viele andere auch:

Sind also nicht nur meine "schiefen" Vergleiche.
 
Und wo soll der rießen Vorsprung von intel bei den Laptops sein? Mit den neuen Zen3 APUs kann ich da keinen wesentlichen Unterschied erkennen, der einem rießen großen Vorteil im Idle für einen der beiden Hersteller gleicht.
Jep die Monolithischen APUs von AMD haben den (kleinen) Nachteil nicht, den die Desktopmodelle haben.
Bin da auf die kommenden Jahre gespannt auch auf den Kampf im Mobilmarkt
 
Für alle die sich aufregen, dass kleine Kerne nichts bringen und lieber nur BIG Kerne haben wollen.

IHR seit die falsche Zielgruppe!

Die Zielgruppe des Litte.Big Ansatzes sind Büro Rechner die den ganzen Tag nur Word und Office auf haben und ab und an Lastspitzen in Photoshop haben. Und das sind die Mehrheit der Rechner da draußen. Eine Firme mit 1000 Rechnern die plötzlich nicht mehr 60W sondern nur noch 15W im Laufenden Betrieb verbrauchen, sind da natürlich reizvoller. Denn Rechner machen zu 90% ihrer Zeit, einfach nichts!

Wieso erreicht man nicht das Selbe mit Big Kernen im PC? Man kann ja alle schlafen legen und runtertackten bei Wenigauslastung! Leider ist eine BIG Core eben sehr BIG! Viel Cache! Viele Transsistoren! Viel und schnelle IO!
Eine Little CPU hat wenig Cache, wenig IO und sehr viel weniger Transistoren. Deshalb verbrauchen die Little Cores sehr viel weniger Strom bei wenig Last.

In einem Spiele PC, der zu 50% zum Surfen und 50% zum Spielen benutzt wird, bringt das Design auch viel! Viel weniger Wärme! Der PC wird komplett passiv! Alle Lüfter können nun aus gehen...
Bei Spielen, bringt das Konzept natürlich nichts!

Es geht einzig und alleine darum, bei wenig Last, den PC kühler und Sparsamer laufen zu lassen!
Man muß sich die Little Cores als Add-On oder Bonus vorstellen, die nicht dazu da sind die Big Cores zu unterstützen, sondern diese in wenig Last, zu ersetzen.

Bei einem 8+4 Design (8Big+4Little) wird das OS entscheiden, welches Programm wieviele und welche Kerne sehen wird. Wenn ich den Browser starte, wird dieser nur die 4 Little Kerne sehen. Und wird auch nur diese nutzen. Wenn ich ein Spiel starte, wird dieses eine 8 Kern CPU sehen und nur diese 8 nutzen. Wie genau das laufen wird und ob es sharing geben wird, wir man noch sehen.
Ich finde den Ansatz sehr Interessant! Freuen wir und auf etwas neues!

Leider hat AMD diesen Ansatz verschlafen. Man dachte, AMD Produkte kaufen nur Poweruser! Da AMD aber auch mehr Serverhardware verkaufen möchte und die Zukunft einfach Energiebilanz niedrig halten lautet, steigt AMD jetzt mit 2 Jahren Verspätung ein.
 
Zuletzt bearbeitet von einem Moderator:
Eben, es geht nur um den Verbrauch.

Aber wie der Hersteller das jetzt zu erreichen hat, wird nicht vorgeschrieben.

Indirekt kann man schon von einem Quasiverbot sprechen, wenn die Grenzwerte entsprechend gesetzt sind. So wie die neuen CO2 und Abgasnormen ein indirektes Verbrennerverbot in den unteren Autoklassen sind. Man kann beides noch herstellen, nur beim einen braucht man wertvolle CO2 Zertifikate und beim anderen muß man dann ein 1000W Netzteil oder sehr viel RAM einbauen, um unter die Ausnahmeregelung zu fallen.
 
Am Ende wie gesagt alles eine Frage des Preises und der Leistung, insbesondere, wenn es bspw. um etwas wie 3D-Rendering geht, den ein ADL-S 8+8 wird zweifellos leistungsfähiger als ein 5900X sein, d. h. ob der attraktiv ist, hängt schlicht von der Preisgestaltung ab.

Da sind wir ja beruhigt, dass DU schon weißt, dass der ADL-S 8+8 zweifelslos leistungsfähiger als ein 5900X sein wird. Könntest DU uns dann vielleicht auch schon die Lottozahlen für Samstag nennen?

So etwas ohne Benches zu behaupten ist schon sehr fragwürdig, da muss man schons sehr biased sein, um sowas vom Stapel zu lassen. Da man überhaupt noch nicht weiß, wie der Großteil der Programme darauf reagieren wird und alte Programme, werden mit Sicherheit nicht ihren Quellcode dafür optimieren. Zumal man mit einer 20% höheren IPC nicht einmal 2 Kerne bei guter Skalierung ausgleichen kann und dann natürlich auch der Stromverbrauch nicht unbedeutend sein wird bzw. wie hoch man takten kann. Weil die höhere IPC bringt ja nicht wirklich einen Vorteil, wenn aufgrund der hohen Leistungsaufnahme dann wieder z.B. 500 MHz niedriger taktet wie die Konkurrenz.
Von daher einfach mal abwarten als sich soweit aus dem Fenster zu legen.

Aber ja du hattest in einem anderen Thread ja auch behauptet, dass der Marktanteil von AMD bei den GPUs so niedrig ist, weil sie keiner haben wollte (wenn es so wäre, würde man sie überall unterhalb der UVP frei Lager kaufen können), dass es wohl eher an den sehr knappen Produktionskapazitäten lag, kam dir nicht in Sinn. Aber gut du bist ja auch grundsätzlich Anti AMD und schreibst auch hier schon wieder seitenweise über ADL-S:schief:
 
Big.Little ist in erster Linie eine Anpassung an die Nutzungsgewohnheiten. Es wird erwartet, dass ein PC mehrere Aufgaben parallel abarbeiten kann ohne Schluckauf. Genau dafür sind die kleinen Kerne ideal, denn sie vermeiden, dass ein großer Kern mit leichten Aufgaben unterbrochen wird.
 
Warum auch nicht. Wenn dadurch die CPUs noch effizienter werden und nur dann mehr Leistung abrufen, wenn sie auch gebraucht wird.
 
Ich bin ja mal gespannt wie die Umsetzung dann bei Virtualisierungen sein wird,bzw eher wie lange das braucht. Ich hoffe man kann dann die Kerne auswählen. Wäre ja sehr ungünstig wenn man dann bei einer VM mit einem hohen Workload die kleinen bekommt und für den schwachen Workload dann die großen Kerne.
 
ich bin einfach schon auf Benchmsrks gespannt. Niedriglast und Idleverbrauch. Im Spiele-PC ist das natürlich egal, denn die möglochen eingesparten... sagen wir 20 Watt verbläst die extra GPU sowieso.
Aber in PCs mit APUs die für den Büroeinsatz gedacht sind kann das natürlich ganz schön was bringen.

Für uns Spieler wäre es natürlich vielen lieber, aggressiveres Powergating zu haben. Selbst die flotteren (bzw die mit hoher TSP) Notebook-CPUs brauchen dann schnell mal weniger als 5 Watt. Da sieht man halt, dass es wohl auch anders ginge als mit kleineren Cores.


Ich selbst möchte vom Gefühl her für die Arbeit lieber 16 große Kerne, aber rein theoretisch bin ich auch schon gespannt was so ein "Rapid Lake" mit seinen gerüchtereise 8+16Kernen anstellen kann

Was das Scheduling betrifft, bin ich noch gespannt. Das hat mit SMT, Bulldozer und Co bereits ein paar Herausforderungen hinter sich
 
ich frage mich, ob ich warten soll um ein letzten guten cpu für am4 noch zu kaufen, oder direkt zuschlagen kann.
einmal lese ich, zen 3 refresh kommt, und einmal wurde gesagt, amd hat den refresh doch sein gelassen weil ebend ddr5 vor der tür steht mit am5.

gibts da nun seitens pcgh bessere infos?

Von einem 3800X ausgehend sollte man aktuell noch keinen akuten Aufrüstbedarf haben und von der Leistung her kommen nur die sehr teuren 5900X und 5950X in Frage. Ich würde an deiner Stelle noch 1-2 Jahre warten und dann gucken, wie günstig ein 5950X gebraucht ist und wie teuer der Umstieg auf eine dann aktuelle Oberklasse-CPU inklusive neuer Plattform wäre. Auf CPU-Seite ist die Situation eigentlich sehr entspannt, weil der AM4 so weit über den heutigen Bedarf skaliert und es umgekehrt genug günstige CPUs gibt, die erstmal ausreichen. Kritischer wäre die Frage, wieviel RAM man heutzutage kaufen sollte, wenn der vorhandene knapp wird.


Das scheint sich ja bereits abzuzeichnen, wenn bei Raptor Lake nun 8+16 Kerne im größten Chip für das 2HJ22 kolportiert werden.

Interessant wäre bspw. auch zu wissen, wie Meteor Lake's Compute Tile aussieht. Ist die Bezeichnung ggf. unzutreffend und es gibt faktisch gar zwei Compute Tiles, eines mit großen und eines mit kleinen Kernen die man kombiniert. Oder gibt es möglicherweise mehrere Tiles, die unterschiedliche Kerne in festen Verhältnissen kombinieren?
So wie es aussieht, wird Intels Hybrid Technology zum festen Standard werden und möglicherweise mittelfristig Single-Core-Designs in Consumer-Produkten komplett verdrängen.

Seit den Fotos des Ponte Vechios-Puzzle schließe ich nicht einmal mehr aus, dass Intel die "Tile"-Illustrationen zu möglichen IP-Mischungen wortwörtlich meint...


Genau so ist es.
Seit 20 Jahren versucht die Softwareszene ihre Programme ordentlich auf SMT/HT Prozessoren zu verteilen.
Warum sollte das also von hier auf jetzt mit den Hybriddingern sofort vollumfänglich zufriedenstellend funktionieren?
Ich fahre lieber mit ganzen Kernen, die dann bei Bedarf teilweise oder ganz heruntergefahren und abgeschaltet werden können.
Bei Grafikkarten mit bis zu 500 Watt OC Leistungsaufnahme spielen die letzten 5 Watt Stromeinsparung im Idle auch keine Rolle mehr.
Im Notebooksektor find eich den Hybridansatz hingegen sinnvoll, wenn man so die Akkulaufzeit ne Stunde weiter herausquetschen kann.
Die letzte Hybridgeschichte waren ja die ach so hochgelobten HDD mit SSD Cache.
Die waren schneller wieder vom Markt verschwunden, ehe ein Schwein La Paloma pfeifen konnte. ^^

SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen. Leider hat die Mehrheit der Kunden das Prinzip nicht verstanden (obwohl ich extra einen Test gemacht habe^^) und da die Technik allgemein und 3,5-Zoll-Modelle extrem spät dran waren, konnte sie keinen Durchbruch erlangen bevor SSDs billig genug wurden.



Wenn die CPU wesentlich günstiger ist, kann sie eine Option sein, aber 16 Kerne sind ein blödes Beispiel dafür. Käufer solcher CPUs interessieren sich in erster Linie für die Geschwindigkeit und wenn die 8+8 CPU ähnlich schnell sein wird, wird sie nicht 200€ günstiger sein.
8 schnelle und 8 langsame Kerne können NICHT so schnell sein wie 16 schnelle Kerne, jedenfalls wenns die gleiche Architektur ist.

Wenn man zwischen 180° gegenüberstehenden Annahmen wechselt, findet man immer einen Grund zu meckern. Zumindest in diesem Fall ist aber schon der Grundansatz Banane:
Von der Siliziumfläche her konkurrieren 8+8-Kerner nicht mit 16+0, sondern (wenn man Lakefield und die ADL-Erwartungen als Grundlage nimmt) mit 10+0 gleicher Architektur. Aus Gründen, die hoffentlich keiner Erklärung bedürfen, plant niemand "kleine" Kerne, die genauso aufwendig und teuer wie große sind.


Mal ein Autovergleich für dich: Man kann einen 8L Saugmotor einstellen, wie man will, man wird bei niedriger Last niemals an die Effizienz eines hochaufgeladenen 1L Motors hinkommen. Genauso ist es da: wenn man ein simples Design hat, das auf Sparsamkeit spezialisiert ist, dann können die großen Kerne einpacken.

Genaugenommen ist das bei Motoren sogar sehr einfach, wenn man das passende Getriebe wählt. 8 l bei 200 U/min sind, sofern der Motor auf diesen Bereich ausgelegt wurde und es nicht ein 2-Fantastilliarden-PS-8-l-Motor sein soll, eigentlich immer effizienter als 1 l bei 1.600 U/min. Die Frage ist nur, wie man den effizienten Schiffsdiesel in einem Up unterbringt respektive wieviel vom Effizienzvorteil noch übrig bleibt, wenn man das Auto entsprechend größer bauen muss. Insbesondere wenn der immense Mehraufwand preislich durch weniger Leichtbau, primitivere Aerodynamik oder ähnliches kompensiert wird.

Bessere Analogie: Man kann ein Auto auf bestmöglichen (naja...) Verbrauch bei 500 km/h optimieren und auf möglichst effizienten Stadtbetrieb. Aber man kein Auto bauen, dass in beidem überlegen ist, schon die Zielsetzungen "minimale Stirnfläche" und "minimale Parkfläche" schließen sich bei gleichem Innenraumvolumen aus. Aber genau so etwas verlangen Anwender von einem modernen Notebook. In dem Fall einfache Lösung: Man baut beide "Autos" ein und nutzt sie je nach Bedarfslage.


Indirekt kann man schon von einem Quasiverbot sprechen, wenn die Grenzwerte entsprechend gesetzt sind. So wie die neuen CO2 und Abgasnormen ein indirektes Verbrennerverbot in den unteren Autoklassen sind. Man kann beides noch herstellen, nur beim einen braucht man wertvolle CO2 Zertifikate und beim anderen muß man dann ein 1000W Netzteil oder sehr viel RAM einbauen, um unter die Ausnahmeregelung zu fallen.

Auch dieser Autovergleich hinkt. Zum einen gibt es eine vergleichbare Verschärfung für die Grenzwerte von PCs schlichtweg nicht und aktuell werden sie ja bereits eingehalten, zum anderen kann man sehr wohl weiterhin Verbrenner bauen. Nur halt nicht so, wie es die deutschen Hersteller machen respektive so nur unter entsprechenden Ausgleichszahlungen an die Allgemeinheit.
 
Zuletzt bearbeitet:
SSHDs gibt es bis heute und gerade die erste Generation war aus technischer Sicht sehr gelungen...
Das kann ich nur bestätigen. In der PS4 Slim meiner Schwester leistet eine 2 TB Seagate Firecuda SSHD im 2,5" Format sehr gute Dienste.
Selbst diese Festplatte ist wesentlich schneller als die Originale, außerdem kostete die 2019 nur 79€ in der Größe. Dafür hätte man bei einer günstigen SSD wieder nur maximal 480 GB bis heute bestenfalls 1 TB bekommen.
 
Die letzte Hybridgeschichte waren ja die ach so hochgelobten HDD mit SSD Cache.
Die waren schneller wieder vom Markt verschwunden, ehe ein Schwein La Paloma pfeifen konnte. ^^

Du möchtest uns also sagen, dass es nach einer kurzen Übergangszeit nur noch "kleine" Kerne gibt und die großen komplett abgeschafft werden für den Heimgebrauch?
 
Das ist so nicht richtig. Der einzige Hersteller, der im Moment einen "riesen großen" Vorteil bezüglich Leistungsaufnahme der Kerne hat, ist AMD. Sowohl unter Vollast als auch unter Teillast.
Intel CPU's sind in Teillastszenarien wie Gaming teils deutlich effizienter.

Korrigiert mich, wenn ich falsch liege. Aber braucht es denn wirklich große und kleine Kerne? Kann man denn für bestimmte, "anspruchslose" Aufgaben (also die für die kleinen Kerne) nicht auch eine großen Kern benutzen und den entsprechend runtertakten, womit er dann auch sehr energiesparend läuft?
Das ist ein Punkt, der viele Leute beschäftigt, mich natürlich auch. Es gibt sehr vielfältige Lastszenarien, die CPUs völlig unterschiedlich beanspruchen. big.Little macht nur dann Sinn in meinen Augen, wenn ein Task ungefähr so schnell auf einem Little Core läuft wie auf einem big Core, dafür aber signifikant weniger Energie benötigt wird. Ansonsten könnte man einen big Core ja auch einfach runtertakten. Darüber hinaus muss es genügend solcher Lastszenarien geben, damit sich das Design lohnt und das Scheduling muss schlau genug sein, um Misscheduling möglichst selten auftreten zu lassen. Im multikriteriellen Scheduling sehe ich die größten Probleme. Das muss auf unterschiedlichen Leveln gut funktionieren. Ich hoffe, dass Microsoft mit Windows 11 was ordentliches anbietet.
 
Zuletzt bearbeitet von einem Moderator:
Zurück