News Ryzen 9 7950X3D im Geekbench: Kein Punktebonus für den Cache

Könnte der 5800X3D mit Release doch noch günstiger werden, oder gleich sich das mit AMDs Ankündigung aus bzgl. gesunkener Liefermenge? Ist es realistischer, dass man unter 280 EUR erst am Gebrauchtmarkt fündig wird gegen Jahresende? Aktuell gibt es ja kaum einen unter 300-350 EUR auf ebay und co.
 
@mhmilo24 Ist zwar OT, aber für 320,-€ bekommst du den grad neu! Letzte WOche hat ein Kumpel den für 309,- bei MF gekauft... Wenn da jemand bei ebay mehr wie 250,-€ für zahlt... kann man dem nicht helfen!

Ich denke in den nächsten 4..5 Wochen werden wir den schon für 299,- € sehen... oder sogar noch weniger.
 
Zum Weiterdenken, warum es kein asynchrones 8+4-Layout gibt: Selbst ohne stacked Cache hätte man hierdurch schon ein asynchrones Design, das in Abhängigkeit der Software eine explizite Berücksichtigung erfordern würde (unters. lokale Cache-Größen, Latenzen, Temp.-Hotspots, Taktraten, ...).
Zudem nicht minderrelevant wäre, dass AMD damit seinen Topchip selbst für irrelevant erklären würde, da die Unterscheide im Gaming bzgl. der beiden CPUs noch deutlich geringer ausfallen würden, wenn beide Chips mit 8 stacked cache Cores arbeiten würden.
Da muss ich dir widersprechen...
angenommen sie machen 6+6 dann müssen sie nebst der produktion von 8er-x3d kernen auch noch eine linie mit 6er-x3d laufen lassen. was schlussendlich ganz einfach mehr aufwand und somit mehr kosten bedeuten würde. imo fraglich ob sie sowas machen. zudem könnten sie so weniger flexibel auf nachfrage einzelner produkte reagieren, da ein 6x3d dann nicht mal eben für einen 7800x3d oder eine 7950x3d nutzen könnten, wenn die nachfrage sich ändern sollte. dasselbe gilt natürlich auch umgekehrt. nachträglich aus einem zuviel produzierten 8x3d einen 6x3d machen wird wohl nicht mehr möglcih sein, zumindest hardwareseitig...

und wieso sollten sie so den 7950x3d für irrelevant erklären? schliesslich ist ja der 7950x auch nicht irrelevant geworden durch die 7900er. im gegenteil, wer die 4 zusätzlichen cores braucht/will, greift dann halt zum 8+8er.
angenommen es werden 8+4 dann hätte doch gerade der 7950x3d bei multithread-anwendungen deutlich die nase vorne. immerhin hat der dann doppeltsoviele hochtakt-kerne wie der 7900x3d. und das dürfte doch für die ganzen multitasker sehr wohl ein kriterium für die 7950x3d sein.

wenn man das ganze auch noch nach unten anschaut, würde ein 7800x3d wohl durchgehend gegen einen 6+6 7900x3d gewinnen. DAS würde dann wohl für viele gamer den 7900x3d irrelevant machen. für eine gamer-cpu macht imo die folgende plazierung mehr sinn:

7800x3d -> 8-kerne mit 3d-cache -> volle power fürs gaming
7900x3d -> 8-kerne mit 3d-cache + 4 mit vollem takt -> volle power fürs gaming und einzelne prozesse nebenher
7950x3d -> 8-kerne mit 3d-cache + 8 mit vollem takt -> volle power fürs gaming und viele prozesse nebenher

das macht imo gerade wegen der unkomplizierteren produktion mehr sinn.
 
Absolut gesehen und verglichen mit der Zen3-Gen, also dem 5800X3D, werden die stacked CCDs bei Zen4 höher takten, relativ gesehen werden diese jedoch signifikant niedriger takten als ihre non-stacked CCDs.
Wobei genau hier scheint man sich ein wenig zu pessimistisch orientiert zu haben. Wenn die 3D CPU nur 2-5% weniger in Blender und Geekbench hat, deutet das auf eine minimal niedrigere Taktrate hin, da der Cache hier genau nichts bringt. Daher gehe ich davon aus, dass das Delta unter Last deutlich geringer ist, als auf dem Papier.


Zum Glück für AMD haben Intel und Microsoft schon viel Vorarbeit geleistet seit 2019.
Jaa, ganz alleine Intels Verdienst. Sorry, aber wie so häufig ist das sehr einseitig von dir notiert. AMD hat seit 2017 Zen und die anfänglichen Probleme damit (zusammen mit MS) in den Griff bekommen. Intel könnte darauf aufbauen und das dann weiter verfeinern und für bigLittle adaptieren. Wer da mehr geleistet hat wage ich nicht zu bahupten, aber AMDs Chiplets waren auch daran beteiligt.


macht über die CCD-Grenze nur i. d. R. wenig Sinn,
Ist das nicht Quatsch?
Ohne L3 ist die Ausweichroute der DRAM der meines Wissens nach um ein Vielfaches langsamer sein dürfte als der Umweg innerhalb der CPU, oder habe ich was falsch verstanden?
Die Frage ist, wie groß der Unterschied wird in Spielen zwischen 7950X3D, 7900X3D, 7800X3D
Irgendwo zwischen 15 und 25% werden es wohl werden.
7900x3d -> 8-kerne mit 3d-cache + 4 mit vollem takt -> volle power fürs gaming und einzelne prozesse nebenher
???
Abwarten, bzw. wohl eher nicht. ich hatte auch diese These, aber damit würde man nur vollfunktionstüchtige Chips verbauen und keinerlei Teildefekte nutzen. Daher ist die 6+6 Konfi deutlich wahrscheinlicher und wahrscheinlich nichtmal schlechter. Denn die meisten Games laufen auch auf 6 Kernen durchaus brauchbar
 
???
Abwarten, bzw. wohl eher nicht. ich hatte auch diese These, aber damit würde man nur vollfunktionstüchtige Chips verbauen und keinerlei Teildefekte nutzen. Daher ist die 6+6 Konfi deutlich wahrscheinlicher und wahrscheinlich nichtmal schlechter. Denn die meisten Games laufen auch auf 6 Kernen durchaus brauchbar
Rein Rechnerisch müssten es aber wirklich 8+4 sein. Sonst hätten 6 Kerne genauso viel 3D Cache wie die 8 Kerne der beiden anderen Modellen...also pro Kern, mehr Cache.(Wenn die ganzen Tabellen von AMD nicht wieder Fehler haben/hatten)
 
Abwarten, bzw. wohl eher nicht. ich hatte auch diese These, aber damit würde man nur vollfunktionstüchtige Chips verbauen und keinerlei Teildefekte nutzen. Daher ist die 6+6 Konfi deutlich wahrscheinlicher und wahrscheinlich nichtmal schlechter. Denn die meisten Games laufen auch auf 6 Kernen durchaus brauchbar
naja, die Chips werden ja produziert und erst dann wird der Cache drauf gepackt. Und da die teildefekten wohl wie schon bei der 5000er serie am ehsten für die 6kern-cpus (7600er) benutzt werden, wäre die weiterverwendung von diesen ja schon mal geregelt. zudem müssten die 7900x3d aus gleich 2 teildefekten chips bestehen, was wohl eher unwahrscheinlich sein dürfte, in anbetracht der vorhandenen 8/16kern-cpus in der neuen gen. soviele teildefekte chips wird es in der produktion wohl kaum geben. da müsste ja fast die hälfte der teildefekt sein um die 7900er und die 7600er abzudecken...

leistungstechnisch geb ich dir teilweise recht. die 4-5% unterschied zwischen den 6kern und den 8kern ryzen ist zu vernachlässigen. aber du weisst ja wie %geil gerade wir käufer sind. würdest du eine gamercpu kaufen, welche 5% weniger leistet in games aber dafür 150.- / 30% mehr kostet? wohl kaum, das dürfte nur schwer an den mann zu bringen sein... und marketingtechnisch wohl ein mittlerer supergau. schau nur mal wie die 7900/7950 sich gegen den 7700 rechtfertigen muss.
zumal sich das argument in zukunft immer mehr abnützen wird, wenn höhere core-counts dann auch in games einen mehrwert bringen. sprich, gerade für zukünftige games wären die 6+6 7900x3d dann vermehrt schlechter, als ein reiner 8kern 7800x3d.
Rein Rechnerisch müssten es aber wirklich 8+4 sein. Sonst hätten 6 Kerne genauso viel 3D Cache wie die 8 Kerne der beiden anderen Modellen...also pro Kern, mehr Cache.(Wenn die ganzen Tabellen von AMD nicht wieder Fehler haben/hatten)
naja, der cache wird pro chiplet obendrauf gepackt und nicht pro kern. insofern könnte 6+6 schon möglich sein. aber wie gesagt, die 6kern chiplets werden für die unteren kategorien benötigt und dürften wohl in grösseren stückzahlen verkauft werden, als eine 6+6 enthusiasten cpu.
 
Macht Sinn, Geekbench ist dafür ausgelegt überall zu laufen, weshalb das Kernprogramm so klein ist dass es vermutlich vollständig in eine der niedrigeren Cache Ebenen passt - weshalb der 3D Cache gar nicht zum Zug kommt.
 
Die Programmierer müssen erstmal austüfteln, wie der zusätzliche Cache sinnvoll implementiert werden kann. Dann wirds auch mit den Anwendungen was. Laßt die Cache-Monster mal 3-4 Jahre auf dem Markt sein, dann kann sich das keiner mehr ohne vorstellen :nicken:
Gruß T.
 
Nur die Spiele Leistung zählt für mich, abwarten und Tee trinken ist angesagt ?.

Noch 9 Tage, dann wissen wir mehr. Evtl kommt ja ein Test noch ein paar Tage früher.
 
Bei mir wird es wohl der 7900X3D finde dies eine gute Kombination von Multithread und Gaming Performance in der Sicht vom Preis/Leistung Standpunkt.

Höhe MHz Zahl und genügend Cach.

Das fehlt mir leider beim 7800X3D leider.
 
Da muss ich dir widersprechen...
angenommen sie machen 6+6 dann müssen sie nebst der produktion von 8er-x3d kernen auch noch eine linie mit 6er-x3d laufen lassen. was schlussendlich ganz einfach mehr aufwand und somit mehr kosten bedeuten würde. [...]
Ist nicht zutreffend, denn dem Packaging-Prozess ist es egal ob du da ein Die mit 5,6,7,8 aktiven Kernen reinschiebst. Die Dies sind nach außenb hin identisch, d. h. der einzige Unterscheid besteht darin welche Dies du dem Prozess zuführst.
Bei deiner Flexibilitätsüberlegung übersiehst du, dass es sich beim 7900X3D um eine wohldefinierten Markt handelt, den AMD kontrollieren will. Hier wird es keine Schwemme an Produkten geben, da der Großteil der teueren V-Cache-Dies per se im Servermarkt verbaut werden wird, weil hier die Marge besser ist. Wenn man hier also konservativ plant bei diesem einen Produkt, ist das für AMD gerade gut genug, denn gerade hier wird man nicht wollen, dass der Preis ins Bodenlose fällt. Hinzu kommt, dass die CPU noch einmal signifikant teuerer ist und sich damit der Markt weiter verkleinert (selbst der reguläre 12-Kerner ist noch lange nicht im Mainstream angekommen ;-)) und letztendlich ist nicht einmal klar ob deine vermutet "uneingeschränkte" Flexibilität überhaupt selbst bei den 8-Kern-Dies besteht, denn es ist durchaus möglich, dass bspw. die für Genoa verwendeten Dies leicht abweichende elektrische Eigenschaften (Taktung, Leckströme, etc.) verlangen als die auf den Consumer-CPUs verbauten Dies, sodass hier bereits eine Vorselektion erfolgen muss. Es bliebe also ggf. bestenfalls noch die Austauschbarkeit innerhalb der Ryzen-CPU-Serie. Und bei letzterer ist noch nicht klar wie jeweils das stacked CCD takten wird, da AMD bisher keine Aussagen zum Takt gemacht hat, außer, dass man weiß, dass das CCD des 7800X3D nicht über 5,0 GHz hinauskommen soll. Die Frage ist hier nun, ob man dieses Limit beim 12- und 16-Kerner beibehält, was bedeuten würde, dass sich eine besonders große Gap zum jeweils regulären CCD auftun würde (beim 16-Kerner dann immerhin -700 MHz) oder ob AMD auch hier eine zumindest leichte Staffelung vorsieht und das stacked CCD auf dem 12- und 16-Kerner jeweils etwas höher takten kann als auf dem eher am Mainstream befindlichen 8-Kerner. Einfach mal abwarten (Testberichte und das Monitoring bzgl. des stacked CCD-Verhaltens), aber die vermeintliche Flexibilität könnte selbst innerhalb der Ryzen-Serie nur eingeschränkt gegeben sein und darüber hinaus ist nicht schwer zu erraten wie sich die grundlegenden, relativen Absatzzahlen zwischen diesen drei X3D-CPUs darstellen werden.

Hinzu kommt, AMD hat zurzeit eine Gelegenheit mit Genoa den Servermarkt aufzurollen, solange Intel noch auf seinem 7nm-Prozess unterwegs ist und hierzu müssen sie liefern können. In spätestens zwei Jahren wird das Bild anders aussehen und dementsprechend muss AMD hier ein besonderes Augenmerk auf diesen Markt legen und zusehen, dass sie so viele Kunden wie möglich in dieser Zeit gewinnen können, denn die hat man dann gesichert für längere Zeit, da Kunden in dem Bereich seltener die komplette Plattform und den Anbieter wechseln. Entsprechend wird der Server-Markt Vorrang haben und AMD wird bei Bedarf den Zufluss für die Consumer-Plattform bzgl. dieser Chips beschränken um den Server-Markt bedienen zu können.

[...] und wieso sollten sie so den 7950x3d für irrelevant erklären? schliesslich ist ja der 7950x auch nicht irrelevant geworden durch die 7900er. im gegenteil, wer die 4 zusätzlichen cores braucht/will, greift dann halt zum 8+8er. [...]
Noch mal zur Erinnerung, diese CPUs zielen auf einen sehr beschränkten Workload ab *) und hier wird die primäre Leistung durch das stacked CCD definiert. In der hypothetischen 8-Kern stacked CCD-Variante würden sich die beiden CPUs also bzgl. des/der primären Workloads nicht nennenswert unterscheiden, wohl aber durch den Preis, was ganz klar dazu führen würde, dass man den 16-Kerner (noch) seltener absetzen können würde. 16 Kerne sind im Consumer-Segment eh schon schwer unterzubringen und weit davon entfernt ein Mainstreamprodukt zu sein ...
Darüber hinaus, einen vergleichbaren Effekt konntest du schon damals beim 3700X und 3800X beobachten. Diese Produkte waren zu wenig differenziert, sodass der teuere 3800X schließlich deutlich weniger ge-/verkauft wurde. Entsprechend hat AMD auch aus diesem Versuch gelernt und das bei Zen3 sein gelassen und erst sehr, sehr viel später einen 5700X in den Markt gebracht als es dann um den Preiskampf gegen ADL ging.
In dem voraussichtlich hypothetischen Szenario 8+4 Kerne beim 7900X3D gäbe es dann zwar noch 4 zusätzliche non-stacked Kerne auf dem 16-Kerner, aber wie schon angemerkt, ist der Mehrwert für diese bspw. im Gaming überschaubar. Darüber hinaus bestünde dann aber für AMD ein zusätzliches Problem bei der Die-Selektion, denn man müsste für das 4er-CCD, was man per se ungerne anbieten wollen wird, weil es schlicht Verschwendung ist, weil insgesamt wenige Dies mit derartig massiven Defekten entstehen werden **), auch gleichzeitg noch Dies haben müsste, die elektrisch dennoch so gut sind, dass sie den höchsten Takt auf der CPU beisteuern können, denn der offiziell angegeben Boost-Takt kommt vom non-stacked CCD. Dazu käme, dass der 12-Kerner sich damit nochmals weniger für general purpose Workloads eigenen würde als der reguläre 7900X, denn der hätte dann nur noch 4 und nicht etwa 6 Kerne auf dem hochtaktenden non-stacked CCD.
Am Ende spricht m. M. nach vieles dafür, dass der 7900X3D ein 6+6 Design wird und eher weniger wahrscheinlich ein 8+4 Design.

*) (Semi)Professionals oder auch nur Anwender mit Workloads, die überwiegend in anderen Bereichen liegen, fahren anscheinend weiterhin besser mit dem regulären 12- und 16-Kerner, insbesondere wenn Zeit Geld ist, weil diese CPUs hier schlicht ein besseres P/L-Verhältnis und auch absolut gesehen eine höhere Maximalperformance abliefern.

**) Nich umsonst lässt sich AMD immer so viel Zeit diese kleinen Modelle nachzureichen, weil man erst mal über die länger laufende Fertigung diese Chips sammelt.

[...] wenn man das ganze auch noch nach unten anschaut, würde ein 7800x3d wohl durchgehend gegen einen 6+6 7900x3d gewinnen. DAS würde dann wohl für viele gamer den 7900x3d irrelevant machen. [...]
Die Betrachtung hier ist schwierig, da das Problem der Kernanzahl unabhängig vom Cache besteht. Die 12- und 16-Kerner können sich typischerweise eher wenig (Ausnahmen gibt es aber es bleiben halt Ausnahmen bei der Masse an Titeln) vom 8-Kerner absetzen. Sieht man sich bspw. Zen3 an, so verheizen die 2-CCD-CPUs typischerweise weitestgehend nur mehr Energie, liefern aber unverhältnismäßig wenig mehr FPS, sodass der SweetSpot ganz klar der 8-Kerner bleibt. Beispielsweise in der von THW durchlaufenen Suite diverser Titel liegen der 5700X (!), 5900X und 5950X alle sehr dich beieinander. Noch "schräger" wird es bei Zen4, denn hier schlägt der 7700X (mit und ohne PBO) seine größeren Ableger.
Entsprechend problematisch ist das Bild natürlich auch beim 12- und 16-Kerner bei Zen4 mit V-Cache. In so manchen Fällen werden die paar zusätzlichen Kerne des 12-Kerners sicherlich noch zweckdienlich genutzt werden können, übermäßig viel wird das aber auch hier nicht ausmachen (gemittelt über mehrere Titel), es sei denn, man kommt mit speziell ausgewählten Titeln ums Eck, so bspw. ein Anno.

Man darf gespannt sein, was die beiden größeren Chips i. V. z. 7800X3D im Gaming noch beisteuern können werden, im Mittel wird es aber grundsätzlich so sein, dass das wenig mehr sein wird, was schlicht in der Natur der Sache begründet liegt (Gaming ist ein Mainstream-Phänomen und entsprechend werden die Hardwareanforderungen ausgelegt, siehe die Konsolen mit nur acht langsamen Zen2-Kernen sowie im PC-Markt die vorhandene CPU-Kerne).

Darüber hinaus kommen noch die konkreten Anwendungsbedingungen hinzu, denn je mehr man die Rechenlast auf die GPU verlagert (hohe Grafikdetails, höhere Auflösungen, desto geringer wird der Mehrwert der V-Cache-Modelle ggü. ihren nichtgepimpten Vettern ausfallen.
Hier wird man Tests abwarten müssen, aber ich könnte mir gar vorstellen, dass es Einzelfälle bei den 2-CCD-CPUs geben wird, in denen bei sehr hoher bis maximaler Grafiklast (Raytracing ist da offensichtlich noch nicht eimal zwingend notwendig) gar die non-stacked CPUs gleich schnell oder gar geringfügig schneller sein werden als die V-Cache-Modelle?
Man darf auf jeden Fall gesapnnt sein. Einen ersten guten Blick wird man Ende Februar haben, den vollen "Durchblick" wird man leider erst im April haben, wenn auch der 7800X3D verfügbar ist.

[...] Jaa, ganz alleine Intels Verdienst. Sorry, aber wie so häufig ist das sehr einseitig von dir notiert. AMD hat seit 2017 Zen und die anfänglichen Probleme damit (zusammen mit MS) in den Griff bekommen. Intel könnte darauf aufbauen und das dann weiter verfeinern und für bigLittle adaptieren. Wer da mehr geleistet hat wage ich nicht zu bahupten, aber AMDs Chiplets waren auch daran beteiligt. [...]
Das "wie so oft" trifft lediglich auf eine ausgewählte Klientel von "Lesern" zu, die nicht imstande ist ihre Assoziationen, Erwartungshaltungen und ihr Bauchgefühl beim Lesen im Zaum zu halten und sich auf das zu beschränken, was auch tatsächlich da geschrieben steht ... und gelegentlich gehörst auch du dazu, hier mit einem Beispiel wie es besser nicht sein könnte.
Bei mir ist zu lesen, dass bzgl. des Schedulings hier die Vorarbeiten (und schon seit längerem ein fertiges Produkt) von Intel und Microsoft seit 2019 geleistet wurden, sodass man nun AMDs asymmetrisches Design absehbar relativ leicht dort integrieren können wird bzgl. einer optimierten Ansteuerung.
In deiner Reflektion wird daraus ein übertriebenes "Jaa" (wenigstens hast du ein weiteres Dutzend angehängter"a's" vermieden), der zweite (nicht ganz unwichtige ;-)) Akteur wird gleich ganz gestrichen und zu allem Überfluss wird nun noch mit unbeholfener Polemik behautet, dass es gar Intels alleiniger Verdienst sein soll.
Halte doch mal einfach deine eigene Aussage/Reflektion gegen meine und du wirst sehen, dass diese beiden rein gar nichts gemein haben und die in deiner Aussage bestehende Konnotation ganz klar von dir und deiner Leseart hineingelegt wurde.

Ergänzend, darüber hinaus besteht zudem bzgl. des grundlegenden Sachverhaltes auch keinerlei Zweifel. Intel hat die Implementaiton asymmetrischer Architekturen in den Comsumer-Markt vorangetrieben *) und arbeitet(e) hier mit Mircosoft zusammen um eine bestmögliche Unterstützung zu gewährleisten. **) AMD hat sich gar ab 2020 in vornehmer Zurückhaltung geübt und entsprechende offizielle Statemens abgegeben, als in 2020 erste Konkretisierungen zum Alder Lake-Design und dessen möglichen Auswirkungen bzgl. zukünftiger Entwicklungen bekannt wurde. Nachvollziehbarerweise, denn man wollte natürlich vermeiden dem Hauptkonkurrenten irgendwie Auftrieb zu verleihen, aber wie so oft sind es natürlich zwei unterscheidliche Paar Schuhe, was man macht (in laufenden Projekten) und was man zu einem gegebenen Zeitpunkt das Marketing offiziell erklären lässt.

*) Welche nachvollziehbaren oder auch nur spekulierten oder gar vorgeworfenen Gründe Intel immer gehabt haben mag bzgl. der Einführung eines asymmetrischen CPU-Designs, jedoch ändern diese nichts an dem hier diskutierten Sachverhalt und auch völlig unabhängig davon, wie man zu diesen Gründen stehen mag bzw. welche man präferiert.

**) Konkret wird sich Microsoft mit ihrem Windows-on-ARM-Zweig gar schon länger mit der grundsätzlichen Thematik auseinandergesetzt haben müssen, da ein derartiger Aufbau dort der Standard ist. (Von ARM erstmals in 2011 eingeführt, wobei entsprechende Evaluierungen zu asymmetischen Prozessoren bereits bis Anfang dieses Jahrtausends zurückreichen.)
 
Zuletzt bearbeitet:
Ich hab 0 Plan von Programmierung, mich würde jedoch mal interessieren ob Entwickler aktiv/bewusst Spiele so programmieren dass diese vom 3d Cach profitieren oder ob das eher zufällig per Engine passiert dass Spiele davon profitieren können.
 
Ist nicht zutreffend, ...
Danke für deine Ansichten. Ich gehe jetzt nicht weiter auf das Thema ein, auch wenn ich gerne würde. Aber wir haben nun soviele EInzelbereiche angesprochen, dass es schlicht zu unübersichtlich würde.

Ich bleib trotz deiner teils guten Punkte bei meiner Prognose eines 8+4 und bin wirklich verdammt gespannt, was es denn schlussendlich werden soll... habe noch selten so auf einen hardwarelaunch hingefiebert. XD
 
Das "wie so oft" trifft lediglich auf eine ausgewählte Klientel von "Lesern" zu, die nicht imstande ist ihre Assoziationen, Erwartungshaltungen und ihr Bauchgefühl beim Lesen im Zaum zu halten
Nein, du schreibst es einfach nicht. Wenn du die Vorarbeit lediglich im Scheduling von "asymetrischer" CPUs siehst, hast du selber schon geschrieben, dass sicherlich diverse Tätigkeiten schon seit der Ankündigung Windows on ARM laufen müssten. Es geht aber in meinen Augen hier nicht nur um asymetrische Designs, sondern schlicht und einfach um Zuweisung der Prozesse auf einen CCD und eben das wird sich bei AMDs asynchronen 3Ds nicht wirklich ändern. Es wird darum gehen, die Prozesse auf einem CCD zu halten und das hat AMD und Microsoft eben schon seit 2017 "abgearbeitet". Intel hat eben hierauf (mit MS, die ich jetzt nicht jedesmal erwähnen will) aufgebaut und die Scheduler auf ihr asymetrisches Design geändert. Für AMD dürfte aber mit den 3Ds gar nicht viel an Arbeit anstehen, da bereits mit der ersten ZEN Generation das Ziel war, zusammenhängende Prozesse in einem CCD zu halten um eben die Latenzen so niedrig wie möglich zu halten. Es wird jetzt nur darum gehen, diese kritischen Prozesse dem wichtigen und richtigen gestackten CCD zuzuweisen. Daher glaube ich nicht, dass man von Intels Arbeit wirklich großartig profitieren kann, sondern seine eigene Arbeit nur minmal verfeinern muss. Es gab ja auch schon seinerzeit Anpassungen, dass Windows den besseren CCD nahm, so wird es jetzt auch laufen.

Ergänzend, darüber hinaus besteht zudem bzgl. des grundlegenden Sachverhaltes auch keinerlei Zweifel. Intel hat die Implementaiton asymmetrischer Architekturen in den Comsumer-Markt vorangetrieben *) und arbeitet(e) hier mit Mircosoft zusammen um eine bestmögliche Unterstützung zu gewährleisten.
Hinsichtlich des asymetrischen Designs würde es wenig Widerworte geben. Wie gesagt, vieleicht kam dies dann am Ende aus deinem Post (zumindest in dem Bereich wo MS / Intel genannt wurden) nicht deutlich genug heraus.

In deiner Reflektion wird daraus ein übertriebenes "Jaa" (wenigstens hast du ein weiteres Dutzend angehängter"a's" vermieden), der zweite (nicht ganz unwichtige ;-)) Akteur wird gleich ganz gestrichen und zu allem Überfluss wird nun noch mit unbeholfener Polemik behautet, dass es gar Intels alleiniger Verdienst sein soll.
Naja, du schreibst, dass Intel und MS da einiges an Vorarbeit geleistet haben von der AMD jetzt profitiert. Sehe jetzt wenig Anhaltspunkte in deiner Aussage, dass es eben auch andere daneben gegeben haben soll.
 
Zurück