Intel Alder Lake: Taktraten eines Core i9-12900K QS, Kernkonfigurationen und Windows 11

PCGH_Torsten

Redaktion
Teammitglied
Es kommen bestimmt gleich welche, die wieder wissen, warum aus den CPUs nichts werden kann. Aber für mich hört es sich erstmal gar nicht schlecht an.

Bin natürlich gespannt wie es im Detail funktioniert, mit den 8 starken Kernen.

Wenn mit diesen 8+8 tatsächlich Cinebench Werte in der Größenordnung eines ZEN 3 16 Kerners schaffen sollte, so ist das zwar absolut betrachtet für viele nur interessant (weil eigentlich will man nur mehr und nicht etwa so viel, wie eine schon vorhandene CPU) aber auf der anderen Seite, fänd ich das schon recht stark. Mit "nur" 8 Starken Kernen und dazu 8 Hilfszwerge

Wenn die auf Twitter als Screenshot verbreitet Aussage stimmt, dass Gracemont fast an Sunny Cove rankommt, dann sind die "Hilfszwerge" fast so stark wie die heutigen Kerne und die "starken" kommen on top. Das kommt mir zwar weiterhin sehr ambitioniert vor, zumindest wenn es sich nicht nur auf einige wenige Anwendungensszenarien bezieht, zusammen mit den 3,9 GHz Takt passt es aber zu einem älteren Leak, dem zu Folge die kleineren Kerne in einer Liga mit Skylake spielen sollen.


Die Moderatoren arbeiten hier ehrenamtlich und haben mit der Produktion des Hefts und den Online-Artikeln nichts zu tun. Sehr schade, dass du uns Redakteure dafür abstrafst, fair ist das nicht. :daumen2:

Noch merkwürdiger, dass er die armen Mods im Forum weiter belästigt, anstatt auf das komplett Mod-freie Heft zu wechseln. :-) [/offtopic]
 

Threshold

Großmeister(in) des Flüssigheliums
Bedeutet das also, dass man für den 8+8 Kern Kram zwangsläufig windows 11 braucht, weil windows 10 nicht zwischen schnellen und Atom Kernen unterscheiden kann?
 

Herbststurm

Software-Overclocker(in)
Die Mischung aus großen & kleinen Kernen setzt einen angepassten Scheduler voraus, damit das gut funktionieren kann, denn alte Software & Betriebssysteme die darauf nicht ausgelegt sind, wissen ja nicht wie sie damit richtig umzugehen haben.

Kann mir gut vorstellen, dass es bei alten Spielen bzw. Software zu Leistungsabfällen kommen kann.

Der Weg den Intel damit gerade eingeschlagen hat, gefällt mir persönlich nicht so gut, da schaue ich mir lieber erstmal an, was AMD mit den nächsten Ryzen noch so auf den Weg bringt.
 

gerX7a

BIOS-Overclocker(in)
Und habe ich etwas anderes behauptet? [...]
Dann solltest du mal richtig Lesen und Schreiben lernen und nicht in den Post einsteigen mit "So ein Unsinn schon wieder" ...
Deine offensichtliche intelverehrung und deinen AMD Hass brauchst du nicht in jedem Posting zum Ausdruck bringen, vor allem kannst du mit deinen sinnbefreiten absurden Unterstellungen aufhören.
Offensichtlich mache ich das auch nicht. Du musst halt lernen zwischen deinen eigenen Assoziationen und dem was da bei mir tatsächlich zu lesen ist, zu unterscheiden. Das scheint dir offensichtlich schwer zu fallen, das muss ich aber deshalb dennoch nicht zu meinem Problem machen.
Darüber hinaus zum Thema Unterstellungen, siehe oben und die diverse vorausgegangene Postings von dir ...
Weil wenn du in der Lage wärst richtig zu lesen -[...]
Warum dann die Notwendigkeit für dieses (wie du es bezeichnen würdes Intel-Gebashe) mit "sich nicht mehr mit jährlichen 5% Zuwachs begnügen darf." Ah, ich vergaß ... in deinem Kontext ist so etwas natürlich nur immer rein informativ gemeint. ;-)
Selbstverständlich kann man das, in dem man einfach die Konzepte vergleicht. Und wenn ein Big Core von intel nicht um ein vielfaches schneller wie ein Zen3 Kern ist, kann man schlicht und ergreifend in der MT Leistung ja nicht besser wie der 5950 abschneiden. Wie soll das auch gehen? Aber auch hier wieder sehr amüssant, dass du hier natürlich nicht kritisch wiederfragst, woher das wohl nur kommen mag ;-)
Das um ein "Vielfaches schneller" ist sinnlose Polemik, denn dann gäbe es diese Diskussion hier gar nicht. Der Twitterer spricht bereits beim QS von gemessenen 9300+ Punkten im R20 und damit übertrifft der QS bereits den 5900X um rund 9 %. Was dann noch später im finalen Produkt hinzu kommt, wird man abwarten müssen (wenn noch etwas Nennenswertes hinzu kommt?).
Der Rest hängt noch in der Schwebe, da man nicht weiß wie schnell Gracemont ist und der noch wesentlichere Faktor dürfte sein, wie sich der Chip verbrauchstechnisch verhält, denn mit Luft und Liebe allein werden die zusätzlichen 8 Gracemont-Kerne auch nicht rechnen.

Und ja, amüsant ist tatsächlich, dass du immer erst auf der persönlichen Schiene mit Unterstellungen und Vorwürfen kommst und es erst im Nachhinein mit einer halbwegs ernst zu nehmenden Diskussion versuchst.
Weswegen sollte das ein Vorteil sein? Einfach gesagt mehr Kerne/Threads = mehr Leistung und das man mit schwachen Kernen nicht an starke rankommt sehe ich nicht als Vorteil an. Da wird man definitiv nicht an einem 5950 vorbeiziehen können.
Einfach den Absatz noch mal lesen und deine Fantasie ausschalten, dann ergibt sich der Rest von selbst.
In einer reformulierten, vielleicht für dich leichter verdaulichen Art liest sich der Absatz folgendermaßen:
Tasks wie (u. a.) 3D-Rendering dürften einen idealen Workload darstellen um die Leistungszugewinne bei Alder Lake im bestmöglichen Licht zu demonstrieren, denn hier wird es keine nennenswerten Reibungsverluste aufgrund des Hybrid-Designs geben. Und diesen "idealen Workload" bezeichnete ich in meinem vorausgegangenen Post als "vorteilhaften Workload", nicht mehr und nicht weniger und dort war auch nichts von absoluten Leistungsvergleichen zu lesen.

Es sind bis zu 96MB pro CCD
CCD mit 32 MB und das Cache Chiplet hat 64 MB
Ja, ich weiß, eine formulierungstechnische Ungenauigkeit meinerseits, konkret ein 7nm-64-MiB-Cache-Slice oben auf einem Zen3-CCD.
Als 2x32 oder 2x96 MiB kann man aber dennoch einwerfen, dass je nach Workload viele Daten redundant in beiden Caches vorgehalten werden. (Viel hilft hier aber in gewissem Rahmen dennoch viel ;-))

Die Mischung aus großen & kleinen Kernen setzt einen angepassten Scheduler voraus, damit das gut funktionieren kann, denn alte Software & Betriebssysteme die darauf nicht ausgelegt sind, wissen ja nicht wie sie damit richtig umzugehen haben.

Kann mir gut vorstellen, dass es bei alten Spielen bzw. Software zu Leistungsabfällen kommen kann.

Den Weg den Intel gerade eingeschlagen hat, gefällt mir persönlich nicht so gut, da schaue ich mir lieber erstmal an was AMD mit Ryzen noch so als nächstes auf den Weg bringt.
Muss es nicht zwangsweise, vielleicht gar eher im Gegenteil, da Golden Cove absehbar die schnellste Mikroarchitektur von Intel ist und daher alle älteren Generationen übertreffen wird, zumal augenscheinlich nicht einmal Einbußen beim Takt hingenommen werden müssen.
Wenn der Scheduler etwas wie einen Fallback oder "Sicherheitsdmodus" anbieten wollen würde, könnte dieser pauschal die primäre Applikation ausschließlich auf die großen Golden Cove-Kerne verteilen und zusätzlich könnte man diese gar noch komplett freihalten von jedweden anderen Hintergrundprozessen. Und da alte Titel mit 8 Kernen i. d. R. per se gut bzgw. gar schon überdimensioniert ausgestattet sind, müssen da nicht zwagsweise Probleme oder Einbußen entstehen. Im Zweifelsfall könnte Intel auch ein kleines Tool bereitstellen, in dem der Anwender das einstellen kann, sodass er kein manuelles Core-Pinning bereiben muss.
Hier wird man einfach abwarten müssen, was sich Intel und Microsoft da ausgedacht haben. An dem Thema sitzen die ja schon seit 2019 dran, ist also kein wirkliches Neuland.

*) Technisch interessant bleibt noch, was Intel mit "hardware-assisted scheduling" meint, denn ADL scheint hier nicht nur einfach dem OS zwei unterschiedliche Kerntypen vorzuwerfen.

**) Letzten Endes wäre ich aber auch überrascht, wenn ein so breit angelegter Start im Massenmarkt nicht irgendwo zu Problemen führen würde, jedoch kann man hier davon ausgehen (wie auch bei der Zen-Einführung), dass Microsoft und Intel das schnellstmöglich beheben werden. Andererseits ist ADL schon seit Oktober 2020 in der Sampling Phase, d. h. man hatte möglicherweise Zeit genug?
 
Zuletzt bearbeitet:

Herbststurm

Software-Overclocker(in)
Hier wird man einfach abwarten müssen, was sich Intel und Microsoft da ausgedacht haben. An dem Thema sitzen die ja schon seit 2019 dran, ist also kein wirkliches Neuland.

Muss man wirklich erst einmal abwarten, was da genau am Ende bei raus kommt bin auf jeden Fall gespannt, wie das Alles angegangen und gelöst wird.

Frage mich nur, wie sich die Mischung von Groß & Klein auswirken wird, wenn man mal z.B. auf einen Rutsch mehrere Videos encodieren will, ob es da zeitlich große Unterschiede geben wird .... ich denke mal ein richtiger 16 Kerner( nur goße Kerne ) ist da stark im Vorteil.
 

gerX7a

BIOS-Overclocker(in)
Mir musst du damit nicht kommen, aber die Benchmarks von Anandtach hatten durchaus ihre Wirkung, wenn auch eine "physiologische". Ein paar Beispiele?
Lol, ich wusste nicht, dass du es dermaßen auf die Spitze treiben würdest. ;-) Ja, da stimme ich dir zu nur sind diese Resultate weitestgehend von theoretischem Interesse und bewegen sich bspw. physiologisch betrachtet weit jenseits jeglicher Frage zur Relevanz (mal abgesehen davon, dass selbst displaytechnisch irgendwo bei 3xx Hz derzeit schluss ist).
Wie das am Ende skalieren wird mit den +64 MiB L3$ pro CCD (@hanfi104 ;-)) wird interessant zu beobachten sein. Bei AMD weiß man schon was danach kommen wird, also vergleichweise unspannend (oh weh, das kann wieder missverstanden werden :-D), bei Intel wird dann ungleich spannender zu beoachten sein *), wie sie das im 2HJ22 mit Raptor Lake zu kontern versuchen werden, von dem man zwar noch nichts gesichert weiß, aber zumindest schon mit hoher Wahrscheinlichkeit vermuten kann, dass die mit dem noch eine weitere Runde in 10nm einlegen werden. (Hier ist nicht einmal bekannt ob noch eine echte Prozessiteration über 10nm ESF hinaus vorgesehen ist, die noch ein wenig beitragen könnte; man kann aber auch eine teilweise Nutzung von bspw. TSMC nicht ausschließen, wobei ich die für eine CPU aber hier noch für verfrüht halten würde).
Zen4 wird sicherlich eine harte Nuss werden, die Frage, die sich hier aber auch stellt, ist die der allgemeinen Relevanz. Enthusiasten werden sicherlich oftmals zum schnellstmöglichen greifen wollen, der Massenmarkt insgesamt ist dagegen deutlich ggegüngsamer unterwegs und dementsprechend wird man hier vermutlich mit den 10nm-Produkten dennoch Boden gutmachen können.

*) Für Zartbeseitete: "spanned" hier in dem Kontext, dass man dazu noch keine Details kennt und sich frage muss, wie das Aufbauen einer echten Konkurrenzsituation mit 10nm vs. 5nm gelingen soll, während man schon zu Zen4 hörte, dass der noch einmal einen vergleichbaren Sprung wie Zen3 hinlegen können soll.
"(un)spannend" drückt in diesem Kontext keine Präferenz aus und hat erst recht nichts mit irgendeiner Firma zu tun, auch wenn so mancher das Adjektiv in einem derartigen Absatz und Kontext zwangsweise negativ belastet und gegen eine bestimmte Firma gerichtet verstanden wissen möchte. ;-)

Frage mich nur, wie sich die Mischung von Groß & Klein auswirken wird, wenn man mal z.B. auf einen Rutsch mehrere Videos encodieren will, ob es da zeitlich große Unterschiede geben wird .... ich denke mal ein richtiger 16 Kerner( nur goße Kerne ) ist da stark im Vorteil.
Video-Rendering weist ein paar mehr Thread-Abhängigkeiten auf (i. V. z. 3D-Rendering), wird aber vermutlich dennoch relativ gut skalieren. Am Ende hängt es halt von der grundsätzlich zur Verfügung gestellten Maixmalleistung ab. Eine Milchmädchenrechnung mit fiktiven Werten:
Zen3 = Golden Cove = 1,0, Gracemont = 0,5 (bei vergleichbarem Takt, bzw. selbigen ignorierend)
5900X = 12 x 1,0 = 12,0 "Durchsatz"
ADL 8+8 = 8 x 1,0 + 8 x 0,5 = 12,0 * 0,9 "Thread-Reibungsverluste"(?) = 10,8 "Durchsatz"

Insbesondere beim Rendering steht zudem auch die Frage nach der gemittelten Leistung über eine längere Zeitspanne im Raum, d. h. hier wird man abwarten müssen, wie sich die CPU verhält, denn vermutlich sind die 10nm ESF deutlich effizienter als die 14nm aber ebenso vermutlich weiterhin weniger effizient als die 7nm von TSMC, denn ansonsten müsste nicht Intel einen deutlich höheren PL2 für ADL angeben i. V. z. zu Zen3.

Anmerkung am Rande: Mit einem Ampere-Modell konnte ich mittels nvenc noch nicht die Qualität testen, aber hier leisteten schon ältere Implementationen beachtliches, sodass sich per se die Frage stellt, ob eine CPU-Berechnung hier für den Privatgebrauch sinnvoll ist. Beispielsweise in Blender/Cycles (3D) rendert eine RTX 3090 selbst einen 64-Kern-Threadripper in Grund und Boden und mit 24 GiB VRAM hat man bereits einigen Puffer bzgl. der Szenengröße und selbst mit zwei über NVlink verbundenen Karten käme man immer noch billiger weg als mit dem Threadripper (gemäß MSRP gar deutlich ;-)).
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Wenn man es nüchtern betrachtet, kann die CPU mit dem 5950 in MT gar nicht mithalten, sonst müssten die großen Kerne ja deutlich mehr wie 25% flotter als die Zen3 Kerne sein.

Es ist durchaus machbar, da es ein ES ist (auch wenn die meist eher weniger Takt haben) und die TDP wohl nicht gedeckelt wurde. Wenn der R9 5950X sich nur seine TDP genehmigen kann, der 12900K aber ungedrosselt ist, dann könnten die großen Kerne mit über 5GHz laufen, während der R9 5950X mit unter 4GHz zu werke geht. Macht also schonmal ein gutes Drittel mehr Takt und wenn dann auch noch 10-20% (DDR5) mehr IPC dazukommen, dann ist man da durchaus bei über 12 AMD Kernen. Die große Unbekannte sind ja kleinen Kerne. Gehen wir mal davon aus, dass die Gerüchte über Skylake IPC stimmen und sie sich auf knapp 5GHz takten lassen, dann wäre da etwa die Leistung eines i7 9700K drin. Zusammen könnte es dann tatsächlich ausreichen.

Wenn man allerdings den R9 5950X richtig von der TDP Leine läßt oder den i9 12900K auf seine vermutlichen 125W drosselt, dann könnte es anders aussehen.
 

BigBoymann

Software-Overclocker(in)
Es ist durchaus machbar, da es ein ES ist (auch wenn die meist eher weniger Takt haben) und die TDP wohl nicht gedeckelt wurde. Wenn der R9 5950X sich nur seine TDP genehmigen kann, der 12900K aber ungedrosselt ist, dann könnten die großen Kerne mit über 5GHz laufen, während der R9 5950X mit unter 4GHz zu werke geht. Macht also schonmal ein gutes Drittel mehr Takt und wenn dann auch noch 10-20% (DDR5) mehr IPC dazukommen, dann ist man da durchaus bei über 12 AMD Kernen. Die große Unbekannte sind ja kleinen Kerne. Gehen wir mal davon aus, dass die Gerüchte über Skylake IPC stimmen und sie sich auf knapp 5GHz takten lassen, dann wäre da etwa die Leistung eines i7 9700K drin. Zusammen könnte es dann tatsächlich ausreichen.

Wenn man allerdings den R9 5950X richtig von der TDP Leine läßt oder den i9 12900K auf seine vermutlichen 125W drosselt, dann könnte es anders aussehen.

Es ist aber doch kein ES, sonder ein QS. Die sind doch mit den finalen Taktraten ausgestattet.

Das Alder Lake die 16 Kerner angreift, sollte jedem bewusst sein, die IPC müsste steigen, dazu 8 kleinere, dennoch brauchbare Kerne. Man liegt in der pro Kern Leistung bei den 8 großen Kernen damit vor AMD, die kleinen Kerne müssen dann den Rest machen. Der 12 Kerner kann nicht das Ziel sein. Es muss auf den 16 Kerner geschielt werden.

Für mich ist viel interessanter, wie sich Takt und Verbrauch machen. Wenn der Bench mit 11.300 Punkten bei deutlich über 200W erzielt wurden, dann gute Nacht Intel. Dann kommt man mehr als ein Jahr später mit einer gleichschnellen, aber ineffizienten Architektur um die Ecke, obwohl diese eigentlich auf Effizienz getrimmt sein soll? Mal sehen was kommt.
 

Rollora

Kokü-Junkie (m/w)
Wenn Alder Lake mit 10 Nm kommt, steht bei AMD schon mit Zen4 in 5NM in den Startlöchern.
Das wird also nicht reichen für Intel, man ist zu spät dran.
Der Fertigungsnachteil wird so weiter omnipräsent sein, so wird das nichts werden!
Zen 4 kommt halt fast ein Jahr später, das wär eher was für Raptor Lake, der aber auch 10nm istvAFAIR. Wenn dubaber gerne CPUs vergleichen möchtest, die viele Monate auseinander liegen, kannst du mit Zen 4 auch gleich Meteor Lake vergleichen. Dervist denn in Intels 7nm - einem mit TSMCs 5nm vergleichbaren Prozess) gefertigt
Eben und ich garantiere Euch beim Release von ALD werden weder der Preis noch die Leistung, stimmen!
Die Preise bei Release sind bei beiden aufgrund der knappen Liefersituation erhöht. Das solltest du eigentlich wissen. Ebenso, dass Intel hier wesentlich geringere Probleme hat schnell hohe Liefermengen rauszuhauen. Das heißt also: ja, die Preise werden anfangs leicht erhöht sein bei mqnchen Chips.
Aber wärst du weniger Fanboy, müsstwst du wohl zugeben, dass das erwa bei Zen 3 Release noch viel Krasser war
 
Zuletzt bearbeitet:

BlubberLord

Komplett-PC-Aufrüster(in)
War die Kritik an Intel nicht zuletzt hauptsächlich der Stromverbrauch? Mit diesem Konzept wird es unter Volllast zwar vermutlich weiterhin nicht mit AMDs Ryzen mithalten können – in niedrigeren und gemischten Lastszenarien sollte das Big/Little-Konzept aber extrem sparsam sein.
Wenn ich das recht entsinne waren die Zens durch den Infinity Fabric zum Verbinden der CCD im Idle und bei niedriger bis mittlerer Auslastung relativ leistungshungrig.

Hat irgendwer gerade mal einen Vergleich parat von Intel 10000 mit Ryzen 5000 unter praktischer Gaminglast (z.B. WQHD/4K, max. Details, 120 fps Framecap für FreeSync)?

Für Number Crunching auf der CPU wird Ryzen/Threadripper wohl weiterhin das Maß der Dinge bleiben. Für Gaming und gemischte Anwendungen (ich nehme an dass die meisten Hobby-Spieler hier ihren PC auch zum Videos gucken, Homeoffice etc. nutzen) könnte Alder Lake aber auch abseits von Fanboyism echte Vorteile bieten (Preis/Leistung, Stromverbrauch gemittelt, PCIe/DDR5, Gamingleistung...). Von Mobilanwendungen ganz zu schweigen natürlich.

Etwas traurig für Intel finde ich, dass der 10900K als einsamer 10 Kern-Leuchtturm stehen bleibt und nach wie vor die Nachfolger schlägt — hat auch was Gutes: Der ist oft günstig zu haben und kommt in Regionen von aktuell teureren Ryzens.
 

Bärenmarke

BIOS-Overclocker(in)
Dann solltest du mal richtig Lesen und Schreiben lernen und nicht in den Post einsteigen mit "So ein Unsinn schon wieder" ...

Richtig Lesen und Schreiben solltest du definitiv mal lernen, wäre allerhöchste Zeit dafür!
Und wenn es Unsinn ist was du schreibst, dann benutze ich auch das Wort Unsinn! Denn Die V-Cache Lösung ist schon lange von AMD geplant und keinerlei Reaktion auf ADL, sondern war vielmehr für den Einsatz im Serversegment gedacht und wandert durch das Chipletdesign auch in den Desktop, was gut für uns ist.

Offensichtlich mache ich das auch nicht. Du musst halt lernen zwischen deinen eigenen Assoziationen und dem was da bei mir tatsächlich zu lesen ist, zu unterscheiden. Das scheint dir offensichtlich schwer zu fallen, das muss ich aber deshalb dennoch nicht zu meinem Problem machen.
Darüber hinaus zum Thema Unterstellungen, siehe oben und die diverse vorausgegangene Postings von dir ...

Nein natürlich machst DU das nicht. Deswegen hast du mir das auch gleich unterstellt und dem Gaus auch gleich mit ein Fanboy zu sein, weil er erwähnte, dass das Cache Monster von AMD im Gaming davon ziehen wird. (Was dir offensichtlich nicht in den Kram passt). Derweil ist das ganz selbstverständlich, dass wenn eine Anwendung/Game darauf anspricht (Cache) auch einen ordentlichen Boost dadurch bekommt...
Von daher ja, solltest du dringend mal lernen das wirklich geschriebene von deinen wirren Assoziationen zu trennen. Nimmt mir ja schon langsam beängstigende Züge bei dir an!

Warum dann die Notwendigkeit für dieses (wie du es bezeichnen würdes Intel-Gebashe) mit "sich nicht mehr mit jährlichen 5% Zuwachs begnügen darf." Ah, ich vergaß ... in deinem Kontext ist so etwas natürlich nur immer rein informativ gemeint. ;-)

Wo meine Aussage intelbashing war, weißt wohl auch nur du? Aber da wären wir wieder bei dem Punkt Lesen lernen und nicht die eigenen wirren Assoziationen niederschreiben. Denn ich hab klar geschrieben, dass man ja froh über einen ordentlichen Leistungszuwachs von AMD und intel sein kann und nicht nur einen Zuwachs von 5% bekommt (für die wohl die wenigsten aufrüsten würden). Also was stört dich daran, dass ich es gut finde, dass die Leistung bei beiden ordentlich wächst?
Sieht mir eher nach Wahnvorstellungen von dir aus. Wenn man dann dazu dein Geschwurbel von oben bezüglich dem richtigen Lesen zu Rate zieht, ist es der nächste klassische Selfown, mit dem du bewiesen hast, dass du lieber etwas abstrudes hineininterpretierst, als einfach das gelesene zur Kenntnis zu nehmen.

Das um ein "Vielfaches schneller" ist sinnlose Polemik, denn dann gäbe es diese Diskussion hier gar nicht. Der Twitterer spricht bereits beim QS von gemessenen 9300+ Punkten im R20 und damit übertrifft der QS bereits den 5900X um rund 9 %. Was dann noch später im finalen Produkt hinzu kommt, wird man abwarten müssen (wenn noch etwas Nennenswertes hinzu kommt?).
Der Rest hängt noch in der Schwebe, da man nicht weiß wie schnell Gracemont ist und der noch wesentlichere Faktor dürfte sein, wie sich der Chip verbrauchstechnisch verhält, denn mit Luft und Liebe allein werden die zusätzlichen 8 Gracemont-Kerne auch nicht rechnen.

Wieso sollte es denn sinnlose Polemik sein, wenn man die Frage in den Raum wirft, dass die Big Cores deutlich schneller sein müssen? Du scheinst mir wirklich ein grundlegendes Problem zu haben, denn wenn ich bei dem Big-Little Prinzip mit einem reinen Big-Core-Design mithalten möchte, dann müssen die Big Cores zwangsläufig viel Leistung abliefern...
Jedoch stimme ich dir bei dem Verbrauch gerne zu, denn schneller zu sein ist das eine, wie viel dabei verbraucht wird sollte dabei nicht außer Acht gelassen werden. Zudem ist auch sehr interessant, welchen Einfluss DDR5 hat, vor allem auch im Hinblick auf die Leistung die man dann von Zen4 mit DDR5 im Vergleich zu Zen3 erwarten darf.

Und ja, amüsant ist tatsächlich, dass du immer erst auf der persönlichen Schiene mit Unterstellungen und Vorwürfen kommst und es erst im Nachhinein mit einer halbwegs ernst zu nehmenden Diskussion versuchst.

Ja es ist amüsant, dass du nie ohne eine persönliche Schiene auskommst (siehe das Beispiel mit Gaus) und irgendwie nicht daran interessiert bist, einfach mal ohne jeglichen BIAS über AMD zu diskutieren, egal ob bei den CPUs oder GPUs.
Weil grundsätzlich bei dem einen Hersteller immer ultra positiv zu sein und alles als gesetzt zu nehmen, auch bezüglich der Roadmaps (obwohl gerade intel in den letzten Jahren nicht so verlässlich war) und bei dem anderen Hersteller siehst du überall alles kritisch und immer Verspätungen... Nach einer ernsthaften Interesse an einer sachlichen Diskussion sieht mir das nicht aus.

Einfach den Absatz noch mal lesen und deine Fantasie ausschalten, dann ergibt sich der Rest von selbst.
In einer reformulierten, vielleicht für dich leichter verdaulichen Art liest sich der Absatz folgendermaßen:
Tasks wie (u. a.) 3D-Rendering dürften einen idealen Workload darstellen um die Leistungszugewinne bei Alder Lake im bestmöglichen Licht zu demonstrieren, denn hier wird es keine nennenswerten Reibungsverluste aufgrund des Hybrid-Designs geben. Und diesen "idealen Workload" bezeichnete ich in meinem vorausgegangenen Post als "vorteilhaften Workload", nicht mehr und nicht weniger und dort war auch nichts von absoluten Leistungsvergleichen zu lesen.

Ich hab den Absatz gelesen, aber danke der Nachfrage ;-)
Jedoch sehe ich nicht, wieso das ein idealer Workload wäre. Denn wenn ich Rendere dann möchte ich eigentlich eher ausschließlich BIG-Cores. Ideal wäre es eher bei einem Mixed Betrieb bzw. im Mobile Segment, aber wenn es auf volle Leistung ankommt, hätten die Leute wohl eher noch lieber mehr von intels Big-Cores ;-)



Es ist durchaus machbar, da es ein ES ist (auch wenn die meist eher weniger Takt haben) und die TDP wohl nicht gedeckelt wurde. Wenn der R9 5950X sich nur seine TDP genehmigen kann, der 12900K aber ungedrosselt ist, dann könnten die großen Kerne mit über 5GHz laufen, während der R9 5950X mit unter 4GHz zu werke geht. Macht also schonmal ein gutes Drittel mehr Takt und wenn dann auch noch 10-20% (DDR5) mehr IPC dazukommen, dann ist man da durchaus bei über 12 AMD Kernen. Die große Unbekannte sind ja kleinen Kerne. Gehen wir mal davon aus, dass die Gerüchte über Skylake IPC stimmen und sie sich auf knapp 5GHz takten lassen, dann wäre da etwa die Leistung eines i7 9700K drin. Zusammen könnte es dann tatsächlich ausreichen.

Dass man den 5900 knackt das wird wohl außer Zweifel stehen, aber wie gesagt, wenn der 5950 geschlagen werden soll, dann müssen auch die kleinen Kerne ordentlich performen und das halte ich schon für fragwürdig, weil ihnen ja auch HT fehlt. Sprich im MT steht es dann 24 vs 32 Threads was bei einer entsprechenden Auslastung schon etwas ausmacht. Aber klar, wenn man ein deutlich höheres Powertarget zur Verfügung hat und dadurch einen Taktvorteil hat sieht es anders aus, ich bin jetzt eher davon ausgegangen, dass intel verbrauchsmäßig wieder nach unten geht.

Wenn man allerdings den R9 5950X richtig von der TDP Leine läßt oder den i9 12900K auf seine vermutlichen 125W drosselt, dann könnte es anders aussehen.

Gut, wenn sich eine der beiden die höhere Leistung durch massiv höheren Stromverbrauch erkauft, kann dies natürlich gut sein. Wobei ich das nicht als sinnvollen Leistungsvergleich erachte
Jetzt mal frei erfundene Werte:
Hersteller 1 benötigt für Leistung X 100 Watt
Hersteller 2 benötigt für Leistung X+10% 200 Watt
Dann ist das halt nicht so pralle, weil Hersteller 1 ja seinem Produkt auch mehr Stromaufnahme gewähren könnte, deswegen bin ich da auch skeptisch.
 
Zuletzt bearbeitet:
Oben Unten