Intel Alder Lake: Neuer Leak zum "16-Kerner" mit vielen Details

Naja.. ich denke Mal das ganze wird stehen und fallen mit Windows und wie gut es damit umgehen kann..
Aktuell ist der Windows sheduler ja nichtmals wirklich in der Lage zwischen einen echten Kern und einen HT pseudo Kern zu unterscheiden was die Zuweisung von threads angeht

Was den 16kerner zum zocken angeht. Ja ist im Moment etwas Overkill..
Ich hab meinen auch nur weil ich ihn damals günstiger (zum UVP) als einen 12 Kerner bekommen habe,dessen Verkaufspreis durch die Decke ging und ich mir dachte wenn schon soviel Geld dann direkt der große.

Andererseits ist es schon schön was man im Hintergrund noch so alles machen kann..
Und seien wir Mal ehrlich.. heute ist es Overkill.. in 2-4 Jahren werd ich vielleicht froh sein das ich ihn habe.
So ne CPU muss auch locker 4-5 Jahre halten
 
So einen bullshit habe ich ja lange nicht mehr gelesen.

Der 11900k ist ganz sicher nicht der gamingking....in fast allen getesteten Spielen is der sogar schlechter. (Quelle computerbase, pc Welt, igorslab usw...) dazu noch der viel höhere Stromverbrauch als der 10900k der sogar 2 Kerne mehr hat

Daran sieht man schon Null Ahnung
Wer führt denn da die Tabelle an...? Hm? ;)
Ich geb dir mal nen Tipp beim PCGH Link... 11900K + 6700XT > 10900K + 6900XT. (Okay, 400MHz RAM Takt unterschied ist auch vorhanden)
 
Also ich hab den 3950X verbaut, aber wenn ich den selbst übertraken lasse, dann läuft er all Kern zwischen 4,0 und 4,2, je nach Programm, kommt ich so auf 145 Watt. Ok wenn man manuell übertaktet werden es vielleicht auch mehr sein.
Was jetzt aber unterschiedlich starke Kerne im Desktop bringen sollen? Bei mobilen Geräten ok. Zu mal was ich so meine bei meinen Ryzen sehe, er schaltet die Kerne die er gerade nicht braucht eh meist ab.
Jetzt gerade, hier schreiben, Musik, Dicord, Facebook Messenger. 1 hat er abgeschaltet, oft einen zweiten auch. Die anderen laufen unter 1GHZ.

Ich denke halt einen 16 Kerner im Desktop kauft auch nicht so auf lustig.
 
Die Kurzversion von Thorstens Beitrag ist Ja und Ja :)
Man kann mit 16 Kernen super Spielen, ein 16Kerner nur zum Spielen kaufen ist absolut überflüssig.
Zumindest die nächsten 3-5 Jahre, danach könnte es schon sein, dass man von mehr Threads profitiert.
Die Konsolen haben 8 Kerne, 16 Threads, aber sind halt stark optimiert, kann schon sein, dass am PC generell von einem 16-Kerner in mittlerer Zukunft ein Vorteil auch in Spielen auftritt. Aber da ists dann besser einfach in 5 Jahren nochmal kaufen, statt jetzt zu kaufen und zu hoffen, dass es sich in 5 Jahren was bringt.
Ich selbst werde mir schon 16 Kerne holen, aber weil ich neben dem Spielen auch vorhabe regelmäßig damit zu arbeiten.
Sollten dann in 5 Jahren die Spiele mehr Threads benötigen, wirds mir auch nicht unrecht sein.
Das war auch schon vor vielen Jahren der Grund, warum ich doch zum i7 statt i5 gegriffen habe und langfristig hat sich das natürlich ausgezahlt. Ich bin aber auch CPU Aufrüstfaul muss ich sagen.

Was die News angeht:
Ob es Alder Lake S gelingt, auf Ryzen 5000 aufzuschließen, wird abzuwarten sein.
Ist zu wage formuliert. Meint wahrscheinlich die Spitze und die Antwort ist: Nein. Gegen AMDs 16 Kerner wird man natürlich die Rücklichter sehen.
Aber darunter gibts ja auch jetzt gute PReis/Leistungsprodukte von Intel. Der 11400 oder so etwa.
 
Mal schaun wie viel die dann wirklich kosten, was sie leisten und wie viel sie verbrauchen.
Die Angabe zu PL1/2 können so ja auch nicht wirklich stimmen, also von dem her wissen wir einfach zu wenig.
Ich finds noch immer schade das sie, anscheinend, keine CPU mit mehr kleinen Kernen rausbringen, oder eine CPU für Desktop mit dem Vollausbau der iGPu wie bei Laptop (96 vs 32 EU)

Ich frage mich ob die 8+8 Variante das "Top of the Line" Modell darstellt.
Fürs erste sieht es da nach aus.

Aktuell ist der Windows sheduler ja nichtmals wirklich in der Lage zwischen einen echten Kern und einen HT pseudo Kern zu unterscheiden was die Zuweisung von threads angeht
??? das war mal - vor so >10 Jahren - der Fall.... und sie haben den Scheduler für Zen schon mehrmals angepasst.

Wenn ich die Wahl zwischen 16 richtigen Kernen und 8 Kernen und 8 Atom Kernen habe, ich glaub das wird nichts Intel. Es ist ein Versuch an die Effizienz von AMD aufzuschließen aber zu welchen Preis.
Wenn man sich anschaut wie verdammt effizient die kleinen Kerne sind... mal ganz abgesehen davon das so ziemlich alle Spiele mit 6 Kerne schon voll bedient sind und da schon die Threads oft nur mehr leichte Hintergrundarbeiten sind die auch auf sparsameren Kernen laufen können..... was wieder mehr Leistung für die schnellen bereit stellt.

Ich hoffe nur das AMD nicht auf den Zug aufspringt, Atom Kerne sind echt mieß, beim Zocken dürften die sicher nicht mitspielen
Mieß? Ernsthaft? Es gibt ja schon genügen Benchmarks dazu, wenn du die als so mieß empfindest - hast du auch zu Zen1 gesagt es ist nutzloser Schrott oder was?

dazu müsste die Software auf asynchrone Leistung bei Kernen optimiert sein, eher nicht.
Der Satz ergibt keinen Sin..

AMD hatte auch mal eine gute Idee mit Bulldozer, was draus geworde ist wissen wir ja.
Ne, da hat AMD einfach behauptet das 1 Kern 2 wären.
 
Der Satz ergibt keinen Sin..
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen
 
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels tTechnik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen

Eigentlich ist die Geschichte recht einfach:

1: Alle Threads sollen so gut es geht über die Atomkerne verteilt werden.
2: Alles, was auf den Atomkernen eine CPU Last von über 95% verursacht wird in einen Core Kern verfrachtet.

Nun kann man noch experimentieren, wie scharf man es einstellt, aber das werden die bei Intel schon gemacht haben. Das BigLittle Konzept ist auf anderen Architekturen schon seit langem erprobt.
 
Intels Problem ist einfach, dass sie über die letzten Jahre hinweg Leistung immer durch Takt=Leistungsaufnahme erkauft haben. Ich finde es schon erstaunlich, dass sie bei 8 großen und kleinen Kernen in der Summe noch bei +200w im Boost liegen. Da ist AMD bei Leistungsaufnahme pro Kern immer noch deutlich vor Intel - wenn man nur die großen Intel Kerne hier zum Vergleich nimmt.

Vom Prinzip her finde ich es schon spannend. Wenn ein Atom Kern sagen wir mal nur 5w Leistungsaufnahme unter Last hätte gäbe es da schon deutliches Potential für Stromeinsparung. Geht die Entwicklung ansonsten ungebremst weiter sind die 1kw/h nicht mehr soweit entfernt. Das wären dann bei einem Betrieb von 4h/Tag allein schon gut 40€/Monat an Stromkosten.
 
[...] Ich hoffe nur das AMD nicht auf den Zug aufspringt [...]
Die Hoffnung stirbt zuletzt? Neueste Leaks erklärten doch schon, dass AMD ab Zen5 ins gleiche Horn blasen wird. ;-)


Ganz abgesehen davon, dass es absurd ist zu glauben, dass hier Intel was im stillen Kämmerlein ausbrütet und das der Industrie dann vor die Füße wirft. Die sind hier hochgradig vernetzt und werden das in Abstimmung mit diversen Partnern auf den Weg gebracht haben. Lakefield war ein Pilot, Alder Lake ist nun das erste, massentaugliche Modell und man darf gespannt sein in welche Richtung sich der Zug bewegen wird. Raptor Lake wird vermutlicfh nur eine mehr oder minder kleiner Refresh werden und von Meteor Lake weiß man bereits, dass der ein Multi-Tile-Design wird, also EMIB nutzt.

Ergänzend zu dem sperrig/unglücklichen "auf asynchrone Leistung getrimmt sein". Das ist bspw. in GameEngines vollkommen normal. Hier gibt es diverse Threads, die sehr unterschiedliche Laufzeiten und Anteile an einem Frame haben und einen Physik- oder Wegfindungsthread könnte man bspw. problemlos auf einen Atom-Kern legen bzw. genau genommen könnte man schon beide auf einen einzigen Atom-Kern legen, denn die haben zusammengenommen immer noch einen relativ kleinen Anteil an der Rechenlast eines Frames in einer GameEngine.
Idealerweise ist sich eine GameEngine der unterschiedlich durchsatzstarken Threads bewusst, aber selbst im einfachsten Falle, kann der OS-Scheduler das sinnvoll steuern, indem er bspw. die acht großen Kerne freihält für die Appliaktion und die kleinen nur mit Treiber- und HG-Tasks belegt.
An erstgenanntem arbeitet man zudem offensichtlich auch schon, denn es gibt bspw. eine Kooperation zwischen Intel und IO Interactive, die ein besseres MultiThreading in die GameEngine implementieren zum Ziel hat, d. h. man ist sich hier offensichtlich sehr wohl der kritischen Punkte bewusst und geht diese an. (Mal ganz abgesehen davon, dass für Zen auch vielfach SW-seitig angepasst werden musste nachdem die Architektur im Markt war.)

Und btw., ein ADL 8+8+ wird zweifellos teuerer werden als ein jetziger Achtkerner und das auch zu recht, denn der wird leistungstechnisch auf dem Niveau eines 12-Kerners (oder gar elicht darüber) rangieren, d. h. warum sollte dir Intel hier einen Gefallen tun und was verschenken, insbesondere wo nun AMD auch so langsam anfängt die Preise anzuheben. Das ist vollkommen unlogisch. Und für überaus aggressives Pricing ist Intel nun wirklich nicht bekannt, schlicht, weil die es immer noch nicht nötig haben, d. h. eine derartige Forderung ist unsinnig.

Intels Problem ist einfach, dass sie über die letzten Jahre hinweg Leistung immer durch Takt=Leistungsaufnahme erkauft haben. Ich finde es schon erstaunlich, dass sie bei 8 großen und kleinen Kernen in der Summe noch bei +200w im Boost liegen. Da ist AMD bei Leistungsaufnahme pro Kern immer noch deutlich vor Intel - wenn man nur die großen Intel Kerne hier zum Vergleich nimmt.

Vom Prinzip her finde ich es schon spannend. Wenn ein Atom Kern sagen wir mal nur 5w Leistungsaufnahme unter Last hätte gäbe es da schon deutliches Potential für Stromeinsparung. Geht die Entwicklung ansonsten ungebremst weiter sind die 1kw/h nicht mehr soweit entfernt. Das wären dann bei einem Betrieb von 4h/Tag allein schon gut 40€/Monat an Stromkosten.
Absehbar wird auch 10nm+++ nicht ganz an TSMCs gereiften N7 herankommen, jedoch ist das auch keine Überraschung. Mit dem Prozess wird es effizenter, mehr nicht.
Wenn Tiger Lake H raus ist, kann man vielleicht mal einen ersten sinnvollen Vergleich gegen AMDs APUs im N7 anstellen und sehen was auf deren 10nm SuperFin geht und dann vielleicht extrapolieren, was mit 10nm Enhanced SuperFin möglich sein wird. Am Ende wird es aber nur darum gehen an den N7 heranzukommen, nicht ihn zu überflügeln, denn das wird Intel vermutlich nicht gelingen. Die nächste Schritte folgen dann in 2023 mit ihren eigenen 7nm bzw. optional oder alternativ mit TSMCs 5/4nm und da wird man sich dann schon auf einem vergleichbaren Level bewegen.
 
Zuletzt bearbeitet:
Zumindest die nächsten 3-5 Jahre, danach könnte es schon sein, dass man von mehr Threads profitiert.
Die Konsolen haben 8 Kerne, 16 Threads, aber sind halt stark optimiert, kann schon sein, dass am PC generell von einem 16-Kerner in mittlerer Zukunft ein Vorteil auch in Spielen auftritt. Aber da ists dann besser einfach in 5 Jahren nochmal kaufen, statt jetzt zu kaufen und zu hoffen, dass es sich in 5 Jahren was bringt.
Ich selbst werde mir schon 16 Kerne holen, aber weil ich neben dem Spielen auch vorhabe regelmäßig damit zu arbeiten.
Sollten dann in 5 Jahren die Spiele mehr Threads benötigen, wirds mir auch nicht unrecht sein.
Das war auch schon vor vielen Jahren der Grund, warum ich doch zum i7 statt i5 gegriffen habe und langfristig hat sich das natürlich ausgezahlt. Ich bin aber auch CPU Aufrüstfaul muss ich sagen.
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Schau dir den X5660X 6/12 Gulftown an. Jeder 4/8 er dreht Kreise um den, bei 1/3 Verbrauch.

Wir haben keinen absoluten Stillstand mehr wie zwischen Bloomfield und Skylake. Von Zen auf Zen 2 gabs fast soviel Leistungssteigerung, wie in der o.g. Zeitspanne. Zen 2 auf 3 habs sogar mehr. Zen 4 scheint einen ähnlichen Kurs zu fahren (gemunkelt sind ja 20%+, wobei hier sicher auch AVX512 reinspielt)

Lieber alle 5 Jahre ein kleinen Mittelklasse, als alle 7 oder 10 Jahre Highend.
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen
Es gibt schon einfache Schritte. Normalpriorität Prozesse laufen auf den starken, low Prio auf den kleinen.
Starte ich Handbrake und konvertiere 720p Videos und stelle auf low Prio läuft der Prozess hauptsächlich auf meinem zweiten CCD ab und versucht die langsameren Kerne zu nehmen. Stelle ich auf Normal switcht er wieder auf den ersten CCD und nutzt die schnelleren Kerne.
 
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Vielleicht nicht so ganz, aber die grobe Richtung dürfte in etwa zutreffend sein, denn die neuen Konsolen besitzen nur 8 langsame Zen2-Kerne und die werden noch die nächsten 5 - 7 Jahre lang aktuell sein. ;-)
 
Als jemand, der Effizienzfragen für sehr relevant hält, kann ich nicht genug betonen, dass diese 228W PL2 keinen prinzipiellen Grund zur Sorge darstellen. Bei diesen Bursts muss es sich nicht per se um eine ineffiziente Angelegenheit handeln, sondern sie können durchaus sinnvoll für das genutzt werden, was Intel lange Race2Idle genannt hat.
Also die Idee ist, dass die CPU nur ganz kurz belastet wird und danach wieder schlafen gehen kann. Das kann sparsamer als ein kontinuierlich langsames arbeiten sein. Es setzt aber zum guten Funktionieren eine geringe Idle-Leistungsaufnahme voraus.
Weiß ich nicht. Wenn das PL2 Target geringer wäre, könnte der Boost auch länger laufen !
Oder gibt es hier im Forum auch nur eine Person, die unbedingt einen 8 Kern Prozessor mit 8 weiteren kleinen Exemplaren auf sein Mainboard stecken möchte?
Was ist besser als 8 Kerne ? Richtig 8 + 8 Kerne. Ob es Atom Kerne ist unrelevant, wenn diese Cores 70 % Leistung eines normalen Cores schaffen und dadurch TDP sparen, ist alles ok.

Ich würde erstmal Tests abwarten, bevor ich eine vernichtende Kritik äußere.
 
Bis Games dabei sind die 12+ Kerne merklich in Mehrleistung umzusetzen und 8 Kerne zu schwach sein werden, werden die 6 Kerner mehr Leisten als heute die 16er im Multithreading.
Schau dir den X5660X 6/12 Gulftown an. Jeder 4/8 er dreht Kreise um den, bei 1/3 Verbrauch.

Wir haben keinen absoluten Stillstand mehr wie zwischen Bloomfield und Skylake. Von Zen auf Zen 2 gabs fast soviel Leistungssteigerung, wie in der o.g. Zeitspanne. Zen 2 auf 3 habs sogar mehr. Zen 4 scheint einen ähnlichen Kurs zu fahren (gemunkelt sind ja 20%+, wobei hier sicher auch AVX512 reinspielt)

Lieber alle 5 Jahre ein kleinen Mittelklasse, als alle 7 oder 10 Jahre Highend.

Es gibt schon einfache Schritte. Normalpriorität Prozesse laufen auf den starken, low Prio auf den kleinen.
Starte ich Handbrake und konvertiere 720p Videos und stelle auf low Prio läuft der Prozess hauptsächlich auf meinem zweiten CCD ab und versucht die langsameren Kerne zu nehmen. Stelle ich auf Normal switcht er wieder auf den ersten CCD und nutzt die schnelleren Kerne.
Ja aber es ist wie bei den mobile Device, es gibt nur entweder oder, nicht und. Auf dem Desktopmarkt ist es mir wurscht wenn der Big 1Watt im Idle durchlässt, was will ich da noch optimieren. Im mobile Markt macht es sinn wo um jedes 0,5W gefeilscht wird wegen Akkulaufzeit.
Ich seh halt keinen Sinn darin, die Wirkung wird verpuffen. Dank Takt und Booststufen sind aktuelle kerne eh schon fein genug abgestimmt. Man sollt den Platz für die Atom Kerne anderweitig nutzen.
 
Doch, es gibt einen Leistungsunterschied zwischen.....
Das ist aber nicht was du geschrieben hast. Wenn du Probleme mit der Bedeutung gewisser Worte dann schau doch lieber nach was sie bedeuten bevor du sue verwendest.

Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren.
Nope, so funktioniert das nicht. Diese Aufgabe wird vom OS übernommen - also zB Windows10 - wo auch schon für Ryzen mehrmals der Scheduler angepasst wurde.

Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war.
Das ist auch nicht der Fall. Dort war einfach die Hardware schlecht. da hat man nicht für Bulldozer optimiert sondern geschaut das man die (gewaltigen) schwächen von Bulldozer umgeht - sprich alles außer einfachen Ganzzahladditionen wurde vermieden.
 
Tut mir leid es dir sagen zu müssen, aber du bist derjenige ohne Ahnung:

Der i9 11900K ist der Gewinner, wenn auch nicht klar. Lies das nächste mal den entsprechenden Test, bevor du rumpöbelst.
lesen und verstehen.......
ich habe quellen angegeben komisch das dort der 11900k der klare verlierer ist XDD
aber was weiß ich schon...
die anderen Seiten müssen daher ja auch keine Ahnung haben...
Aber ja glaub nur weiter deiner Fantasiewelt....
 
Nach dem, was ich so mitbekommen habe, war es das, was Apple sich gewünscht hat. Da Intel nicht liefern könnte.

Glück für Intel, dass du nichts zu sagen hast und auch AMD geht diesen Weg.

Nö tut AMD eben nicht, dazu gab es letztes Jahr ein ausführliches Interview, dass sie das im Desktop nicht für den richtigen Weg halten, es sich aber mal anschauen.
Und da Zen5 vermutlich auch schon länger in der Planung ist, wird das auch eher nicht kommen mit Zen5.
Aber schauen wir mal was intel an Performance liefern wird in der Realität.
 
Ich sehe im Desktop Bereich keinen Sinn darin da einen Prozessor mit 2 unterschiedlich Starken Kernen zu nutzen. Im Notebook lass ich mir das noch eingehen, aber nur wenn sich da die Stärkeren Kerne komplett deaktivieren um Akku zu Sparen.
Zumal man im Desktop-Segment bei Bedarf einfach ins BIOS geht und die Taktraten für eine beliebige Zahl an Kernen sowie die Spannungen entsprechend deckelt, so man das für sinnvoll hält.
Aus den physisch lahmen Kernen "vollwertige" zu machen, wenn man ordentlich Schmackes auf allen Kernen braucht, stelle ich mir da schon schwieriger vor ...

Und am Ende des Tages bekommt man bei der Konkurrenz 16 gleichwertige Kerne bei derselben Leistungsaufnahme.
 
Doch, es gibt einen Leistungsunterschied zwischen Atom und normalen Kernen. Man muß nicht nur die Anwendung auf mehrere Threads aufteilen, man muß ausserdem noch schauen das die Atom Kerne nicht die normalen Kerne ausbremsen. Bedeutet man muß zusätzlich Programieraufwand aufwenden um die Threads auszulasten, wird nicht passieren. Ich denk eher das man wenn es um Performance geht nur auf die vollen Kerne setzt. Da kommt dann auch wieder der Einwand mit dem Bulldozer ins Spiel, da hat man die Software auch nicht auf die Technik optimiert weil der Aufwand zu groß war. Es hatte sich einfach nicht gelohnt zusätzlich auf Bulldozer Architektur zu optimieren. Das selbe wird mit Intels Technik passieren. Sollten die CPUs kaum teurer werden wie jetzige Octacore wäre es egal, wenn nicht sogar ein Vorteil. Ich glaube nur nicht drann. Intel wird mit allen Kernen werben und kassieren wollen

Als ich das letzte Mal Zahlen gesehen habe, beschäftigte Intels Software-Abteilung mehr Leute als AMDs komplette CPU-Division, in jedem Fall besteht eine weitaus engere Zusammenarbeit mit und Support für Software-Entwickler. Und während Bulldozer meiner Erinnerung nach zeitweilig unter 5 Prozent Marktanteil hatte, liegt Intel über alle Märkte hinweg meinem Wissen nach immer noch bei 65-70 Prozent. Zwar stetig fallend, aber Desktop-Retail ist nicht alles und Alder Lake wird definitiv ein Vielfaches der Verbreitung von Bulldozer erreichen. Passende Optimierungen sind also weitaus wahrscheinlicher. Zudem arbeitet Intel seit Lakefield mit Microsoft (respektive für Linux selbst) daran, dass Problem auf Betriebssystemebene zu lösen.

Wie gut das gelingt, bleibt abzuwarten, aber die Chancen stehen weitaus besser als bei AMDs Modul-Ansatz. Zudem sollte man immer im Hinterkopf behalten: Bulldozer war nicht nur komplex, sondern für viele Anwendungszwecke auch einfach nur schlecht. Unsachgemäße Programmierung hat die Sache verschlimmert, aber wessen Aufgabenstellung viel FP- oder Decoding-Leistung erforderte, der konnte mit Zambezi einfach keinen Blumentopf gewinnen. Und selbst eng verwobene Integer-Probleme skalierten manchmal mit vier 3-fach-superskalaren Kernen (K10, Intels ... Bridge) besser als mit acht 2-fach-superskalaren. Von vier 4-fach-superskalaren (Haswell/Broadwell/Skylake) ganz zu schweigen. Da fehlte im Desktop einfach der Schritt auf Excavator, mit dem man wenigstens die Decoder-Ausstattung über das Niveau eines Quadcores gehoben hätte, das bereits der Phenom II überbieten konnte.

Alder Lake dagegen wird, nach aktuellem Informationsstand selbst als reiner Achtkernprozessor kein Rück-, sondern ein Fortschritt gegenüber heutigen Achtkernprozessoren sein. Wie effektiv die zusätzlichen Little-Cores eingesetzt werden, bleibt abzuwarten. Aber die "wird vom eigenen Vorgänger geschlagen"-Schmach, die Bulldozer schon zum Launch das Genick gebrochen hat, ist nahezu ausgeschlossen und wenn AMD Zen 4 tatsächlich auf Ende 2022 verschoben hat, sehe ich sogar ein paar echte Marktchancen.
 
Zuletzt bearbeitet:
Wenn man alles nach rechts schiebt sind einige aktuelle Spiele auch mit nagelneuen High-End-Grafikkarten selbst mit einem Quadcore nicht im CPU-Limit. "UHD reicht mir nicht"-Raff ist mal wieder dabei, seinen privaten Sechskerner zu Untertakten.
Raff nutzt "noch" einen Achtkerner, rüstet aber ziemlich bald auf einen 12-Kerner auf und untertaktet diesen dann massiv. Mehr Kerne sind genau dann Gold wert, wenn keine maximale Leistung nach oben, sondern nach unten gefragt ist; stabile Frametimes sorgen für ein flüssiges Spielgefühl. Das kann dann gerade bei modernen Titeln mit hoher Raytracing-Last, die auch die CPU belastet, etwas ausmachen. Die Vorteile sind aber gering, das kann sich in Zukunft aber ändern und belohnt jene, die nicht jedes Jahr ihre CPU aufrüsten möchten (oder können).
 
Bei dem ganzen Takt- und Thread "Wirrwarr" frage ich mich, ob das OS, oder die Software dies immer akkurat ver-, bzw. aufzuteilen vermag...

Als Gaming-CPU macht der 16-Kerner wenig Sinn, und bei Anwendungen die 16 Kerne +SMT auslasten können, wohl noch weniger.
Vor allem dann, wenn wie man sieht, auch Intel nur mit Wasser kocht und bei kleineren Strukturbreiten den Takt senkt.
 
Zurück