• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel Alder Lake: 16 Kerner mit DDR5 zeigt sich in Datenbanken

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel Alder Lake: 16 Kerner mit DDR5 zeigt sich in Datenbanken

In den Datenbanken der "SiSoftware" ist Alder Lake-S gesichtet worden. Es handelt sich um einen 16-Kerner, der sowohl "starke" als auch "schwachen" CPU-Kerne miteinander kombiniert - und überdies DDR5-Speicher nutzt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Alder Lake: 16 Kerner mit DDR5 zeigt sich in Datenbanken
 

Dragonskull

Komplett-PC-Aufrüster(in)
Ich bin dafür, dass man die langsamen Cripple-Lake Kerne nicht in die Zahl der Gesamtkerne einbezieht.

Ich gehe davon aus, dass genau wie bei ARM-Prozessoren auch, die Gesamtzahl vom Hersteller vermarktet wird. Klingt einfach besser und ist ja, im Gegensatz zu den Modulen bei Bulldozer damals, nichtmal falsch.

Bei PCGH im Einkaufsführer fände ich eine Angabe dazu (vgl. wie bei Bulldozer) aber ebenfalls sinnvoll.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Endlich ein Lebenszeichen von CPUs mit einer besseren Fertigung und DDR5, erst damit wird Intel für mich wieder interessant, damit wird Intel bei einem Neukauf bei mir wieder relevant.
Ich bin dafür, dass man die langsamen Cripple-Lake Kerne nicht in die Zahl der Gesamtkerne einbezieht.
Ich glaube Intels PR-Abteilung wird dem nicht nachkommen wollen, bei Smartphones und damals bei AMD (zb FX9590) spricht man immer von der Gesamtzahl.
 

BigBoymann

Software-Overclocker(in)
Endlich ein Lebenszeichen von CPUs mit einer besseren Fertigung und DDR5, erst damit wird Intel für mich wieder interessant, damit wird Intel bei einem Neukauf bei mir wieder relevant.

Ich glaube Intels PR-Abteilung wird dem nicht nachkommen wollen, bei Smartphones und damals bei AMD (zb FX9590) spricht man immer von der Gesamtzahl.
Hat AMD dafür nicht mal einen auf den Deckel bekommen? Ich glaube Bulldozer war doch das mit den unechten Kernen?

Wird hier aber meines Erachtens nach keine Rolle spielen, es handelt sich ja um echte physische Kerne, halt ein paar schnelle und ein paar langsame. Insofern würde ich auch mit 16 Kernen werben, auch wenn es irgendwie einen Ansatz von Verarsche hat.
 

Acgira

Software-Overclocker(in)
"womit den erst im Laufe des ersten Quartals erwarteten Rocket-Lake-S-Prozessoren keine lange Zukunft bevorstünde."
Aber die Intelaktionäre werden schon irgenwie damit glücklich werden... und irgendwer hat auch sicher schon seit Jahren nicht aufgerüstet und braucht ausgerechnet "jetzt" eine CPU und entscheidet sich weshalb auch immer für ein Intellackerl. - DDR 5 dürfte ja nochmals etwas teurer sein und anfangs sowieso erstmal keine Option darstellen, also zahlt sich warten nicht aus.
 

KremitTheFrag

Komplett-PC-Käufer(in)
n... und irgendwer hat auch sicher schon seit Jahren nicht aufgerüstet und braucht ausgerechnet "jetzt" eine CPU und entscheidet sich weshalb auch immer für ein Intellackerl. -
Ich hab nen Core i5 10600K und würde, wenn die 11er generation im Preis etwas gesunken ist gerne auf nen 8 Kerner aufrüsten. Ganz uninteressant die CPUs wirklich nicht. Sie haben nur ein ziemlich schlechtes Timing.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Hat AMD dafür nicht mal einen auf den Deckel bekommen? Ich glaube Bulldozer war doch das mit den unechten Kernen?
Ja, das waren grob gesagt (für mich) dreiviertel Kerne, das war auch lange Zeit eine Kritik, wo sich zb PCGH der Kritik nicht eindeutig anschließen wollte. Viel viel später gab es auch eine Klage wegen dieser dreiviertel Kerne, aber AMD wollte hier auf Nummer sicher gehen und hat einen Vergleich angestrebt. Offiziell hat man die Klage also nicht verloren, aber indirekt zwischen den Zeilen hat man es zugegeben. Vergleichen kann man das aber nur bedingt mit dem was Intel vorhat, Intel sagt im Vorhinein schon was Sache ist, dass dies nur wenige Kerne betrifft.
 

Casurin

BIOS-Overclocker(in)
Intel hat bei LakeField zuerst noch mit 1+4 angegeben, auf der Produktseite wirds aber auch einfach mit 5 Kernen angeschrieben und als hybrid-Architektur bezeichnet.
Von dem her haben sies da auch wieder verbockt - hat wohl das Marketing-Team gewonnen. Mit Bullcrapper kann man es trotzdem nicht vergleichen denn die Tremont-Kerne sind, auch wenn kleiner, vollständige CPU-Kerne, aber halt auf Effizienz getrimmt und entsprechend schlechtere IPC.
 

gerX7a

Software-Overclocker(in)
Ja, das waren grob gesagt [...]
Der Sachverhalt ist nicht vergleichbar. Intel bewirbt hier was der Kunde bekommt (und weist es zudem explizit als Hybrid Technology aus), d. h. es gibt nichts zu beanstanden. Analog ist es ja auch bei Smartphones, bei denen manche Designs gar ein 1+3+4 Setup aufweisen, d. h. die maximale Performace ist gar nur auf einem einzigen Kern erzielbar.
Bzgl. AMDs CMT-Design (Bulldozer & Co) handelten die sich 2015 einen Class Action Lawsuite ein aufgrund der Täuschung bzgl. der tatsächlichen Leistung und irreführender CPU-Kernangaben in Werbung und Vertrieb. Nach mehreren Jahren drohte AMD das Verfahren zu verlieren und griff dem mit einem Vergleich vor und ließ sich den Spaß rd. 12,1 Mio. US$ kosten: "In early 2019, the Northern District Court of California sided with the plaintiffs and ruled that AMD’s FX-8120, FX-8150, FX-8320, FX-8350, FX-8370, FX-9370, and FX-9590 processors were incorrectly advertised as having eight cores. On August 23, the court published the class action settlement agreement under which AMD agreed to pay plaintiffs and the settlement class a compensation ($12.1 million)."

*) Konkret sind die Gracemont-Kerne sogar "weitaus vollständiger" (wenn man so will), als selbst der damals schöngerechnete (komplette) Bulldozer-Kern, denn die unterstützen mittlerweile sogar AVX2. AVX2 kam bei AMD erst mit Excavator, da jedoch, wie auch weiterhin bei Zen, noch im deutlich langsameren Zwei-Pass-Verfahren über 128-Bit-Register. Erst mit Zen2 implementierte AMD AVX2 vollständig mit 256 Bit.

Ich bin dafür, dass man die langsamen Cripple-Lake Kerne nicht in die Zahl der Gesamtkerne einbezieht.
Das ist schlicht sinnbefreit. Am Ende vergleicht man eine vermeintlichen ADL-8-Kerner mit einem 5800X und wundert sich, warum letzterer kein Land sieht. Da braucht man dann auch nicht aufs Marketing zu warten, denn das werden dann schon ganz schnell die Fanboys korrigieren und richtigstellen, dass das ein schiefer vergleich ist, weil man hier eher als Leistungsäquivalent grob einen 10 - 12 Kerner gegen einen 8 Kerner vergleicht und was dabei i. d. R. rauskommt, dürfte ja wohl klar sein.

Aber die Intelaktionäre werden schon irgenwie damit glücklich werden... und irgendwer hat auch sicher schon seit Jahren nicht aufgerüstet und braucht ausgerechnet "jetzt" eine CPU und entscheidet sich weshalb auch immer für ein Intellackerl. - DDR 5 dürfte ja nochmals etwas teurer sein und anfangs sowieso erstmal keine Option darstellen, also zahlt sich warten nicht aus.
Für diese Option muss man noch nicht einmal hardwaretechnisch "ausgehungerte" PC'ler heranziehen, denn in Ermangelung konkreter Details zu etwas wie einem Ryzen-Refresh bzw. Zen3+ bleibt vorerst nur der Kenntnisstand zu Zen3 und diese CPU und Plattform wird ADL (und Plattform) zweifellos unterlegen sein. Einzig was bleibt, da zumindest nach aktuellem Stand Intel nicht über 8+8 Kerne hinausgehen wird, ist, dass die Zen3's in massivparallelen Workloads aufgrund der höheren (großen) Kernzahl weiterhin die Nase vorn haben werden. Im Worst Case/Best Case für AMD/Intel wird jedoch das 8+8-ADL-Topmodell möglicherweise schon die Performance des 5900X (annährend) erreichen, wohlgemerkt bei massiv-parallelen Workloads. Im Gaming wird das Design aufgrund der nochmals deutlich gesteigerten IPC voraussichtlich per se Zen3 deutlich abhängen, denn bereits RKL mit älterer Architektur und nur in 14nm kommt ja bereits sehr nah an Zen3 ran oder kann möglicherweise gar einen Gleichstand erreichen? *)
Wenn Intel's Fertigungsprozess mit der kommenden Iteration noch einmal ein ausreichendes Plus beisteuern kann, werden die ein Produkt haben, mit dem sie sich nicht zu verstecken brauchen.
Entsprechend kann man auch mutmaßen, dass AMD mit Zen3+ (und dessen Plattform) schon etwas mehr abliefern muss oder aber Zen4 wird relativ früh Anfang des Jahres 2022 erscheinen müssen, denn bei dem, was sich bisher abzeichnet, macht ADL für Mainstream-Workloads eine gute Firgur.

*) Zumindest das Intel-Marketing sieht RKL im Gaming gar leicht in Führung i. V. z. einem 5900X, d. h. wenn man hier großzügige "Nachsicht" walten lässt, kann man zumindest gesichert annehmen, dass bis auf wenige, vereinzelte Ausnahmen RKL schon einmal grundlegend nicht allzu weit hinter Zen3 im Gaming liegen kann. Ob es dann tatsächlich für einen Gleichstand oder gar doch noch unerwarteterweise für die "Führung" reicht, werden erst echte Tests im März beantworten können.

**) Wie es preislich dann Ende 2021 bzgl. ADL aussehen wird ist eine andere Frage, denn Intel hatte es ja auch bisher nicht nötig einen Kniefall im Retailmarkt zu machen, auch wenn man durchaus einige effektive Preisnachlässe beobachten konnte und bspw. ein 10850K derzeit durchaus preislich attraktiv ist. Und wenn die Akzeptanz bei den OEMs hoch genug sein wird, wird die Bedeutung des Retailmarktes sich für Intel nicht nennenswert erhöhen, sodass man es sich hier weiterhin leisten kann zuzulangen.
(Interessantes am Rande: ADL scheint im OC schon DDR5-8400 zu unterstützen, wenn man Vorankündigungen von Adata Glauben schenken darf. Vermutlich kosten dann aber 32 GiB davon auch genauso viel, wie die CPU selbst. ;-)
Interessantes zum Zweiten: Zu ADL-P konnte man in Coreboot auch schon Details zu PCIe5-Konfigurationen finden, d. h. die Möglichkeit, dass ADL gar PCIe5 einführt ist weiterhin gegeben.
AMD wird sich bzgl. dem Refresh durchaus lang machen oder aber Zen4 zeitnah nachreichen müssen, denn zumindest nach aktuellem Kenntnisstand wird die ADL-Plattform augenscheinlich die mit Abstand modernste Plattform im Consumer-Markt zum Jahresende hin sein.)
 
Zuletzt bearbeitet:

Nebulus07

Software-Overclocker(in)
Aber die Intelaktionäre werden schon irgenwie damit glücklich werden... und irgendwer hat auch sicher schon seit Jahren nicht aufgerüstet und braucht ausgerechnet "jetzt" eine CPU und entscheidet sich weshalb auch immer für ein Intellackerl. - DDR 5 dürfte ja nochmals etwas teurer sein und anfangs sowieso erstmal keine Option darstellen, also zahlt sich warten nicht aus.
Gefühlt rüsten gerade alle Gamer auf. Wenn AlderLake kommt sind doch aller versorgt für mindestens drei Jahre... Intel hat es echt nicht leicht... *gutso*
 

BxBender

BIOS-Overclocker(in)
Also wenn sich diese dumme Namensgebung auch in Fachmagazinen durchsetzt, dann mal gute Nacht.
Anscheinend ist die Leistung jetzt plötzlich zweitrangig geworden?
Man hätte den Fehler nicht schon bei Smartphones begehen dürfen, wo Werbeflyer mit 8 Kernern protzen, dabei sind es aber nur 4+4 oder auch in einigen Fälle 6+2 (oder so ähnlich).
Ich sehe schon viele Leute sich megafette Media Markt 16 Kern-Rechner kaufen, und am Ende sind es aber leistungstechnisch nur 8+ (vermutlich etwas über 10?).
Dumm also, wenn man schon/noch einen Intel 9900K besitzt und sich dann im Cinebench mit mehr als das Doppelte an Leistung den "5950X-Killer" erhofft.
Ich wäre für ehrliche Angaben von PCGH wie damals. z.B. 970 GTX 3,5+0,5GB RAM.
Wenn man die Überschriften schon aufbauschen und so interssanter/sensationeller gestalten muss, dann zumindest in Gänsefüßchen, um die nicht ganz zutreffende Formulierung zu kennzeichen, damit auch Laien "vorgewarnt" werden.
Danke.
Intel hat bei LakeField zuerst noch mit 1+4 angegeben, auf der Produktseite wirds aber auch einfach mit 5 Kernen angeschrieben und als hybrid-Architektur bezeichnet.
Von dem her haben sies da auch wieder verbockt - hat wohl das Marketing-Team gewonnen. Mit Bullcrapper kann man es trotzdem nicht vergleichen denn die Tremont-Kerne sind, auch wenn kleiner, vollständige CPU-Kerne, aber halt auf Effizienz getrimmt und entsprechend schlechtere IPC.
Na ja, lieber 8 Kerne mit jeweils 80% vollwertige Systemperformance, die man zu jederzeit in Relation zueinander und zu anderen Produkten setzen kann, als x+y Wischiwaschikauderwelsch unter einer undurchsichtigen Zahl zu verschleiern, wo der Käufer nicht einmal weiß, was er da überhaupt hat.
Intel hat immerhin eine ganze Batterie an wahlos zusammengewürfelten Kernen vor auf uns loszulassen.
Selbst bei Smartphones kann keiner genau sagen, was nun wirklich drin steckt.
Bis vor kurzem dachte sogar ich noch, dass seien bei "8" dann immer 4+4. Ja ja....Ausnahmen bestätigen die Regel sag ich nur.
Also sobald Intel den Mobilsektor und Desktop-Bereich mit zahllosen "Würfelergebnissen" "flutet", dann blickt da niemand mehr durch.
Das ist auch so gewollt, damit man halt einen "16" Kerner kauft.
Obwohl man ja eigentlich nicht "den", sondern "den" haben wollte, oder besser hätte nehmen sollen.
12+4, 8+8, 10+6, ach nimm einfach einen, geh einfach nach dem günstigsten Preis. ^^
Bei so einem Kuddelmuddel dann noch eine Empfehlung für ein Produkt aussprechen zu wollen ist ja fast unmöglich.
Für Spiele das, für Anwendungen aber das, und für beides aber lieber den, für extra viel Leistung aber ruhig auch den, oder den da, wenn es eher auf Sparsamkeit draufan kommt.
 
Zuletzt bearbeitet:

Thomas5010

Komplett-PC-Aufrüster(in)
Es ist vernünftig stromsparende Kerne mit Performance Kerne zu koppeln. Das spart Energie und die Leistung kann noch gradueller auf das Programm zugeschnitten werden. Vorteil: Es kann zusätzlich eine starke integrierte Grafik angelegt werden. Letztendlich ist es bei ARM ebenso.

Ich denke, dass auch AMD dies in späteren Generationen so machen wird. Das ist die Zukunft.
 

gerX7a

Software-Overclocker(in)
Etliche RKL-500er-Boards haben doch bereits TB4/USB4-Chips (Maple Ridge), so bspw. u. a. das ASRock Z590 Taichi oder das MSI MEG Z590 Godlike. Für ADL wird man Gleiches erwarten können auf den etwas besseren Boards.
Dazu kommt DDR5 (vermutlich wird es auch gerade in Verbindung mit den billigern Chipsätzn auch DDR4-onlys geben) und möglicherweise wird es auch PCIe 5 geben, da man bereits entsprechende Konfigurationen für ADL-P sah. (Gesichert ist das noch nicht für ADL-S, aber damit zumindest ein wenig wahrscheinlicher.)

Andererseits, vielleicht muss man sich zukünftig um CPUs, DRAM und das ganze Gedöns auch nicht mehr kümmern? , denn jedenfalls das ASUS ROG Maximus XIII Extreme Glacial erweckt den Eindruck, als wenn da schon alles implizit mitgeliefert werden müsste ... das Board soll immerhin schlappe 1840 US$ kosten! :-D
 
Zuletzt bearbeitet:

Technologie_Texter

BIOS-Overclocker(in)
Ich gehe davon aus, dass genau wie bei ARM-Prozessoren auch, die Gesamtzahl vom Hersteller vermarktet wird. Klingt einfach besser und ist ja, im Gegensatz zu den Modulen bei Bulldozer damals, nichtmal falsch.

Bei PCGH im Einkaufsführer fände ich eine Angabe dazu (vgl. wie bei Bulldozer) aber ebenfalls sinnvoll.
Auch bei Bulldozer war es nicht falsch!
 

Dulindor

Komplett-PC-Aufrüster(in)
Es ist vernünftig stromsparende Kerne mit Performance Kerne zu koppeln. Das spart Energie und die Leistung kann noch gradueller auf das Programm zugeschnitten werden. Vorteil: Es kann zusätzlich eine starke integrierte Grafik angelegt werden. Letztendlich ist es bei ARM ebenso.

Ich denke, dass auch AMD dies in späteren Generationen so machen wird. Das ist die Zukunft.
Im mobilen Sektor trifft das so zu, aber auch nur weil hier weniger Energieverbrauch gleichzeitig mehr Akkulaufzeit bedeutet.
Unsere Desktop-CPU's arbeiten schon recht effizient, im Idle quasi kein Verbrauch und wenn dann leichte Aufgaben kommen werden nur einzelne Kerne aufgeweckt und Takten auch extrem niedrig. Klar kann man da vielleicht die ein oder andere Wattstunde einsparen, das dürftest du aber wohl kaum bemerken, weder auf der Stromrechnung noch bei der Abwärme.
Was du mit Leistung aufs Programm zuschneiden meinst ist mir nicht ganz klar. Wir sind ja immer noch bei x86 und nicht bei ARM, wo man in der Tat sehr stark die Energieeffizienz optimieren kann.
 

Rollora

Kokü-Junkie (m/w)
Für die, die es noch nicht wissen: Alder Lake wird verschiedene CPU-Kerne einsetzen. Aktuelle Atom- und Core-Technik wird dazu aufeinander abgestimmt, ähnlich dem Big Little-Ansatz von ARM-Prozessoren.




Das Prototyp-System, das sich nun in den Datenbanken zeigt, bietet 16 Kerne und 32 Threads...

das scheinen dann in dem Fall aber 16 Big Cores zu sein, oder? dachte eie kleinen haben kein HT?
 

gerX7a

Software-Overclocker(in)
Das wird schlicht ein Interpretationsfehler von SiSoft sein; die Software wird die Hybrid Technology noch nicht kennen, hier das HT-Flag der Golden Coves auslesen und pauschal 2 x Kernanzahl Threads ausgeben. Faktisch sind es 24 Threads im 8 + 8 Modell.

Darüber hinaus wird es allem Anschein nach auch 8+0(+1) und bspw. 6+0(+1) Designs geben, d. h. Varianten mit ausschließlich großen Golden Cove Kernen.
 

BigBoymann

Software-Overclocker(in)
Das ist schlicht sinnbefreit. Am Ende vergleicht man eine vermeintlichen ADL-8-Kerner mit einem 5800X und wundert sich, warum letzterer kein Land sieht. Da braucht man dann auch nicht aufs Marketing zu warten, denn das werden dann schon ganz schnell die Fanboys korrigieren und richtigstellen, dass das ein schiefer vergleich ist, weil man hier eher als Leistungsäquivalent grob einen 10 - 12 Kerner gegen einen 8 Kerner vergleicht und was dabei i. d. R. rauskommt, dürfte ja wohl klar sein.
Irgendwie hast du dich da mal wieder verhauen.

Ein ALD 8+8 Kerner wird einem 5800X wohl zweifelsohne überlegen sein, zumindest wenn die Software das vernünftig nutzen kann, was ich nachwievor als Thema ansehe.

zu Zen3 und diese CPU und Plattform wird ADL (und Plattform) zweifellos unterlegen sein.
aber wenn ich das lese muss ich schon wieder grinsen. Das Thema hatten wir doch gerade erst, ist mir persönlich zu viel Schönmalerei in Richtung Intel. In wiefern soll der ADL 8+8 denn gegen den echten 16 Kerner so überlegen sein, dass er die aktuell rund 70% Performancenachteil in Anwendungen aufholen will? Wir reden von ca. 20% mehr IPC und selbst wenn Rocket Lake entgegen der aktuellen Leaks überperformt, wird RL in Anwendungen noch immer 50-60% Rückstand haben, aktuell vermutet man ja sogar, dass der Abstand in eben diesen Geschichten zuungunsten von RL ausfällt und dann eher auf 80% anwächst.
Ich weiß ja persönlich nicht wo du die 8 Atomkerne leistungstechnisch einsortierst, aber ich kann mir nicht vorstellen, dass diese derart gut performen, dass sie den 5950 komplett alt aussehen lassen.

Ich weiß, als nächstes kommt gleich Preis etc, aber was denkst du denn wird ALD kosten? Man rechnent aktuell mit 550EUR für den 11900k, ein 12900k wird also vermutlich auch wieder 550 EUR kosten, zu Beginn? Wie immer abhängig vom Yield und Bedarf. Der 5950X ist dann ein Jahr auf dem Markt und wird vermutlich schon unterhalb der UVP gehandelt werden, was dann vieleicht 650 EUR kosten dürfte. Dazu Plattformkosten die bei ALD auf Grund von DDR5 und nigelnagelneuen Boards vermutlich wieder einmal deutlich höher ausfallen dürften.
Also auch hier wird es eher zugunsten von AMD ausgehen.

Generell sollte man sich hier mal wieder ein wenig in Zurückhaltung üben, Rocket Lake ist noch gar nicht erschienen und Intel verspricht schon "the next big thing", das kenn ich alles aus den letzten zwei oder drei Jahren, erschienen ist nie wirklich was. Wir wissen weiterhin viel zu wenig über ALD um valide Aussagen über die Alltagsperformance treffen zu können, in irgendeiner Folie hat Intel mal von 20% IPC geredet, haben sie bei Rocket Lake auch, dann waren es 18% und aktuell sieht es so aus, dass sie davon nur rund 12% auf die Straße bringen. Angenommen, ALD bekommt auch nur 12% auf die Straße bin ich mir sicher, dass der 5950X sogar vorne bleiben wird.

Oder habe ich an deinem Post irgendetwas total mißverstanden?

P.S.
Zurück zu ALD, meine Abneigung gegen diese Technik im Desktop sollte mittlerweile berühmt berüchtigt sein, ich sehe in dieser Form keinen großen Zugewinn und habe immer noch Vorbehalte, so glaube ich eben nicht, dass ein ALD 8+8 Kerner 150% eines reinen 8 Kerners auf gleicher Basis erzielen wird. Dazu wird es in meinen Augen in vielen Bereichen Probleme mit dem Umschalten geben und es wird wahrscheinlich erst die Zeit bringen, dass dies richtig implementiert wird, bei nicht so regelmäßig gewarteter Software könnte ich mir so gar Leistungseinbußen im hohen zweistelligen Bereich vorstellen.
 

latiose88

Freizeitschrauber(in)
hm war es bei AMD ganz früher nicht auch mal so gewesen das was angekündigt wurde es aber nicht eingehalten werden konnte.Dürfte so im Jahre 2005 gewesen sein.Oder vielleicht habe ich da was falsch in Erinnerung.


Nun es könnte Probleme geben ja,wenn sie es aber so machen könnten,das die kleinen und großen an etwas Großen zusammen Arbeiten könnte,dann würde man mit diesen 8+8 mit HT durchaus einen 12 Kerner von AMD mithalten.Dazu müssten dann allerdings dann alle 24 Threads zusammen gleichzeitig arbeiten können.
Das wird nur leider nicht möglich sein weil da Intel ein RIegel vorschieben wird.Ich wäre dafür.Denn so kann man da richtig Leistung herausholen.Am besten alle auf 100 % Auslastung. die Atom Kerne werden wohl nicht schlechter als die Hypertrading Kerne sein von den großen.Also kann man wenn wirklich alle gleichzeitig zusammen arbeiten würden wirklich was schönes Erwarten.Gerade der wo überhaupt kein AVX nutzt so wie ich ,könnte hier so richtig Leistung herausholen.
Man müsste es nur richtig anstellen. Bin gespannt ob sowas wirklich möglich ist.Könnte wenn das mal einer haben wird auch da drauf meine Software zum testen laufen lassen. Das wird also ganz gut laufen,weil 2x die Selbe Software mit 24 Threads ne Prima sache wäre.Bin gespannt wie gut die neuen Optimierten Atom Kerne so an Leistung abschneiden werden. Gehe mal davon aus das sie besser sein werden als damals zu Zeiten von den ersten Core i Serie aus dem Jahre 2008.Kann mir nicht vorstellen das Intel die Atoms einfach so gelassen hat ohne zu Optimieren.
 

Gerry1984

Software-Overclocker(in)
[...]Der Prozessor setzt anscheinend auf 12,5 MiByte L2-Cache, verteilt auf jeweils zehn 1,25 MiByte große Einzelwerte[...]

Das spricht für meine Hypothese dass Intel hier nach wie vor am Ringbus mit maximal zehn Teilnehmern hängt. Acht Bigcores mit je einem L2-Block und dann noch zwei Cluster zu je vier Atomkerne die sich je einen L2-Block teilen.
 

gerX7a

Software-Overclocker(in)
Irgendwie hast du dich da mal wieder verhauen.

Ein ALD 8+8 Kerner wird einem 5800X wohl zweifelsohne überlegen sein, zumindest wenn die Software das vernünftig nutzen kann, was ich nachwievor als Thema ansehe.


aber wenn ich das lese muss ich schon wieder grinsen. Das Thema hatten wir doch gerade erst, ist mir persönlich zu viel Schönmalerei in Richtung Intel. In wiefern soll der ADL 8+8 denn gegen den echten 16 Kerner so überlegen sein, dass er die aktuell rund 70% Performancenachteil in Anwendungen aufholen will? Wir reden von ca. 20% mehr IPC und selbst wenn Rocket Lake entgegen der aktuellen Leaks überperformt, wird RL in Anwendungen noch immer 50-60% Rückstand haben, aktuell vermutet man ja sogar, dass der Abstand in eben diesen Geschichten zuungunsten von RL ausfällt und dann eher auf 80% anwächst.
Ich weiß ja persönlich nicht wo du die 8 Atomkerne leistungstechnisch einsortierst, aber ich kann mir nicht vorstellen, dass diese derart gut performen, dass sie den 5950 komplett alt aussehen lassen.

Ich weiß, als nächstes kommt gleich Preis etc, aber was denkst du denn wird ALD kosten? Man rechnent aktuell mit 550EUR für den 11900k, ein 12900k wird also vermutlich auch wieder 550 EUR kosten, zu Beginn? Wie immer abhängig vom Yield und Bedarf. Der 5950X ist dann ein Jahr auf dem Markt und wird vermutlich schon unterhalb der UVP gehandelt werden, was dann vieleicht 650 EUR kosten dürfte. Dazu Plattformkosten die bei ALD auf Grund von DDR5 und nigelnagelneuen Boards vermutlich wieder einmal deutlich höher ausfallen dürften.
Also auch hier wird es eher zugunsten von AMD ausgehen.

Generell sollte man sich hier mal wieder ein wenig in Zurückhaltung üben, Rocket Lake ist noch gar nicht erschienen und Intel verspricht schon "the next big thing", das kenn ich alles aus den letzten zwei oder drei Jahren, erschienen ist nie wirklich was. Wir wissen weiterhin viel zu wenig über ALD um valide Aussagen über die Alltagsperformance treffen zu können, in irgendeiner Folie hat Intel mal von 20% IPC geredet, haben sie bei Rocket Lake auch, dann waren es 18% und aktuell sieht es so aus, dass sie davon nur rund 12% auf die Straße bringen. Angenommen, ALD bekommt auch nur 12% auf die Straße bin ich mir sicher, dass der 5950X sogar vorne bleiben wird.

Oder habe ich an deinem Post irgendetwas total mißverstanden?

P.S.
Zurück zu ALD, meine Abneigung gegen diese Technik im Desktop sollte mittlerweile berühmt berüchtigt sein, ich sehe in dieser Form keinen großen Zugewinn und habe immer noch Vorbehalte, so glaube ich eben nicht, dass ein ALD 8+8 Kerner 150% eines reinen 8 Kerners auf gleicher Basis erzielen wird. Dazu wird es in meinen Augen in vielen Bereichen Probleme mit dem Umschalten geben und es wird wahrscheinlich erst die Zeit bringen, dass dies richtig implementiert wird, bei nicht so regelmäßig gewarteter Software könnte ich mir so gar Leistungseinbußen im hohen zweistelligen Bereich vorstellen.
Das "wieder verhauen" muss ich dir da leider zurückgeben, denn du solltest einfach mal richtig lesen und den Kontext zu beachten lernen, dann würde dir so was nicht passieren. Denn das ein 8+8 ADL einen 5800X verheizt ist klar und genau das steht auch bei mir. :wall:
Dementsprechend war die Forderung auch unsinnig, diesen 8+8 ADL quasi zwangsweise nur als Achtkerner führen zu wollen (#2), damit man ihm die "unechten", "kleinen", "verpöhnten" oder Was-auch-immer-Kerne irgendwie zwangsaberkennt. Kann man machen, ist mir auch vollkommen gleich, ändert nichts an der Leistung, führt dann aber zu blödsinnigen Vergleichen, weil man gezwungen wäre unentwegt zu erklären, warum man vermeintliche Intel-8-Kerner in die gleiche Leistungsklasse packen würde, wie bspw. AMDs 12-Kerner, usw.

Und zum Zweiten: "Das Thema hatten wir doch gerade erst, ist mir persönlich zu viel Schönmalerei in Richtung Intel" ... ja ich weiß, das ist dein grundsätzliches Problem als anscheind heimlicher AMD-Fan. Letzten Endes aber auch hier, richtig Lesen und vermeintliche Probleme lösen sich in Luft auf, nur bei dir spielt sich da offensichtlich zu viel Kopfkino ab.
Und welche Überraschung ... ich hätte den Absatz noch weiterlesen sollen, denn offensichtlich warst du glatt noch in der Lage deinen einleitenden Unsinn zu übertreffen ... "In wiefern soll der ADL 8+8 denn gegen den echten 16 Kerner so überlegen sein": Lern einfach lesen und bekomme mal dein Kopfkino unter Kontrolle, das dir offensichtlich verwehrt einen Post einfach nur zu lesen und zu verstehen. Bei dir scheint ja ein derartiger Abwehr-/Beißreflex ausgelöst zu werden, wenn da irgendwas gemäß deinem Maßstab zu sehr Pro-Intel erscheint, dass bei dir irgendwas vollkommen aussetzt und du gleich wild auf der Tastatur einen vermeintlichen Antwortpost verfasst, der dann mal gleich komplett an allem vorbei geht ... siehe nachfolgende Frage (leider keine (Selbst)Erkenntnis).

"Oder habe ich an deinem Post irgendetwas total mißverstanden?" Lol, das kam wohl arg spät, da du ja bereits mit haufenweise haltlosen Spekulationen und Unterstellunngen um dich wirfst und quasi mir dir selbst eine Diskussion führst ...

"meine Abneigung gegen diese Technik im Desktop sollte mittlerweile berühmt berüchtigt sein" . Berüchtig mag vielleicht zutreffen, mehr als eine Meinungsäußerung/Gefühlslage scheint es jedoch nicht zu sein, denn mit technischen Fakten kannst du derzeit nicht aufwarten.
Warum ignorierst du dann nicht einfache alle News, Artikel, etc. rund um das Thema. Das würde dir dein Leben beträchtlich vereinfachen und dir auch derartige Fehlgriffe wie hier ersparen. Die einzige Erklärung die mir dazu einfällt ist, dass es dir nicht nur um ADL selbst geht ... denn immer nur zu schreiben "mag ich nicht, mag ich nicht" ist auf die Dauer doch arg ermüdend, oder? Und eben dabei belässt du es ja auch nicht, d. h. vielleicht solltest du mal so langsam auf den eigentlichen Punkt kommen.
Um dein "das Thema hatten wir doch gerade erst" noch eimal aufzugreifen ... du glaubst allen Ernstes halsstarrig daran, dass Intel da was still und heimlich ohne Marktanalysen und Feedback von der Industrie im stillen Kämmerlein ausbrütet, auf den Markt wirft und dann hofft, dass das zufälligerweise irgendwer toll und brauchbar finden wird (insbesondere die OEMs), einfach nur hofft, dass das über 30 Mrd. US$ schwere CCG-Bilanzsegment nicht in den Keller rutschen wird, weil das nach einer gewissen Zeit größtenteils auf diesen Designs basieren wird? - Mir scheint du bist naiver als ich annahm.
Niemand zwingt dich ADL mit kleinen Gracemont-Kernen zu kaufen, da es ebenso Varianten mit ausschließlich Golden Cove-Kernen geben wird und nicht einmal die zwingt dich wer zu kaufen oder auch nur zu beachten, aber jetzt darauf zu pochen, dass das kategorischer Unsinn im Desktop ist, ohne konkrete, messbare Hardware in Händen zu halten, ist schlicht unsinnig und daher nicht mehr als eine reine Meinungsäußerung.
Warte es doch mal einfach ab anstatt das vorzuverurteilen und totreden zu wollen (zumal das faktisch eh nichts am Erscheinen der Produkte und an deren (Nicht)Erfolg ändern wird und auch wenig bis nichts daran ändern wird, was AMD in nächter Zeit veröffentlichen wird). Vielleicht bringt es ja wirklich herzlich wenig in typischen Office-Rechnern, die tagtäglich millionenfach in Betrieb sind oder aber vielleicht ist es am Ende doch keine "ganz so dumme Idee" und hilft tatsächlich signifikante Mengen Energie einzusparen. (Wenn man nirgends anfängt kommt man auch nirgendwo hin.)
Und auch an deiner versuchten Gegenargumentation solltest du noch feilen, denn in der Form ist die nicht zu gebrauchen:

"ich sehe in dieser Form keinen großen Zugewinn und habe immer noch Vorbehalte, so glaube ich eben nicht, dass ein ALD 8+8 Kerner 150% eines reinen 8 Kerners auf gleicher Basis erzielen wird."
Dass du die grundsätzlich nicht sehen willst, ist ja auch klar, wenn man deine einleitende Selbsteinschätzung berücksichtigt. Letzten Endes hängt die Bewertung eines absolut erreichbaren Leistungswertes aber davon ab, wo Intel diese CPUs konkret positionieren wird. Nimmt man an, dass für maximale Performance alle 16 Kerne eines 8+8-Designs parallel arbeiten können, wäre die CPU deutlich leistungsfähiger und würde preislich natürlich auch über typischen 8-Kernern aufgehängt werden. Geht man davon aus, dass die zusätzliche 8 Kerne bespielsweise nur zum Stromsparen dienen, wäre das Design effektiv nur ein 8-Kerner und müsste auch entsprechend im Markt platziert werden. Da man aktuell aber nichts gesichert zur absoluten Leistung, zum Modus Operandi oder zum Preis weiß, kann man hier auch nichts bewerten und es ist auch völlig egal ob das Design nur 100 %, 120 % oder gar 150 % eines Pseudoreferenzachtkerners erreicht. Wenn sie es im Markt korrekt positionieren und bepreisen, haben sie ein kaufbares, und nachgefragtes Produkt. Nichts anderes hat ja auch AMD größtenteils im vergangenen Jahrzehnt machen müssen, denn andernfalls wären die schon längst Insolvent gegangen.

"Dazu wird es in meinen Augen in vielen Bereichen Probleme mit dem Umschalten geben"
Danach sieht es aktuell eher nicht aus, denn wie schon erklärt ist das eine unified ISA, die auf allen Cores zur Verfügung steht, d. h. ein Scheduler muss lediglich unterscheiden ob er es schnell und optional mit SMT oder aber langsam und stromsparend haben will, mehr nicht (vereinfacht ausgedrückt).

"und es wird wahrscheinlich erst die Zeit bringen, dass dies richtig implementiert wird"
08/15-Software nimmt eh keine eigenständige Kernzuweisung vor und verlässt sich auf das OS und darüber hinaus wurden für AMDs Zen's auch schon diverse Anpassungen im Windows-Scheduler erforderlich und auch Spieleentwickler musste sich bzgl. des aufgeteilten CCX-Aufbaus an die AMD-Hardware anpassen. Derartiges stellt also keine unüberwindbare Hürde sondern eher den Normalfall in der Industrie dar. Darüber hinaus kommt dann auch noch der "Bonus des Marktführers" hinzu, denn wenn der großvolumig derartige Produkte in den Markt bringt, wird die Industrie da wohl absehbar nochmals mehr Enthusiasmus an den Tag legen, zumal auch Intel deren Arbeiten mit seinen eigenen Softwareingenieuren unterstützen wird.

Warte es doch einfach mal ab, bspw. bis erste neue Fakten verfügbar sind, mit denen man tatsächlich irgendwas anstellen kann, die man analysieren und bewerten kann. Aktuell tauchen da ein paar vereinzelte Ergebnisse einiger ES-Chips auf, da ADL sich schon seit rund 1,5 Monaten bei Kunden vor Ort befindet und für die ersten Tests und anlaufenden Systemdesigns genutzt wird. Welchen Zustand diese ES-Chips haben, ist aber unklar und dass erste Leistungswerte deutlich schlechter sind ist ebenso vollkommen normal.


@latiose88: Zwischen 2008 (Bonell) und 2021 (Gracemont alleine oder auch in Alder Lake) liegen weitere sechs Atom-Generationen. Da hat sich zweifellos einiges getan.
Beispielsweise in 2013 warf man Hyperthreading raus und implementierte eine überarbeite Out-of-Order-Ausführung; die Pro-Thread-Leistung und Effizienz von Silvermont steigerte sich beträchtlich ggü. Saltwell.
Was man bei Gracemont erwarten darf, bleibt abzuwarten. Absehbar wird es bei einem Thread pro Kern bleiben, der Takt wird voraussichtlich niedriger ausfallen (dem Effizienzziel geschuldet), die Kerne werden aber auch AVX2 und AVX-VNNI prozessieren können, genau so, wie auch die großen Golden Cove Kerne.

@Gerry1984: Hier bleibt auch die Frage, ob SiSoft den L2-Wert überhaupt korrekt ausliest. Aktuell weiß ich noch nicht, wie genau die Architektur aussieht, aber bspw. in Willow Cove hat man den L2 explizit auf 1,25 MiB L2 vergrößert, d. h. alleine die acht großen Kerne haben schon insgesamt 10 MiB L2, wenn Golden Cove den L2-Aufbau unverändert übernimmt.
Die letzte Atom-Generation Tremont hat bzgl. dem L2 eine produktabhängige Architektur mit flexiblem Cachedesign. Hier waren Designs mit 1,5 - 4,5 MiB pro Modul möglich, wobei ein Modul aus bis zu vier Cores bestehen konnte, d. h. theoretisch wäre ein 4,5 L2-Cache für einen Core möglich. Übernimmt man die Minimalbestückung von Tremont mit 1,5 MiB für vier Kerne müssten also eigentlich noch einmal 3 MiB für die zwei Atom-Module hinzukommen. Bei den Atoms fungierte der L2 üblicherweise als LL-Cache. Hängt der dagegen nun in der Hierarchie mit am L3 dran (mit Tremont wurde ein entsprechend optionaler Aufbau implementiert), könnte es sein, dass man den L2 tatsächlich auf 1,25 MiB verkleinert hat, sodass die hier ausgewiesenen 12,5 MiB tatsächlich hinkommen könnten. Interessant wird sein, was der L3 bzgl. dem Thema Effizienz macht. Andererseits, wenn den Atom-Kernen nun noch ein vollumfänglicher, großer L3 zur Seite steht, könnten die auch rein darauf basierend schon deutlich schneller werden. Hier wird es am Ende darum gehen den Leistungszugewinn und die Effizienzziele auszutarieren. (Oder aber auch der L3 könnte deaktiviert werden und die Atom-Module hätten für den maximalen Effizienzmodus eine Bypass-Möglichkeit direkt auf das RAM und könnten im unterstüzenden Modus, parallel zu den Golden Cove-Kernen auch vom L3 profitieren?)
 
Zuletzt bearbeitet:

latiose88

Freizeitschrauber(in)
@gerX7a
Was heißt den CCG-Bilanzsegment ausgeschrieben und was heißt das denn genau?
Und was meinst du denn mit Modus Operandi,ist das zum standard zurück kehren oder was anderes erkärt?


Hm schade dann wird also der Windows Scheduler also hier ein strich durch die rechnung machen das man bei aufwendigen Arbeiten auch die kleinen noch dazu holen kann,das auch die mit arbeiten.Denn das würde die Arbeiten erheblich beschleunigen,da bin ich mir sicher.Es kommt also gut drauf an,ob man sowas auch einstellen kann.Dann würde das Problem nicht mehr herschen. Dann würde es ähnlich wie bei AMD ablaufen.Das wäre ne feine sache.Nur leider wird dies ja niemals so kommen.Verschenkes Potzenial bei der Technik sage ich da mal.
 

gerX7a

Software-Overclocker(in)
Client Computing Group ... dürfte grob für um die 35 Mrd. US$ Revenue in Intel's Bilanzen verantwortlich sein in diesem Jahr (tendenziell gar ein wenig mehr). Hier werden sämtliche Consumer-CPUs bilanziert, sowie die zugehörigen Chipsätze und ein paar Zusatzchips, so bspw. für Netzwerk und Thunderbolt.
Im Jahresabschluss unterteilt Intel die dann auch noch weiter. So hat man 2019 abgeschlossen mit 11,8 Mrd. US$ Revenue auf "CCG desktop platform" und mit 20,8 Mrd. US$ auf "CCG notebook platform".

Welcher Modus Operandi in dem Kontext, da man noch nicht gesichert weiß, wie die unterschiedlichen Kerne zusammenarbeiten oder gar ob überhaupt. Bisher ist da alles nur Spekulation.
Bereits in Lakefield konnten laut frühen Aussagen seitens Intel alle 5 Kerne parallel arbeiten, jedoch hat man das im fertigen Produkt dann doch unterlassen, voraussichtlich aufgrund des 5 - 7 W Power-Limits. Lässt man auf Lakefield einen Cinebench los, rendert der mit den vier Atom-Kernen und lässt den großen Sunny Cove-Kern ungenutzt; den großen Kern nutzt Lakefield hauptsächlich für die Responsiveness des Systems.

Warum "schade"? Aktuell weiß man es schlicht nicht gesichert und für die größten ADL's sind aktuell weiterhin bis zu 125 W TDP im Gespräch, d. h. es wäre nicht abwegig, dass man hier tatsächlich optional alle 8+8 Kernen parallel nutzen kann.

*) In einem frühen Intel-Dokument wurde gar in einer Fußnote vermerkt, dass man sogar eine Erhöhung auf bis zu 150 W evaluiert. ;-) Ohne parallel laufende Atom-Kerne wäre derartiges unsinnig, d. h. die Wahrscheinlichkeit ist hoch, dass die hybriden Designs im Performance-Modus tatsächlich die CPU vollständig auslasten und alle Kerne nutzen können.
 
Zuletzt bearbeitet:

Casurin

BIOS-Overclocker(in)
Hm schade dann wird also der Windows Scheduler also hier ein strich durch die rechnung machen das man bei aufwendigen Arbeiten auch die kleinen noch dazu holen kann,das auch die mit arbeiten.

Ist nicht wirklich der Windows-scheduler dran schuld. LakeField (wie auch gerx7a schon erwähnt) ist dazu in der Lage alle Kerne gleichzeitig zu nutzen, der Einsatzzwck und entsprechende Limitierungen ala TDP und auch Wärmeabführung haben dann dazu geführt das man es dennoch nicht macht.
Es werden da ja 3 Chips gestapelt - Chipset, CPU und Speicher. Auch wenns nur 7W sind, eingeklemmt zwischen 2 andren Chips ist das auch nicht so einfach zu kühlen.
 

RyzA

PCGH-Community-Veteran(in)
Ich gehe davon aus, dass genau wie bei ARM-Prozessoren auch, die Gesamtzahl vom Hersteller vermarktet wird. Klingt einfach besser und ist ja, im Gegensatz zu den Modulen bei Bulldozer damals, nichtmal falsch.

Bei PCGH im Einkaufsführer fände ich eine Angabe dazu (vgl. wie bei Bulldozer) aber ebenfalls sinnvoll.
Ich denke auch das die so vermarktet werden. Ist irgendwo eine Täuschung der Verbraucher, aber nicht falsch.

Naja, solange HW-Seiten/Magazine da differenzieren und Verbraucher dementsprechend informieren ist das ja ok.
Außerdem ist die Gesamtleistung am Ende entscheidend.
 

0Martin21

Tippmeister DFB-Pokal 2010/2011
Ich schau mir das so an und komme immer wieder auf 10 Kerne, real. Ich vermute mal das die Kleinen Kerne nur die halbe Performenz der großen haben, und zudem auch noch ein Taktunterschied herrscht, das die kleinen nur habl so schnell sind wie die Großen. Aber egal 10Kerne sind auch OK. wie lange das in Spielen noch reicht weiß keiner. erst mal werden alle neuen Spiele 8 Kerne und 16 Threads unterstützen. Da Konsolen das auch können. Der Erfahrung zeigt mir das es immer mehr Spiele geben wird die 10, 12, 14 oder gar 16 Kerne auslasten können, das war schon immer so das die PC-Spiele immer mehr brauchten als die Consolen, im ersten Jahr noch nicht aber dann kommt es immer mehr zum tragen das die Konsolen die Bremser sind und auf umwegen die PC mit mehr Effekten und Co ausgestattet wurden auf kosten der Auslastung der GPU und der CPU.

Ich sehe den ADL in Betrieben wo Systeme 24/7 laufen. zum Beispiel an 3D-Drehbänken oder Terminals für die Kunden/Mitarbeiter. da könnten die CPUs ihr vollen Potenzial nutzen. Im heimischen Bereich, sehe ich nich so viele möglichkeiten außer den kleinen Spiele-Rechner am Fernsehr für MIncraft und Co, da könnte er auch Vorteile bringen, wegen dem Standby (Kleine Kerne). Ich lass mich überraschen was geht und kommt.

Ich bin aber auch überrascht das Intel immer noch am Monolitischen Design hängt, ja es hat vorteile, aber die Nachteile sind ganz offensichtlich. Wenn ich im Monolitischen Design die Fertigung nicht hinbekomme, wegen zu viel Ausschuss, bekomme ich das vieleicht hin mit dem Chiplets? Ich habe die gleiche Fehler menge bekomme aber durch halb so große Chips viel mehr Funktionsfähige Chips raus, wenn es nicht an einem generellen Problem mit dem Design gibt, so das alles zu 99,8% stimmen muss um das funktionsfähigen zu bekommen, wo andere nur bei 95% sind. Kann sein wissen wir nicht.

Aber was mir Kopfzerbrechen bereitet sind die 64 bit CPUs von ARM, die könnten beide Intel als auch AMD in schwierigkeiten bringen. Ich bin mir nicht sicher aber ich glaube das AMD das schon mal vor Jahren versuchte hatte, mit den 64-bit CPUs, aber grandios gescheiters war, weil es keine Programme gab, die das nutzen konnten (effektiv), nun da Apple einen hat und andere auch einen entwickeln wollen könnte da mehr kommen. Ich glaube auch das der unterschied doch recht groß war, wenn man eine Aktuelle (damals!) x86 gegen ein 64Bit CPU getestet hatte und das Programm beides nutzen konnte.

Wenn ich unrecht habe könnt ihr ja antworten, aber bitte schalich bleiben, wenns geht. Ich also AMD-FANBOY, habe es versucht. Danke

Gruß Martin
 

gaussmath

Lötkolbengott/-göttin
Ich bin dafür, dass man die langsamen Cripple-Lake Kerne nicht in die Zahl der Gesamtkerne einbezieht.
Wer sagt denn, dass die langsamer sind? Vielleicht können die ja auch sehr hoch takten, weil das Design viel schlanker ist.
Ich hab nen Core i5 10600K und würde, wenn die 11er generation im Preis etwas gesunken ist gerne auf nen 8 Kerner aufrüsten. Ganz uninteressant die CPUs wirklich nicht. Sie haben nur ein ziemlich schlechtes Timing.
Ich habe auch einen 10600K zu Testzwecken hier zur Zeit. Nur mal so als Info, mit ein paar Klicks im BIOS und gutem RAM hatte ich in Cyberpunk 37% bessere Frametimes. Bevor du die CPU auswechselst, würde ich erstmal ein wenig OC empfehlen.
 
Zuletzt bearbeitet:

BigBoymann

Software-Overclocker(in)
@gerX7a

Lass gut sein, ich hab deinen Beitrag gelesen und irgendwie scheinen wir da nicht mehr auf einen Nenner zu kommen, ich behaupte einfach mal, dass deine Aussage "Plattform" schlecht gewählt war und du dich komplett auf den 5800X Vergleich beziehst. In dem Fall, zumindest verstehe ich dies in deiner Aussage so, hast du Recht und dem habe ich auch nicht widersprochen. In meinen Augen eine unglückliche Wortwahl, da ich unter dem Begriff Plattform komplett Zen3 verstanden habe und ich mir denken kann, dass dies anderen ebenso geht.

Beim Rest wirfst du mir Rätselraten vor, was du selber aber eben nicht anders machst. Leistungsmäßig sitzen wir völlig im Dunkeln, was aber klar ist, 8 schnelle und 8 langsame Kerne werden es mit 16 schnellen Kernen sehr schwer haben. Das ist für mich ein Fakt und zeigt dann schon, dass Intel einen anderen Markt anstrebt und die Leistungskrone vermutlich nicht mehr zurückgewinnen wird.

Ansonsten scheinst du auch nicht viel mehr als Vorwürfe raushauen zu können, ich denke ich habe eine recht neutrale Sicht auf die Dinge. So stört es mich im Gegensatz zu vielen anderen gar nicht, das RL scheinbar nicht mit allen Chipsätzen kompatibel sein wird, weil es schlicht keine Auswirkungen haben wird, RL ist kein Aufrüstprodukt, sondern wenn dann nur für einen Neubau sinnvoll, ergo kein Problem. Des Weiteren betone ich immer wieder und wieder, dass die Effizienz von Intel, gerade im Gaming sehr gut ist und AMD hier viel zu oft hochgelobt wird. Dazu kommt es, dass ich gerade selber einen 10850k bestellt habe, weil er aktuell am Markt das beste für meinen Preis ist, in Verbindung mit OC schafft dieser einen 5800X (einzige Konkurenzprodukt, was gut lieferbar ist) recht simpel, da ich auf dem Rechner tatsächlich nur Zocken werde, macht dies in meinen Augen absolut Sinn. Ich mag es nur nicht, wenn sehr einseitig auf ein Produkt geschaut wird, deine Aussage "Plattform" scheine ich mißverstanden zu haben, allerdings habe ich eben generell den Eindruck, dass du Alder Lake ein wenig als den heiligen Gral ansehen möchtest, was es aber nunmal definitiv im Desktop nicht sein wird.
 

theGucky

PC-Selbstbauer(in)
@gerX7a

Lass gut sein, ich hab deinen Beitrag gelesen und irgendwie scheinen wir da nicht mehr auf einen Nenner zu kommen, ich behaupte einfach mal, dass deine Aussage "Plattform" schlecht gewählt war und du dich komplett auf den 5800X Vergleich beziehst. In dem Fall, zumindest verstehe ich dies in deiner Aussage so, hast du Recht und dem habe ich auch nicht widersprochen. In meinen Augen eine unglückliche Wortwahl, da ich unter dem Begriff Plattform komplett Zen3 verstanden habe und ich mir denken kann, dass dies anderen ebenso geht.

Beim Rest wirfst du mir Rätselraten vor, was du selber aber eben nicht anders machst. Leistungsmäßig sitzen wir völlig im Dunkeln, was aber klar ist, 8 schnelle und 8 langsame Kerne werden es mit 16 schnellen Kernen sehr schwer haben. Das ist für mich ein Fakt und zeigt dann schon, dass Intel einen anderen Markt anstrebt und die Leistungskrone vermutlich nicht mehr zurückgewinnen wird.

Ansonsten scheinst du auch nicht viel mehr als Vorwürfe raushauen zu können, ich denke ich habe eine recht neutrale Sicht auf die Dinge. So stört es mich im Gegensatz zu vielen anderen gar nicht, das RL scheinbar nicht mit allen Chipsätzen kompatibel sein wird, weil es schlicht keine Auswirkungen haben wird, RL ist kein Aufrüstprodukt, sondern wenn dann nur für einen Neubau sinnvoll, ergo kein Problem. Des Weiteren betone ich immer wieder und wieder, dass die Effizienz von Intel, gerade im Gaming sehr gut ist und AMD hier viel zu oft hochgelobt wird. Dazu kommt es, dass ich gerade selber einen 10850k bestellt habe, weil er aktuell am Markt das beste für meinen Preis ist, in Verbindung mit OC schafft dieser einen 5800X (einzige Konkurenzprodukt, was gut lieferbar ist) recht simpel, da ich auf dem Rechner tatsächlich nur Zocken werde, macht dies in meinen Augen absolut Sinn. Ich mag es nur nicht, wenn sehr einseitig auf ein Produkt geschaut wird, deine Aussage "Plattform" scheine ich mißverstanden zu haben, allerdings habe ich eben generell den Eindruck, dass du Alder Lake ein wenig als den heiligen Gral ansehen möchtest, was es aber nunmal definitiv im Desktop nicht sein wird.

Die Idee ist es doch, den 8 schnellen Kernen mehr Saft zu geben, während die langsamen 8 nicht so viel ziehen.
Dadurch sollen die 8 schnellen Kerne um einiges schneller sein, als im Vergleich die 16 schnellen von AMD.
In Spielen zählt noch immer, das 1-4 schnelle Kerne mehr bringen als 16 etwas langsamere.
Die Langsamen sollen dann auf die Hintergrund-Programme konzentrieren...
Jedenfalls verstehe ich das so.
Ich nutze 2 Monitore und gucken u.a. auf dem zweiten neben dem Zocken auch mal Netflix.
Aktuell habe ich einen "leicht" übertakteten 7700k mit 4,8Ghz. Ich merke durchaus hin und wieder Ruckler, die von der CPU kommen, trotz RTX 3080.
 

latiose88

Freizeitschrauber(in)
@theGucky

Das mit den Rucklern liegt ganz einfach daran weil es nur 4 Kerne mit HT sind.Das ist heutzutage teilweise echt zu wenig.Nur wer so wie ich nur alte Game zockt kann auch auf die 4 kerne bleiben. Ich weis das ich eigentlich einen fürs reine zocken überdimionsinierte CPU habe weil es ein i7 6950x ist mit seinen 10 Kernen.Ich habe mir schon gedanken darüber gemacht den gegen ein System mit nur 4 kernen zu wechseln.Denn für solche Plattform bekommt man noch ein gutes Geld. Dann aber überlegt,hm dann müsste ich ja nen Pc zusammen Bauen wo ich selbst eben nicht kann.Man darf halt keine innere Unruhe beim zusammenbauen haben.Das ist allerdings bei mir der Fall.Das habe ich nicht nur beim Pc zusammen Bauen.Das ist teilweise echt ein Problem.Leider kann man ne innere Unruhe nicht so einfach still legen.Und beim Pc ist dahin zittern eben sehr schlecht.Da kommt man dann teilweise an andere Hardware dann hin und dann sind da Kratzer in der Hardware.Diese könnte dann zu schade führen weil die cpu am Mainbaord Kratzer hinzugeführt hatte.Das war bei mir der Fall gewesen.So konnte das system am ende nur noch trotz nur einer GPU und im richtigen slot nur noch PCI Express x8 anstatt x16 anzeigen oder war es gar nur x4. Auf jedenfalls stimmte was nicht.Im Bios zeigte es x16 slot an.Am ende bekam dies mein Bruder und die ging dann bei ihm endgültig kaputt.

Nun gut,werde mir da langfristig was überlegen. Ich bin beim zocken der alten Games ein Windows 7 Nutzer mit bereitschaft zu alter Hardware. Bei mir wird sich das ja nicht mehr ändern.Meine Zocker Ebene ist auf einem alten Stand. Neue Games überzeugen mich kaum noch.Es fehlt den meisten Games etwas,das nennt sich Seele oder sowas. Es wirkt so massenware. Nix was besonders wäre. Kein Wunder also das ich auf einem gewissen Stand stehen geblieben bin. Auch bei der GPU bin ich auf einen gewissen Punkt stehen geblieben. Wenn sowas wie mit ner gtx 1050 ti auskomme,da wird keine der 4 Kerner wirklich die GPU jemals bremsen. Nun erst mal muss mal die CPU mal defekt gehen.Das wird noch dauern. Oder würdet ihr einen wechsel an meiner Stelle anstreben zu ner CPU mit weniger Kernen?
 

theGucky

PC-Selbstbauer(in)
@latiose88
Naja Die CPU ist fast 4 Jahre im PC und Zeit für ein Upgrade ist auch schon länger gekommen, aber der Markt ist aktuell mist. Daher werde ich noch bis Zen3+(Warhol) oder Alder Lake warten. Vorallem da diese CPUs wieder neue Sockel und (angeblich) DDR5 haben.
Für ein Upgrade wäre also Mainboard, RAM, CPU UND Netzteil nötig. Und alles ist derzeit teuer...
Meine Hoffnung ist, das es bis Weihnachten mit dem Impfstoff sich alles wieder ein bisschen beruhigt.

Aber ausreichend ist die CPU ansich noch. Die Framedrops sind nur ab und zu. Dennoch kann ich sowas wie Cyberpunk mit RTUltra bei 40-70fps und Assassins Creed mit durchgehend 61fps (60fps Limiter) spielen.
Die CPU von mir ist aber auch eben von mir geköpft. Trotz 4,8Ghz/1,25v noch immer unter TDP und unter 70°C mit einem Single-Tower Kühler.
Dennoch mein PC ist mit der 3080 definitiv CPU bottlenecked.
 
Oben Unten