News Zen-5-Flaggschiff Ryzen 9 9950X getestet: Ergebnisse werfen Fragen auf

Ich weiß ehrlich gesagt nicht ob die Rechnung was AMD da macht aufgeht bzw ich weiß nicht mal ob die Hauptabnehmer von High END Desktop CPUs eher Gamer sind oder Leute die viele Kerne brauchen.
Die Frage kann ich dir leicht beantworten.Ich bin kein aktueller Gamer und brauche viele Kerne,darum auch gleich direkt den 16 Kerner.Es gibt aber auch welche Gamer die auch viele Kerne benötigen ,die also neben dem aktuellen Zocken auch Anwendung verwenden.Die meisten Gamer sind aber nebenbei allerdings nicht automatisch Anwender.
 
Die einzige Frage die sich mir aufwirft ist, wieso AMD nicht gegen diese leaks vorgeht und die leaker mal hart abstraft!?
Wenn es anonyme Daten in Benchmark-Übersichten sind, dann ist es gar nicht so leicht herauszufinden, wo die eigentlich herkommen. Ich bin so einer, der das Netzkabel bei CPU-Tests zieht, die noch unter NDA steht, damit das Tool die Ergebnisse nicht irgendwo hochladen kann. Jemand anders ist offenbar zu faul dazu :ka: (oder ihm ist es einfach egal)
 
Einfach ohne Internetanbindung testen?
Sofern möglich, ja. Ein 3DMark etwa erstellt sonst nach dem Benchmark ein Ergebnis, welches online abrufbar ist. Ich kenne den Geekbench nicht, aber offenbar läuft das da genauso. Ich hatte auch lange mit dem Puget Benchmark (Photoshop) gearbeitet. Ohne Netzkabel hat er dann immer gemeckert, wenn er die fertigen Daten nicht hochladen konnte ^^ Gut für mich, so habe ich nämlich keinen NDA-Bruch begangen.
 
Sofern möglich, ja. Ein 3DMark etwa erstellt sonst nach dem Benchmark ein Ergebnis, welches online abrufbar ist. Ich kenne den Geekbench nicht, aber offenbar läuft das da genauso. ...

Gibt es denn Hinweise von den Herstellern (AMD), wo rauf man achten muss? Wenn hunderte/tausende Leute testen, dann ist sicherlich auch jemand dabei, der darauf eben nicht so genau achtet. Theoretisch könnte es ja sogar sein, dass Tools die Ergebnisse speichern und einfach mit der nächsten Verbindung zum Internet hochladen.
 
Eins weiss man da jetzt schon, das Ding wird wohl keine Revolution werden. Kleines Upgrade, wahrscheinlich bei Games nicht nennenswert merkbar.
 
Gibt es denn Hinweise von den Herstellern (AMD), wo rauf man achten muss? Wenn hunderte/tausende Leute testen, dann ist sicherlich auch jemand dabei, der darauf eben nicht so genau achtet.
Naja, wenn du zur Verschwiegenheit verpflichtet bist, dann bedeutet das in der Regel auch, dass du keine Werte öffentlich posten darfst, die dazu dienen, die Leistung festzuhalten (oder andere Dinge, die das NDA enthält). Gleich, welcher Form. Und zwar so lange, wie das NDA eben gilt. Was das NDA beinhaltet, darfst du auch nicht weitergeben. Aber bei einer kommenden CPU-Generation sind die meisten natürlich an der Leistung interessiert. :ka:
 
Na, das kann ja lust...ääähhh...langweilig werden. Irgendwie auf beiden Seiten nicht so prall, was einen da effektiv erwartet. :kaffee:

Egal, Tests abwarten. Lass mich gerne überraschen.
 
Welcher reine Gamer kauft sich denn so eine CPU ohne X3D ?
Macht doch gar keinen Sinn meiner Meinung nach.
Ich weiß ehrlich gesagt nicht ob die Rechnung was AMD da macht aufgeht bzw ich weiß nicht mal ob die Hauptabnehmer von High END Desktop CPUs eher Gamer sind oder Leute die viele Kerne brauchen.
Ich bin "Gamer", aber eben kein reiner Gamer. Ich denke mal der Markt ist gar nicht so gering. Wer sowohl spielt, als auch Volldampf im Multi Core will, für den ist der normale 16-Kerner ein gutes Produkt. Und abgesehen von mittleren dreistelligen Frameraten in CS gibt es auch kaum Szenarien, in denen der normale 16 Kerner ein großes Bottleneck darstellen würde.
Ich würde die Erwartungen klein halten.
Erwartungen niedrig halten ist immer gut, aber den Leak halte ich genauso realistisch wie den hiesigen (16 Kerner kaum schneller als 12 Kerner). Eine Engineering Sample mit einer neuen Architektur und ohne optimierte Scheduler etc. hat noch eine ganze Menge Luft nach oben.
 
Das bezweifle ich mal stark. Das selbe wurde vor 2 Jahren und vor 4 Jahren gesagt bezüglich der neuen 10nm und 7nm Fertigung von Intel.
Und es gab schon einen Effizienzsprung. Alder Lake war ganz ok.
Aber was man gesondert betrachten kann - nicht muss - sind die Brechstangenmodelle.

Im Desktop haben wir aber seit 3 Jahren die "10nm" Fertigung alias Intel 7. Nicht den Nachfolger Intel 4 (Meteor) und auch nicht den verbesserten Intel 4 Prozess namens Intel 3.
Meine Annahme ist, dass der verwendete 20A Prozess am Anfang noch nicht ausgereift sein wird, ähnlich wie eben diverse Prozesse davor, wo dann die Taktraten noch nicht hoch gehen etc.
Deshalb wird Arrow Lake mit etwas niedrigeren Taktraten, höherer IPC antreten und von daher wohl auch effizienter laufen über die gesamte Serie hinweg.

Ich bin mir nicht sicher, ob Intel nicht schon niedrigere TDPs angekündigt hat, jedenfalls aber höhere Effizienz.

Ich gehe davon aus: Leistung wie knapp (drüber/drunter je nach Modell) Raptor Lake bei deutlich niedrigerem Verbrauch, im Highend wird man aber der Effizienz (unter Last) von AMD (noch) nix entgegen setzen können.

Das geschicht meiner Einschätzung nach erst mit Nova Lake, SOLLTE(!) Intel die Fertigung bis dahin tatsächlich in den Griff bekommen und nicht wieder nach hinten verschieben. Nova Lake tritt dann gegen Zen 6 an, welche den Gerüchten nach N3 und später N2 verwendet, vor allem aber ein neues Packaging, worauf ich auch gespannt bin, weil damit vielleicht deutlich niedrigere Idle-Werte trotz MCM möglich sein könnten
 
@Rollora Daran glaubst du doch nicht selber oder doch? Es war vor 2 Jahren auch angekündigt, dass Intel einen 3d cache klaun wird, davon ist auch nichts mehr zu hören.
 
@Rollora Daran glaubst du doch nicht selber oder doch? Es war vor 2 Jahren auch angekündigt, dass Intel einen 3d cache klaun wird, davon ist auch nichts mehr zu hören.
Irgendwie wirfst du grad Gerüchte und Vermutungen, mit den offiziellen Ankündigungen durcheinander. Oder wo hat Intel dies offiziell für Desktopchips angekündigt?

Aber ja "glauben": was konkret ist deine Frage?
Arrow Lake läuft seit über 1 Jahr in den Laboren, wäre man nicht bereit sie zu releasen, würde man grob 2025 als Termin nennen und nicht noch 2024. Der Chip kommt und er kommt wie angekündigt, da ist so kurz vor Release nicht mehr viel Spielraum.

Also was konkret zweifelst du an, man kann ja drüber reden...

Ob man die Fertigung so gut im Griff hat ist eine andere Geschichte, wir werdens sehen. Zuletzt war man Jahre hinter der Konkurrenz (10nm in den aktuellen Desktop-Produkten, ok "Intel 7", ist etwas, das setzt AMD seit 2020 in CPUs ein (Zen 3), Zen 4 war sogar schon 5nm, Intel ist hier also deutlich hinterher.
Mit 20A macht Intel einen großen Schritt nach vorne.

Also nochmal meine Frage, was konkret ich glaube oder nicht glaube.
Ich gehe sehr stark davon aus, dass Intel aufholt. Nicht ÜBERholt, sondern aufholt.

Wirklich sehen werden wirs aber dennoch erst in 2 Jahren, weil 20A nur die "Vorstufe" von 18A ist, wo man wesentlich mehr Ressourcen investiert hat. Und dann kommt 2 Jahre später wohl die erstehn High NA Verfahren und hier ist gar keine Frage ob ich das "glaube", denn Intel hat sich die ersten High NA Maschinen gekauft, daran gibts ja keinen Zweifel, das kann man bei ASML nachlesen.

Allerdings ist ein ein Chip ja mehr als sein Prozess. Beim Packaging hat man viele interessante Ansätze, aber TSMC haut hier auch einiges raus.
Und Architektur - tja das ist die nächste Frage: wer hat die bessere Architektur. Beide haben IPC GEwinne, aber Intel hat dieses mir immer noch nicht P+E Kerne-Konzept im Desktop, AMD bis zu 16P Kerne und zum Drüberstreuen immer noch SMT/HT.

Aber daher nochmal was meinst du mit "das glaubst du wohl selbst nicht". Ich bin gern zu einer ernsthaften Diskussion bereit, aber nur "lachen" ist etwas uncool, es gibt ja genug Fakten auch da draußen.
 
Aber was man gesondert betrachten kann - nicht muss - sind die Brechstangenmodelle.
Dann muss man aber auch B sagen und darf die eben nicht mit AMDs Topmodellen vergleichen! Denn die sind bei Weitem nicht derartig auf Brechtstange designt und meist noch in einem gesunden TDP Bereich unterwegs.

@Rollora Daran glaubst du doch nicht selber oder doch? Es war vor 2 Jahren auch angekündigt, dass Intel einen 3d cache klaun wird, davon ist auch nichts mehr zu hören.
Wenn man die News alle mal mit ein wenig Verstand liest, kann man Adamantine durchaus als den Cache (ganz andere Technik, eben nicht 3D; aber zusätzlicher Cache) verstehen.

Mit 20A macht Intel einen großen Schritt nach vorne.
Intel wird seit dem 10nm Desaster erstmals wieder die auf dem Papier bessere Fertigung haben, da AMD bei 5nm Prozesstruktur bleibt.

Wirklich sehen werden wirs aber dennoch erst in 2 Jahren, weil 20A nur die "Vorstufe" von 18A ist, wo man wesentlich mehr Ressourcen investiert hat.
Ich verstehe diesen Gedanken (den du ja nicht alleine hast) noch immer nicht so ganz! 20A ist ein Prozess der dem N4 von TSMC überlegen ist, damit muss Intel jetzt liefern. Dabei geht es nicht um die schnellste CPU, sondern darum in der Effizienz mit Zen 5 mind. mithalten zu können, ehrlicherweise muss Intel eigentlich vor AMD zum liegen kommen! Denn das ist das, was man seit Zen 3 AMD vorhält, sie sind ja nur besser weil sie die bessere Fertigung haben. 18A wird ein riesengroßer Monsterschritt (?), es kommen neue Techniken zum Einsatz, ob diese dann auch zwingend mehr Leistung bieten muss? Ich weiß es nicht so genau, mehr Effizienz wäre in meinen Augen logisch, mehr Leistung, ggfls. durch mehr Takt, was ggfls. aber wieder durch die Effizienz gebremst wird. Mal abwarten. Nur kann ich mit 20A dann schon ein Fazit ziehen, wenn Intel es nicht schafft gleichauf oder besser zu sein in der Effizienz, bestätigt sich mein Verdacht, dass bigLITTLE gescheitert ist!

Und Architektur - tja das ist die nächste Frage: wer hat die bessere Architektur. Beide haben IPC GEwinne, aber Intel hat dieses mir immer noch nicht P+E Kerne-Konzept im Desktop, AMD bis zu 16P Kerne und zum Drüberstreuen immer noch SMT/HT.
AMD ist hier aktuell im Vorteil, mit 20A Fertigung muss Intel mind. aufschließen, ansonsten hat sich das bigLITTLE Design aus effizienz Gründen mal gar nicht bewähren können. Dazu kommt, dass die E-Cores jetzt massiv aufgewertet werden, was am Ende auch massiv Waferfläche kosten wird, was den zweiten Sinn der E-Cores weiter eingrenzt. Ich wage mal zu behaupten, dass Intel weg von den E-Cores gehen wird und ggfls. hin zu C-Cores ala AMD wechselt? Wieso zwei Archs weiterentwickeln, wenn man die Hauptarchitketur besser machen kann?

Das wichtigste für Intel wird aber sein, auf MCM zu wechseln, aktuell sind wir mit 16 Kernen im Desktop gut bedient, aber auch das wird sich ändern und AMD kann mir nichts dir nichts auf 32, 64, 96, 128 Kerne "upgraden" durch das MCM Design. Mit Zen6 würde ich mal davon ausgehen, dass 16 Kerne je CCD kommen werden, damit 32 Kerne im Desktop durchaus realistisch werden, Intel kann dann noch mehr E-Cores dagegen werfen, monolithisch wird man aber schnell an die Grenzen stoßen, was man eben auch an dem zu Tode verfeinerten 14nm Prozess ablesen konnte, 10 Kerne und dann ist eigentlich auch Ende im Gelände, für alles was mehr kommen soll, muss die Arch so umfassend geändert werden, dass es für den Desktop keinen Sinn macht. Dazu hat Intel meines Wissens nach mit mehr Kernen auch im Server massive Probleme und die Cacheanbindung ist alles andere als optimal, schneller als AMD, aber extrem aufwändig.

Intel muss jetzt liefern, nicht mit 18A,nicht mit 10A oder sonstwas. Wenn 20A nicht überzeugt, ist bigLITTLE in meinen Augen nicht zu halten, auch wenn es für die nächsten drei oder vier Gens sicher noch bleiben wird, weil es einfach schon in Entwicklung ist.
 
Es ist halt immer schwierig zu sagen Firma XY müsste irgendwas. Wollen sie im großen Markt, also den Rechenzentren konkurrenzfähig sein, müssen sie gleichziehen. Das steht für sich. Beim Desktop sieht es ganz anders aus. Selbst wenn Arrowlake nicht mehr die Spitzenleistungen erreicht, wird's nur durch die Effizienz dennoch so gut, dass man weiterhin den Notebookmarkt und die meisten OEM Desktop-Systeme damit beliefern wird dürfen. Das wird den Investoren reichen und man kann sich auf A18 konzentrieren, von dem sich viele einen echten Gewinn erhoffen. Intel ist halt "nur" bei der Effizienz hinterher, der Rest ist deutlich konkurrenzfähiger als mancher gern tut.
 
Dann muss man aber auch B sagen und darf die eben nicht mit AMDs Topmodellen vergleichen! Denn die sind bei Weitem nicht derartig auf Brechtstange designt und meist noch in einem gesunden TDP Bereich unterwegs.
natürlich. Also sagen wir mal so:
- aktuell kann man Intels Top-Modelle nicht wirklich empfehlen, AMDs sehr wohl
- Intel hat aber noch einiges andere im Programm, das eigentlich recht in Ordnung ist, auch was Preis/Leistung betrifft
Umgekehrt bin ich hier nicht auf der Suche nach einem Mittelklasse-Chip. Und wenn ich die Wahl habe zwischen performant und Performant &gleichzeitig effizient - tja da schlägt mein Herz eben für AMD.
Wenn man die News alle mal mit ein wenig Verstand liest, kann man Adamantine durchaus als den Cache (ganz andere Technik, eben nicht 3D; aber zusätzlicher Cache) verstehen.
Intel hat hunderte Forschungsprojekte, viele davon werden ständig angekündigt, manche ausgewählte werden dann hier berichtet. Das ist aber sehr selektiv worüber die PCGH schreibt. Es gbit Produktreleases und Ankündigungen von Intel von denen hört man hier gar nichts.
Etwa: https://www.intel.de/content/www/de/de/products/details/network-io/ipu/e2000-asic.html
Hier im Forum ist Intel ein x86 Chip Hersteller und meinetwegen auch ein mögilcher GPU Konkurrent, aber man stellt ja viel mehr her.
Adamantine ist eines von vielen Projekten die Intel sicher in Entwicklung hat, aber soweit ich(!) weiß hat man noch nicht wirklich konkrete Produkte angekündigt damit.
Das ist ähnlich wie der Protoyp den Intel gefertigt hat mit BPD.

Der Grund warum Intel da vorsichtig geworden ist: 2016 hat man versucht alles mögliche gleichzeitig in einem neuen Prozess zu bringen. Jetzt scheint es, als hätte man gelernt die Technologien unabhängiger von einander zu entwickeln und dann im späteren Verlauf zu verwirklichen.
Intel bietet deshalb in 18 A den Prozess an mit BPD und ohne.
Mit unterschiedlichen Eigenschaften wie Komplexität, Taktrate, Yieldrate...
Intel wird seit dem 10nm Desaster erstmals wieder die auf dem Papier bessere Fertigung haben, da AMD bei 5nm Prozesstruktur bleibt.
ja auf dem Papier. Aber nicht in der Praxis. In manchen Metriken ist man vorne, in anderen nicht.
Auf dm Papier war 2017 schon 10nm besser als Intels 14nm Prozess.
In der Praxis hat es viele Überarbeitungen gebraucht. Die Taktraten waren schlecht, die Effizienz nicht die gewünschte, die Materialien wurden nochmal geändert... was wir heute als Intel 7 kennen ist das, was ursprünglich (2016) hätte kommen sollen (und zwar ohne EUV) , aber es ist nicht das was gekommen ist.
Intel 20A wird in manchen Metriken besser, in anderen schlechter sein.
Das sagt selbst Intel, siehe etwa auch hier:
https://pics.computerbase.de/1/1/1/8/7/1-84f5ea6546bec42c/8-1280.57fb2a1a.png
Quelle: https://www.computerbase.de/2024-06...pus-setzen-voll-auf-intel-18a-und-nicht-tsmc/

- daher eben meine Frage: halten wir uns jetzt an den Gerüchten oder an das was Intel selbst angibt, wohl angemerkt, dass Intel zwar zu einem gewissen Wahrheitsgehalt verpflichtet ist, aber eben auch Marketing betriebt und man durchaus filtern können muss.

Ich verstehe diesen Gedanken (den du ja nicht alleine hast) noch immer nicht so ganz! 20A ist ein Prozess der dem N4 von TSMC überlegen ist,
nein und genau da liegt halt der Hund begraben. Das ist er nicht. Intel 20A ist ähnlich wie Intel 4 eine Vorstufe, ein Zwischenschritt auf das was kommen soll. Das ist halt das schwierige bei so viel (halber) Information die rumgeistert, die richtig einzuordnen.
Inels 20A Prozess hat schon ein paar Dinge, die Intel für 18A Plant im Versuch/in einer Erstversion. Das heißt da wird schon einiges Vorwärts gehen, aber man geht nirgends ans Limit. Das passiert erst, wenn das über mehrere Gens ausgereift ist. in Manchen Metriken ist Intel 20A besser, in einigen wirds wohl schlechter sein. Wie gesagt, Intel selbst sieht sich erst später führend.
20A probiert schon wieder vieles neues aus, es wird aber nicht sofort alles super klappen. Etwa GAA, bei dem Samsung seit 5 Jahren probiert, dass sie es ordentlich zum Laufen kriegen und nun in ihrer "3. Generation" glauben, alle Probleme gelöst zu haben.
PowerVia/BPD ist auch nicht mehr generell in 18A integriert, es erwies sich noch als zu komplex.
Man muss bei Intel auch immer aufpassen zwischen den ursprünglichen Ankündigungen - dem Namen - und welche Technologie dann auch drin ist.
Du siehst heir eine wesentlich bessere Einschätzung außerdem wie viel Intel tatsächlich in 18A produziert oder was auch immer: das ganze wird wohl am Beginn sehr beschränkt vorhanden sein, dann erst später ein Massenprodukt:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Geht halt auch um Yields, Kapazitäten
damit muss Intel jetzt liefern. Dabei geht es nicht um die schnellste CPU, sondern darum in der Effizienz mit Zen 5 mind. mithalten zu können, ehrlicherweise muss Intel eigentlich vor AMD zum liegen kommen!
und das sehe ich noch nicht. Im Mittelfeld klar, im Laptopbereich - ja. Aber im Highend muss man einfach zu hoch gehen um aktuell mit AMD mitzugehen. Das kommt erst später, wenn die aktuellen Ansätze alle ausgereift sind.
Sollte 14A tatsächlich 2026 in einem Produkt kommen, dann sehe ich das als realistisch an.
14A vs TSMCs N2 oder falls da Apple drauf sitzt N3P und Intel wird auch neue Architekturen bringen müssen

Denn das ist das, was man seit Zen 3 AMD vorhält, sie sind ja nur besser weil sie die bessere Fertigung haben.
das ist ein Teil der Gleichung, ja. Aber auch nicht alles.
18A wird ein riesengroßer Monsterschritt (?),
eher eine Evolution von 20A. Es gibt keine Monsterschritte mehr. 20A macht den Anfang, 18A enthält verbesserungen und die HighIO library. Dann später kommen weitere Evolutionsstufen. 14A mit High NA ist wohl das was Intel eigentlich vor ein paar Jahre nnoch für 18A angekündigt hat
es kommen neue Techniken zum Einsatz, ob diese dann auch zwingend mehr Leistung bieten muss? Ich weiß es nicht so genau, mehr Effizienz wäre in meinen Augen logisch, mehr Leistung, ggfls. durch mehr Takt, was ggfls. aber wieder durch die Effizienz gebremst wird.
Mehr Effizienz und größere Transistordichte. Letztere erlaubt wieder andere, breitere Architekturen und mehr IPC.
Mal abwarten. Nur kann ich mit 20A dann schon ein Fazit ziehen, wenn Intel es nicht schafft gleichauf oder besser zu sein in der Effizienz, bestätigt sich mein Verdacht, dass bigLITTLE gescheitert ist!
gescheitert ist es nicht, auch AMD setzt drauf, nur mit anderem Ansatz.
Intels Arrow Lake und die nächstes Jahr mit der neuen Architektur folgenden Serverprodukte mit über 200 E-Cores werden schon ordentlich was bringen. Aber Arrow Lake ist halt auch wieder so eine sache: hat wieder "nur" 8P Kerne, ich hätte gerne 16+16 oder gar 32 wenn schon SMT wegfällt. Daher lieber AMD mit 16P Kernen im Moment
AMD ist hier aktuell im Vorteil, mit 20A Fertigung muss Intel mind. aufschließen, ansonsten hat sich das bigLITTLE Design aus effizienz Gründen mal gar nicht bewähren können.
Abgesehen vom Highend, wo alles über dem Sweet Spot laufen wird, wird Arrow Lake sehr viel Effizienz bringen und Lunar Lake noch mehr.
Dazu kommt, dass die E-Cores jetzt massiv aufgewertet werden, was am Ende auch massiv Waferfläche kosten wird, was den zweiten Sinn der E-Cores weiter eingrenzt.
das ist einfach der ganz normale Lauf der Dinge: willst du IPC musst du die CPU breiter machen, brauchst mehr Transistoren. Hast du einen neuen Prozess - gut, hast du keinen - schlecht, weil dann steigt vielleicht auch der Verbrauch.
Um so beeindruckender wenn AMD es schaffen sollte 15% zuzulegen und den Verbrauch gleich zu halten.

Ich wage mal zu behaupten, dass Intel weg von den E-Cores gehen wird und ggfls. hin zu C-Cores ala AMD wechselt? Wieso zwei Archs weiterentwickeln, wenn man die Hauptarchitketur besser machen kann?
Intel hat immer mehrere Architekturen parallel entwickelt und im Moment wird man am aktuellen Ansatz festhalten, gerade wo man ja auch die E-Cores aufgebohrt hat und die auf dem IPC Wert von vorigen P Cores rauskommt
Das wichtigste für Intel wird aber sein, auf MCM zu wechseln,
Das ist pauschal eine schwierige Aussage: Erstens ist Intel längst MCM. Und: MCM hat Vor- und Nachteile. Würde Intel das wirklich als so vorteilhaft sehen, würde man das schon längst anbieten. Cache extra oder Cores extra hat man schon lange (seit den 90ern oder seit Broadwell-C, Cores extra als "glued together" Core 2 Quad). Man hat aber auch schon seit 10 Jahren oder länger EMIB, Foveros und Co in Entwicklung und in Produkten, aber es ist manchmal tatsächlich kostengünstiger und besser einen Monolithen zu fertigen.
AMDs aktueller Idle-Verbrauch zeigt es, dass deren Ansatz (der sich mit Zen 6 angeblich ändern wird und zwar in Richtung Intels Version) ändern muss
aktuell sind wir mit 16 Kernen im Desktop gut bedient, aber auch das wird sich ändern und AMD kann mir nichts dir nichts auf 32, 64, 96, 128 Kerne "upgraden" durch das MCM Design.
Ja, die Flexibilität war immer ein Vorteil. MCM hat aber gerade in den Bereichen wo du 32, 64, 128+ Kerne hast auch einen massiven Nachteil, etwa die Verlustleistung bei der Kommunikation:
Wir testen ja gerne Effizienz unter Last, aber wenn uns Effizienz wichtig ist, muss man sich gerade im Serverbereich auch Verbrauch im Niedriglast-Bereich ansehen. Dort ist AMD eben aktuell ausbaufähig.

Mit Zen6 würde ich mal davon ausgehen, dass 16 Kerne je CCD kommen werden, damit 32 Kerne im Desktop durchaus realistisch werden, Intel kann dann noch mehr E-Cores dagegen werfen, monolithisch wird man aber schnell an die Grenzen stoßen
Zen 6 kommt 2026-2027. Da ist Intel längst bei ausgreiftem 18A, 14A in Einführung. Ein 32 Kerner Monolith ist dann auch kein Problem mehr, aber Intel löst das eh anders (über EMIB, Foveros und Co).
, was man eben auch an dem zu Tode verfeinerten 14nm Prozess ablesen konnte, 10 Kerne und dann ist eigentlich auch Ende im Gelände, für alles was mehr kommen soll, muss die Arch so umfassend geändert werden, dass es für den Desktop keinen Sinn macht.
Im Desktop machen 32 Kerne eh keinen Sinn im Moment und für anderes/Server hatte man eh mehr Kerne, auch in 14nm.
Dazu hat Intel meines Wissens nach mit mehr Kernen auch im Server massive Probleme und die Cacheanbindung ist alles andere als optimal, schneller als AMD, aber extrem aufwändig.
Bin ich ehrlich gesagt nicht im Bilde, Intel ist im Server in vielen Bereichen klar hinten ran, und hat auch gerade zu peinliche Probleme die benötigte Vorwärtsentwicklung stabil hinzukriegen:
Intel muss jetzt liefern, nicht mit 18A,nicht mit 10A oder sonstwas. Wenn 20A nicht überzeugt, ist bigLITTLE in meinen Augen nicht zu halten
Das eine ist ein Prozess, das eine ist eine Philosophie der Architektur. Das darfst du nicht durcheinanderwerfen.
BigLITTLE wird in irgendeiner Form bleiben
, auch wenn es für die nächsten drei oder vier Gens sicher noch bleiben wird, weil es einfach schon in Entwicklung ist.
ja und es wird auch von AMD immer mehr verfolgt. Warum sollte es weggehen, es hat konzeptionelle Vorteile, braucht halt noch Entwicklung.
Auch Apple geht nicht weg davon.
 
Zuletzt bearbeitet:
Zurück