Alder Lake & Sapphire Rapids: Intel sieht AMDs Erfolgszeit am Ende

Du erzählst einen Schwachsinn wie erim Buche steht, mehr als 70 Standorte in 10 Ländern stehen bei Intel auf der Liste und sie wollen mind. 40% ihrer Investition vom Steuerzahler.
Das ändert ja nichts an seiner grundlegenden Aussage: Intel investiert in neue Fabs. Und wenn 40% vom Steuerzahler kommen, dann kommen 60% von Intel. Das sind schon ein paar Milliarden, und so ein Vorgehen ist bei allen größeren Industrien gang und gäbe.

Intel hat mit seinen eigenen Fabs immer einen Vorteil was Liefermengen und Marge angeht. Fabless ist abhängig von Prozessen (siehe Ampere mit Samsung 8nm vs RDNA2 mit TSMC 7nm, oder Intels lange 14(+++) Zeit vs AMD auf TSMC 7nm), und Kontingenten die man teuer bezahlen (und erst mal bekommen) muss.


Darüber hinaus hat AMD längst in Dresden schon vor langer Zeit eine Chipfabrik gebaut, die immer noch in Betrieb ist, eben nur jetzt unter anderem Namen.
Lol das Geschäftsmodell haben auch Apple, ARM, Nvidia etc., die Innovation ist das CPU Design!
Die Globalfoundries Anteile die AMD hatte wurden vor fast 10 Jahren verkauft:

https://de.wikipedia.org/wiki/Globalfoundries
Im März 2012 zog sich AMD als Anteilseigner komplett zurück, seitdem liegen alle Anteile bei ATIC.

Desweiteren zieht AMD auch immer weiter Kontingente von Globalfoundries ab, quasi bei jeder Vertragsverhandlung, siehe hier: https://www.pcgameshardware.de/CPU-...neues-letztes-Wafer-Supply-Agreement-1372169/

AMD und Globalfoundries haben ein weiteres Abkommen über die Abnahme von Wafern geschlossen, das die beiden Unternehmen weiter voneinander löst. Bis 2024 soll AMD rund 1,6 Milliarden US-Dollar an Globalfoundries zahlen und dafür entsprechende Wafer erhalten. Der langjährige Exklusivitätsanspruch von Globalfoundries ist durch das Abkommen dafür endlich hinfällig. Die Zusammenarbeit von AMD und Globalfoundries war nicht immer einfach. Die vor zwölf Jahren als Ausgliederung von AMD entstandene Foundry sollte eigentlich weiterhin der Hauptlieferant für AMD-Produkte bleiben, doch das Unternehmen hatte immer wieder mit Prozessproblemen zu kämpfen, für die schließlich AMD zur Kasse gebeten wurde.

AMD hatte mit Globalfoundries dieselben Prozess-Probleme die Intel in ihren eigenen Fabs hatte. AMD hat daraufhin auf TSMC geschwenkt, und Intel hat seine Prozesse nun endlich (so scheint es) in den Griff bekommen.
 
Dazu muß man dann natürlich auch das richtige Nutzungsszenario haben. Ich persönlich treibe die Auslagerungsdatei auch schonmal Richtung 160GB (ja, ich bin ein RAM Junkie). Da wird das ganze dann doch recht langsam, auch mit einer (SATA) SSD. Eine PCIe SSD dürfte da ihre Vorteile ausspielen, je schneller, umso besser.

Die Frage ist, ob es das wert ist, gegenüber PCIe 4.0 viel Geld auszugeben, da würde ich eher nein sagen. Aber eine nette Funktion, die man mitnehmen kann, ist es allemal.
Wenn deine Sig aktuell ist, dann ist dir, der davon ja vllt profitieren könnte, das nicht wert. Für dich wäre dann schon ein Upgrade von SATA auf PCIE3.0 SSD ein deutlich spürbarer Quantensprung. Alles danach ist nur noch Evolution und keine Revolution.
 
Wenn deine Sig aktuell ist, dann ist dir, der davon ja vllt profitieren könnte, das nicht wert. Für dich wäre dann schon ein Upgrade von SATA auf PCIE3.0 SSD ein deutlich spürbarer Quantensprung. Alles danach ist nur noch Evolution und keine Revolution.

Je mehr umso besser. Der Unterschied um das 20-30 fache wird spürbarer sein, als das 5-7 fache. Von daher ist das eine tolle Sache, aber ich würde dafür nicht sonderlich viel mehr ausgeben. So wie bei meinem Board damals PCIe 3.0, da hat sogar noch PCIe 1.0 ausgereicht. Mittlerweile ist PCIe 3.0 doch ganz gut, besonders wenn ich beim AMD Drop gewinnen sollte, drück mir die Daumen.
 
Kommen wir mal wieder zum Kern des Ganzen: Intels Marketing :what:

Kaum ist Windows 11 verfügbar, schießt Intel gegen Apple - besser schlechte Werbung als keine Werbung, war wohl die Maxime dahinter.

Die gute alte Wintel-Allianz, es gibt sie immer noch: In einem Werbevideo will Intel aufzeigen, was Laptops mit den eigenen Prozessoren und Windows 11 besser machen als aktuelle Apple-Geräte. Das Resultat ist zum Fremdschämen - genauer "the most cringy one", wie in den Youtube-Kommentaren zu lesen ist.
 
Wundert dich das wirklich?
Ich meine Intel will ja auch allen IT Menschen klar machen, welche Benchmarks wichtig sind und welche eher nicht, natürlich immer abhängig von der "aktuellen" Lage ihrer Prozessoren.
Oder die Werbevorstellung zur Einführung von Tiger Lake, wie oft kam da AMD in der Vorstellung vor 100mal?
Marketingtechnisch kann den Verein doch wirklich kein normal denkender Mensch seit vielen Jahren ernst nehmen!
Seit geraumer Zeit sucht man bei Intel danach absolut keinen Fettnapf auf diesemGebiet auszulassen.
 
Zweiter Teil, ich hatte den Eindruck, dass du versucht hast, Intels "HighEnd" mit AMDs Consumer Produkten zu vergleichen, ein EE, ein HEDT mit einem normalen Consumer zu vergleichen macht für mich keinen Sinn. Wenn das nicht dein Ziel, war sorry, falsch verstanden.

Mein Ziel war es, die von beiden Herstellern zur Serienreife entwickelten Technologien zu vergleichen, ohne auf derartige Marketing-Kategorien Rücksicht zu nehmen. Die werden nämlich alle naslang nach Lust und Laune umdefiniert. Man erinnere sich nur daran, wie lange AMD die AM3-FX als "High End" geführt hat, obwohl sie dass schon zum Launch kaum waren oder dass Intel Kaby Lake X oberhalb von "High End" einsortierte. Gallatin zum Beispiel zählte seinerseits als "Enthusiast", wurde sogar als erste CPU überhaupt mit dieser Bezeichnung, war aber nach heutigem Verständnis nicht "HEDT". Es gab keinen anderen RAM, keine erweiterten Schnittstellen, nichts. Die Marktposition war die eines besonders teuren Prozessors mit etwas "Server"-Technologie in der normalen Mainstream-Plattform – vergleichbar mit den heutigen Ryzen 9. Eigentlich sogar noch etwas näher am Mainstream, denn während vier bis acht zusätzliche Kerne gegenüber Ryzen 7 in vielen Mainstream-Einsatzgebieten immer noch gar keinen Nutzen bringen und Ryzen 9 somit als "Special Interest" abstempeln, brachte der zusätzliche Cache der EE immer etwas. (Wenn auch manchmal nur sehr wenig.)
Technisch unterschieden sich P4 und P4EE genauso stark oder schwach voneinander, wie es AMDs erwartete Ryzen mit V-Cache von solchen ohne tun werden. Das war mein Bezugspunkt.

Dritter Absatz, hier habe ich nicht versucht dir zu widersprechen. ALD wird ein gutes Produkt, für mich bleiben zwei große Ungewissheiten / Probleme, erstens, was macht der Energieverbrauch, zweitens, was kostet die Plattform. Technisch betrachtet glaube ich an ein gutes Produkt, das sich aber eben nicht wird absetzen können, wie es Zen2 / Zen3 in vielen Bereichen konnte. Ich sehe das Ganze wirklich etwas anders, denn technisch machbar sind in meinen Augen bereits jetzt ganz andere Konstrukte, AMD hätte bspw. auch mit Zen3 schon DDR5 machen können, was ein erhebliches Leistungsplus gebracht hätte (in normalen Benches unter Stockwerten), man könnte immer mehr Cache verbauen usw. Bedeutet für mich, man könnte noch schneller, würde aber noch wesentlich teurer werden und daher halte ich die Berücksichtigung P/L zur Technik für absolut relevant.
(Beispiel, die Autobauer könnten ja recht problemlos noch größere Akkus in die Autos bauen um die Reichweite weiter zu erhöhen, kaufen tut es dann trotzdem keiner, weil es keiner mehr bezahlen kann)

Nicht alles, was hinkt, ist ein Vergleich. :-)
Bei den Autobauern hast du recht, denn Batterien lassen sich einfach zusätzlich einbauen (solange die Zuladung reicht, aber außer dem E-Vito ist noch niemand der 3,5-Tonnen-Grenze) und sie bringen immer 1:1 mehr Reichweite. Aber DDR5 kann man nur machen, wenn man einen DDR5-Controller zu Serienreife entwickelt hat. Mehr Cache kann ohne zusätzliche Entwicklungsarbeit zu höheren Latenzen führen (größere Caches), eine komplette zusätzliche Verwaltungsebene erfordern (zusätzlicher L4) oder den maximal möglichen Takt begrenzen. Alle drei Punkte kosten nicht nur, sondern können am Ende sogar für einen Leistungsverlust sorgen. Auf der anderen Seite steigen die Fertigungskosten exponentiell mit der Chipgröße und dem Packagingaufwand.

Grundsätzlich aber hast du trotzdem Recht: Natürlich drückt sich der Stand der technischen Entwicklung eher in Leistung/Kosten denn in absoluter Leistung aus. Das wird ja gerade bei zusammengesetzten Chips und Systemen deutlich: Natürlich ist ein System mit acht aktiven Chips (seien es nun 8 Zeppelin in zwei Zen-1-Eypcs oder 8 Skylake-SP in 8 Xeon Platinum) schneller als mit einem. Die Entwicklungsleistung gegenüber einem Einzelchip besteht aber nur im Interconnect. Genauso wie ein 32-Kerner, der schneller als ein 24-Kerner, kein besseres Kern-Design, sondern nur ein bessere Fabric signalisiert.
ABER: "Kosten" beziffert in dem Fall die Herstellungskosten, die man oft nur schätzen kann. Für Gallatin vs. Clawhammer habe ich das ja schon angedeutet. Keinesfalls verwechseln darf man es mit dem Endkundenpreis, denn der besteht aus Herstellungskosten + Entwicklungskosten + Vertriebskosten + Gewinn. Und gerade bezüglich letzterem gibt es von AMD zu Intel "große" Unterschiede. Aber es wäre auch nicht zielführend, dem Endprodukt einer aufwendigen, erfolgreichen Entwicklung seine technischen Qualitäten abzusprechen, nur weil sein Verkaufspreis eine aufwendige Entwicklung widerspiegelt.
 
Mein Ziel war es, die von beiden Herstellern zur Serienreife entwickelten Technologien zu vergleichen, ohne auf derartige Marketing-Kategorien Rücksicht zu nehmen.

Aber es wäre auch nicht zielführend, dem Endprodukt einer aufwendigen, erfolgreichen Entwicklung seine technischen Qualitäten abzusprechen, nur weil sein Verkaufspreis eine aufwendige Entwicklung widerspiegelt.

Dann kann ich dir zustimmen, glaube allerdings, dass dieser Punkt eigentlich von niemandem hier sonst berücksichtigt wird. Beispiel AVX512 wo Intel derzeit die Nase vorne hat, im Gegenzug sehen wir bei AMD bspw. deutlich bessere Skalierbarkeit. Genauso kann man bspw. die Infinity Fabric mit Intels Mesh vergleichen, aber die Frage wie kann man etwas vergleichen, was grundverschieden ist und wo Vor und Nachteile in unterschiedlichen Bereichen auftreten?
Ich hoffe du verstehst worauf ich hinaus will, die Technologie ist manchmal nicht zielführend, auch wenn sie technisch überlegen ist.

Wie bestimme ich, oder du nun die technische Qualität?
Kann ich diese an der Fertigung festmachen? Kann ich diese an der Geschwindigkeit festmachen, am Vebrauch, an der Effizienz usw. und sofort? Ich sehe hier einen gewaltigen MischMasch den irgendwie jeder etwas anders definiert, meine Definition beinhaltet neben der Geschwindigkeit insbesondere den Preis. Die Leistungsaufnahme kommt an Dritter Stelle, da meine Rechner neunmal selten lange laufen.
Wenn ich Alder Lake in den aktuellen Gerüchten betrachte, ist dies minimal schneller, deutlich teurer (Dank Plattformkosten massiv) und ein Hitzkopf scheint er auch zu sein. Insofern darf man wohl bezweifeln, dass Alder Lake der ganz große Wurf ist, man hat Rückstand aufgeholt und ich attestieren auch kein schlechtes Produkt, nur ein für mich irrelevantes Produkt.

Nur um das nochmal klar zu stellen. Diese Meinung beruht zu 100% auf den aktuellen Gerüchten und ist nicht in Stein gemeißelt. Wenn ein 12900k inkl. Plattform und RAM nun statt der vermuteten 250-350 € teurer nur 100€ teurer wird, der Verbrauch unter Normallast akzeptabel ist, kann es eine richtig interessante CPU werden. Aber es ist nicht der Gegenschlag den Intel hier weiß machen will, vor allem nicht wenn der VCache wirklich 15% bringt.
 
Weil hier der mögliche RAM Vorteil zur Sprache kam: Da ADL ja sowohl mit DDR4 als auch DDR5 lauffähig sein soll, könnte man das ja relativ gut vergleichen... selbe CPU, zB 12900k einmal mit DDR4 und einmal mit DDR5 - ggf die Timings & Takt annähern, so dass beide um die 4000MHz laufen und dann sieht man wieviel DDR5 als technologie beiträgt
 
Fakt ist Intel ist nicht wie Amd , auf den Erfolg des Auftragsfertigers TSCM angewiesen .

Intel baut eigene Chipfabriken , wohl auch in Deutschland sehr Inovativ :D
Sehr grosser Vorteil :daumen:

Amd hat keine eigenen Chip Fabs !

Globalfoundries gehört nicht zu Amd und selbst wenn könnten sie aktuell weder Intel noch TSCM das Wasser reichen :schief:

Amd verlässt sich in der Zukunft nur auf TSCM und das zahlose zusammenkleben von Kernen , mal sehen wie das Enden wird .........
 
Dazu muß man dann natürlich auch das richtige Nutzungsszenario haben. Ich persönlich treibe die Auslagerungsdatei auch schonmal Richtung 160GB (ja, ich bin ein RAM Junkie). Da wird das ganze dann doch recht langsam, auch mit einer (SATA) SSD. Eine PCIe SSD dürfte da ihre Vorteile ausspielen, je schneller, umso besser.
1.) Von Gigabyte gibt es doch eine PCIe 4.0 x16 Karte die sollte deinen Ansprüchen hinsichtlich Transferraten doch mehr als genügen. Ansonsten halt eine 980pro von Samsung, die mit PCie 4.0 x4 und über 6.000MB/s glänzen kann.

2.) Glaube aber persönlich, dass für dich fast eher der Optane Speicher was wäre, als RAM Ersatz wird dieser zumindest angepriesen und ich meine im Bereich der Zugriffszeiten wackeln da die Rekorde deutlich.

Weil hier der mögliche RAM Vorteil zur Sprache kam: Da ADL ja sowohl mit DDR4 als auch DDR5 lauffähig sein soll, könnte man das ja relativ gut vergleichen... selbe CPU, zB 12900k einmal mit DDR4 und einmal mit DDR5 - ggf die Timings & Takt annähern, so dass beide um die 4000MHz laufen und dann sieht man wieviel DDR5 als technologie beiträgt
Weiß nicht ob das so funktioniert?

Was der RAM ausmacht kann man am besten prüfen indem man ein Sample unter DDR4 Specs laufen lässt, denke hier wird Intel 3200Mhz anpeilen und eines mit DDR5 4800. Dann sieht man wirklich wie viel der Speicher an Leistung ausmachen wird.

Technisch glaube ich, dass es keine Unterschiede macht, daher würde ich behaupten, dass ein rein technologischer Vorsprung nicht vorhanden sein wird, also wenn man mit gleicher Geschwindigkeit und gleicher Latenzy und Subtimings testet. Außer natürlich bei AL ist es so wie bei den aktuellen Cores, dass da Unterschiede herrschen, bspw. Gear 1 nur mit DDR4 3200, darüber dann Gear 2 und bei DDR5 Gear bis 4800. Dann müsste man hier ebenfalls gleichziehen und den DDR5 auf 3200 takten.
Fakt ist Intel ist nicht wie Amd , auf den Erfolg des Auftragsfertigers TSCM angewiesen .

Intel baut eigene Chipfabriken , wohl auch in Deutschland sehr Inovativ :D
Sehr grosser Vorteil :daumen:

Amd hat keine eigenen Chip Fabs !

Globalfoundries gehört nicht zu Amd und selbst wenn könnten sie aktuell weder Intel noch TSCM das Wasser reichen :schief:

Amd verlässt sich in der Zukunft nur auf TSCM und das zahlose zusammenkleben von Kernen , mal sehen wie das Enden wird .........
1.) AMD ist nicht Intel, fein erkannt
2.) Intel hat eine eigene Fertigung, auch richtig erkannt. AMD nicht. Kann Fluch und Segen zu gleich sein, in der jüngeren Vergangenheit war es aber so, dass AMD durch die eigenen GF Fabriken (die haben mal zu AMD gehört) eher im Nachteil war, da man in dem Gebiet nicht mit Intel mithalten konnte. Immer wenn man im gleichen Fertigungsverfahren wie Intel war, war man gar nicht so weit weg, man hat halt lange Zeit immer hinten dran gehangen. Die AMD Chips vor Ryzen wurden bis zuletzt im 28nm Verfahren produziert, Intel hatte bereits mit Haswell (2013) auf 22nm umgestellt und mit Broadwell (2014) auf 14nm. AMD baute bis 2016 noch mit 28nm, die Konkurenz zu Haswell stand meines Wissens nach Bulldozer in 32nm, Broadwell stand dann gegen 28nm Fertigung auf Seiten AMD.
Erst in 2017 konnte man in den Farbiken bei GF dann 14nm für CPUs nutzen, mit dem Umstieg auf TSMC konnte man in 2019 bereits auf 7nm switchen. GF ist derzeit wohl immer noch bei 12nm, während TSMC aktuell bei 5nm liegt. Daher sehe ich es hier nicht einmal als Nachteil, technologisch betrachtet, preislich eine andere Geschichte.
3.)GF hat auch Fabriken in Deutschland!
4.)Intel hat gelernt und verlässt sich nicht mehr auf die eigene Fertigung, sondern bucht auch für CPUs Kontingente bei TSMC, insofern ersteinmal ein Vorteil, aber AMD kann jederzeit bei GF buchen, oder eben auch bei Samsung. Nur warum sollte man dies tun, TSMC ist aktuell der fortschrittlichste Prozess und daran scheint selbst Intel nichts ändern zu können.
5.) Wahlloses Zusammenkleben nennst du AMDs Technik? Ich weiß ja nicht welcher Hersteller zuletzt geklebt hat, aber ich denke mich ziemlich genau daran erinnern zu können, dass dies Intel war, die geklebt haben! AMDs Chips sind so konstruiert und eben modular gebaut, dass da nichts geklebt werden muss!
 
Zuletzt bearbeitet:
Wie bestimme ich, oder du nun die technische Qualität?

Komplexe Variante: Man diskutiert verschiedene Sichtweisen aus. Wie du korrekt feststellst, müssen nämlich recht unterschiedliche Stoßrichtungen gegeneinander abgewogen werden und da gibt es mehr oder weniger gute Argumente, was wie wichtig ist.
Einfach Variante: Ich Red, du Leser. :-P

Den Endkundenpreis kann man aber, wie beschrieben, aus ganz objektiven Gründen aus einer Diskussion über Technik heraushalten: Er enthält u.a. die Gewinnspanne. Und Nettogewinn, Aktienrendite, etc. sind keine technischen Eigenschaften mehr, sondern auszuklammern.

Kann ich diese an der Fertigung festmachen? Kann ich diese an der Geschwindigkeit festmachen, am Vebrauch, an der Effizienz usw. und sofort? Ich sehe hier einen gewaltigen MischMasch den irgendwie jeder etwas anders definiert, meine Definition beinhaltet neben der Geschwindigkeit insbesondere den Preis. Die Leistungsaufnahme kommt an Dritter Stelle, da meine Rechner neunmal selten lange laufen.
Wenn ich Alder Lake in den aktuellen Gerüchten betrachte, ist dies minimal schneller, deutlich teurer (Dank Plattformkosten massiv) und ein Hitzkopf scheint er auch zu sein. Insofern darf man wohl bezweifeln, dass Alder Lake der ganz große Wurf ist, man hat Rückstand aufgeholt und ich attestieren auch kein schlechtes Produkt, nur ein für mich irrelevantes Produkt.

Nur um das nochmal klar zu stellen. Diese Meinung beruht zu 100% auf den aktuellen Gerüchten und ist nicht in Stein gemeißelt. Wenn ein 12900k inkl. Plattform und RAM nun statt der vermuteten 250-350 € teurer nur 100€ teurer wird, der Verbrauch unter Normallast akzeptabel ist, kann es eine richtig interessante CPU werden. Aber es ist nicht der Gegenschlag den Intel hier weiß machen will, vor allem nicht wenn der VCache wirklich 15% bringt.

Beim Energieverbrauch gebe ich immer sehr wenig auf Gerüchte. Zu viele Tester und darunter auch nicht wenige Leaker kümmern sich ausschließlich um die Maximalleistung und wir haben bei Intel in der Vergangenheit sehr oft gesehen, dass bei sauber eingestellten PL1 >90 Prozent, in Spielen sogar über 95 Prozent dieser Maximalleistung bei der Hälfte des Verbrauchs erreicht werden. Ob das bei Alder Lake auch so ist, werden wir vermutlich erst von Dave erfahren – ebenso wie die Praxis-Leistung mit oder ohne DDR5-Bonus.

Bislang halte ich Intels Enthusiasmus für technisch gerechtfertigt: Alder Lake wird nicht viel größer als Comet Lake sein, die eigentlichen Rechenkerne sogar exakt gleich groß, er tritt also vom Fertigungsaufwand her in der Zehnkernerklasse an und hat zudem ein simples Single-Chip-Package. Das heißt rein von seiner Technik her stößt er zwischen 5800X und 5900X. Ein "5800XT" mit V-Cache könnte in der Herstellerung bereits teurer sein. Selbst wenn die Praxis-Leistung deutlich hinter dem zurückbleibt, was Cinebench-Leaks zurück bleibt (weiß man bei einer neuen Architektur erst hinterher) und wenn AMD die +15 Prozent in der Praxis umsetzen kann, sollte es eigentlich für einen Intel-Sieg in diesem Duell langen. Ich persönlich erwarte, solange der Win-11-Scheduler nicht schlapp macht, im Schnitt wenigstens 5900X-Leistung mit klarem Vorteil (=> XT-Niveau) in Spielen durch den Single-Core-Focus. Das wäre für einen Chip dieser Größe eine Leistung, auf die Intel Stolz sein kann.

Ob Intel diesen technischen Vorsprung dann nutzt, um zu alter Marktmacht zurückzukehren/AMD einen Conter wie seinerzeit mit Core 2 zu verpassen oder ob Intel zu alten Gewinnmargen zurückkehrt und den mutmaßlichen 5900X(T)-Konkurrenten zum 5950X-Preis anbietet, dass steht auf einem ganz anderen Blatt. Ich würde ersteres für sinnvoller halten, aber erste Leaks sprechen für letzteres und Intel lässt seit Jahren jede auch nur denkbare Möglichkeit links liegen, die Geld in Martkanteile umwandeln könnte. Also wird es wahrscheinlich wieder auf die alte Standardsituation hinauslaufen: Intel hat bessere Chips als AMD im Portfolio. Aber wenn man mit einem reicht-für-das-beste-von-AMD-Budget zu Intel geht, bekommt man nur mittelmäßige Reste.


1.) Von Gigabyte gibt es doch eine PCIe 4.0 x16 Karte die sollte deinen Ansprüchen hinsichtlich Transferraten doch mehr als genügen. Ansonsten halt eine 980pro von Samsung, die mit PCie 4.0 x4 und über 6.000MB/s glänzen kann.

2.) Glaube aber persönlich, dass für dich fast eher der Optane Speicher was wäre, als RAM Ersatz wird dieser zumindest angepriesen und ich meine im Bereich der Zugriffszeiten wackeln da die Rekorde deutlich.

Bei 160 GB Auslastung sollte man sich die Zugriffsmuster angucken. Wenn es tatsächlich RAM-Ersatz mit vielen kleinen Zugriffen ist, dann kommt nichts auch nur in die Nähe von Optane. Wenn es eher um ein schnelles Streaming-Laufwerk geht (wovon ich ausehe, denn oft resultieren solche Daten aus Video-Konvertierungen), dann ist hoher Durchsatz oft mehr wert. Natürlich könnte die neue Optane-Generation auch beides, aber als Privatnutzer ist man dann irgendwo an dem Punkt, wo man billiger wegkommt, wenn man das ganze Projekt bei einem Profi in Auftrag gibt.


P.S. x86-Kleberei:
(0. Pentium Pro)
1. Pentium D
2. Core 2 Quad <= erstmalig Vorwurf "unecht"
3. Opteron G34
4. Lynnfield
5. Epyc/Threadripper <= zweites Mal Vorwurf "geklebt"
6. Ryzen (ab 3000)
7. Cascade Lake AP (vereinzelt Vorwurf "geklebt")
8. Sapphire Rapids (+Ponte Vecchio. Wobei man den schon als "Mosaik" zählen muss)

Merke: Macht jeder, wann und wie es ihm gerade passt. Mit dem Finger wird aber nur drauf gezeigt, wenn die Gegenseite keine vergleichbaren Eigenschaften hinbekommt.
 
Zuletzt bearbeitet:
Einfach Variante: Ich Red, du Leser. :-P
Frechheit!
Aber eigentlich müsste das ja dann auch heißen,

du Wirt ich Gast und der Gast hat immer Recht :P

Den Endkundenpreis kann man aber, wie beschrieben, aus ganz objektiven Gründen aus einer Diskussion über Technik heraushalten: Er enthält u.a. die Gewinnspanne. Und Nettogewinn, Aktienrendite, etc. sind keine technischen Eigenschaften mehr, sondern auszuklammern.
Da hab ich wie schon geschrieben eine andere Sichtweise, denn man kann in gewissen Bahnen auch bei CPUs das ganze beeinflussen. AMD könnte ja theoretisch auch einen 64 Kerner in den Endkundenmarkt bringen, wenn der dann mit Alder Lake verglichen wird? Zappenduster!

Die "echte" Sichtweise, kann ich und auch der Redakteur eines Fachmagazins nicht beurteilen, zu verschieden sind die Herangehensweisen. Vieleicht kann TSMC mit AMDs Umsetzung besser umgehen als sie dies mit Intels Umsetzung könnten (Thema Yield). Das bedeutet die Herstellungskosten sind für mich in diesem Bereich schlicht und einfach nicht zu schätzen. Vor allem, was rechnet man mit herein? Entwicklung und Forschung gehörten ja dann auch dazu und dann wird Alder Lake eine katastrophale Bilanz aufweisen, kurze Lebensdauer (1 Jahr), die 10nm Fertigung hat jetzt 4 Jahre Entwicklung zusätzlich gekostet, in diesem Sinne wäre Alder Lake eine Katastrophe, wofür der Chip aber nichts kann.
Die Chipfläche kann man auch nicht hernehmen, weil es solche und solche Flächen gibt. Simpel belichtete Flächen haben nahezu keinen Ausschuss, hochdichte Flächen viel viel eher. Intels Chip ist meines Wissens nach bspw. dichter gepackt, daher vieleicht eine schlechtere Yield, einzig erfahren werden wir es nie. Oder es läuft wieder ganz schlecht und es gibt gar keine Chips.
Denke aber, dass du verstehst was ich meine.

Es gibt soviele Wege und Unwägbarkeiten die bei einer so technisch globalen Bewertung, wie du sie ansprichst, zu bewerten sind, dass weder du noch ich dies in geeigneter Weise sehen können. Daher bleibt für mich der Ansatz den Endkundenpreis, wenn auch die Gewinnspannen unterschiedlich sind, mit in der Bewertung zu berücksichtigen. Deine Sichtweise kann ich nachvollziehen, finde aber wirklich erhebliche Logikfehler. Du bewertest den Chip, die Größe und so weiter. Es gehören aber eben zu dieser Sichtweise auch Fertigungskosten, die lässt TSMC sich eben von AMD bezahlen, während Intel diese selber trägt. Die Posse um 10nm kennen wir alle.

islang halte ich Intels Enthusiasmus für technisch gerechtfertigt: Alder Lake wird nicht viel größer als Comet Lake sein, die eigentlichen Rechenkerne sogar exakt gleich groß, er tritt also vom Fertigungsaufwand her in der Zehnkernerklasse an und hat zudem ein simples Single-Chip-Package. Das heißt rein von seiner Technik her stößt er zwischen 5800X und 5900X. Ein "5800XT" mit V-Cache könnte in der Herstellerung bereits teurer sein. Selbst wenn die Praxis-Leistung deutlich hinter dem zurückbleibt, was Cinebench-Leaks zurück bleibt (weiß man bei einer neuen Architektur erst hinterher) und wenn AMD die +15 Prozent in der Praxis umsetzen kann, sollte es eigentlich für einen Intel-Sieg in diesem Duell langen. Ich persönlich erwarte, solange der Win-11-Scheduler nicht schlapp macht, im Schnitt wenigstens 5900X-Leistung mit klarem Vorteil (=> XT-Niveau) in Spielen durch den Single-Core-Focus. Das wäre für einen Chip dieser Größe eine Leistung, auf die Intel Stolz sein kann.
Finde deine Aussage hier bedenklich.

1.) Comet Lake war 14nm Technik, Alder Lake 10nm Technik. Dass man ungefähr die gleiche Größe hat ist daher ein extrem schlechtes Zeichen, bedeutet es doch, dass Alder Lake um ein vielfaches teurer ist in der Herstellung als Comet Lake!
2.) Fertigungsaufwand?
Siehe oben, was siehst du als Fertigungsaufwand?
Du musst Forschung und Entwicklung mit reinrechnen, schließlich bezahlt AMD das teuer bei TSMC (zumindest die Teile die auf die Fertigung entfallen). Einfaches Beispiel, Intels Alder Lake wird nur ca. 1 Jahr laufen, hierfür mussten Masken hergestellt werden usw. und sofort. Zen 3 läuft dann aber fast zwei volle Jahre, die Forschung/Entwicklung wird sich daher auf eine viel größere Anzahl Chips berufen können. Sehe daher betriebswirtschaftlich keine Chance für Alder Lake gegen Zen3 bestehen zu können!
3.) Wenn AMD 15% draufpackt und die Intels hinter den Leaks zurückbleiben, wie genau soll Intel dann vorne liegen? Die aktuellen Leaks sprechen im CB23 MC von 1,83% Vorsprung des 12900k. Wie genau soll ich deine Rechnung verstehen?
Vor allem da du selber sagst, wie das alles so mit neuen Architekturen funktioniert, weiß man ja nicht. Daher gehst du ja scheinbar nicht automatisch davon aus, dass die hohe CB Wertung (SC) auch in Spielen voll durchschlägt. Ich gehe davon aus, dass es rein fürs Gaming keine besseren CPUs geben wird.



Um es nochmal kurz zusammenzufassen, Alder Lake wird mit ziemlicher Sicherheit, die IPC deutlich steigern, was ihnen weiter Vorsprung im SC schaffen wird. Sofern AMD mit 15% Leistungssteigerung kontern wird, sehe ich im SC an sich keine großen Verschiebungen, Intel weiter knapp vor AMD. Im MC wird Intel deutlich näher heranrücken, derzeit haben sie nichts gegen 12 AMD Kerne in der Hand, in Zukunft werden sie nahe dem 16 Kerner liegen (auch wenn den ja niemand braucht, dies wird sich hier im Forum vermutlich mit erscheinen von AL schlagartig ändern). Technisch betrachtet hat Intel einen großen Schritt gemacht, ob dieser Schritt zielführend war, wird erst die Zeit zeigen. Ich sehe in Zen3+ (vermutlich) und AL erstmal relativ gleichwertige Produkte, die Preise werden den Ausschlag geben. Hier sehe ich dank der vermutlich viel günstigeren Plattform AMD deutlich vorne, alleine die Plattformkosten werden dies nicht anders möglich machen. DDR5 32GB akuell über 300 EUR, DDR4 32GB (guter!) aktuell 110 EUR, mit DDR4 (da bin ich mir auch sicher) wird Intel allerdings deutlich Leistung verlieren, 3200er gegen 4800er, gut und gerne 15%.


P.S.
Ich merke gerade, lästig zu werden :-)
Meine das aber hier nicht provokativ, sondern erfreue mich einfach dem Austausch über Meinungen, die in meinen Augen gerne in "Streitgesprächen" enden sollen. Wenn immer alle einer Meinung sind, kommen wir in unserer eigenen Sichtweise ja nicht weiter.
 
Frechheit!
Aber eigentlich müsste das ja dann auch heißen,

du Wirt ich Gast und der Gast hat immer Recht :P

In Deutschland doch nicht. :-D


1.) Comet Lake war 14nm Technik, Alder Lake 10nm Technik. Dass man ungefähr die gleiche Größe hat ist daher ein extrem schlechtes Zeichen, bedeutet es doch, dass Alder Lake um ein vielfaches teurer ist in der Herstellung als Comet Lake!
2.) Fertigungsaufwand?
Siehe oben, was siehst du als Fertigungsaufwand?
Du musst Forschung und Entwicklung mit reinrechnen, schließlich bezahlt AMD das teuer bei TSMC (zumindest die Teile die auf die Fertigung entfallen). Einfaches Beispiel, Intels Alder Lake wird nur ca. 1 Jahr laufen, hierfür mussten Masken hergestellt werden usw. und sofort. Zen 3 läuft dann aber fast zwei volle Jahre, die Forschung/Entwicklung wird sich daher auf eine viel größere Anzahl Chips berufen können. Sehe daher betriebswirtschaftlich keine Chance für Alder Lake gegen Zen3 bestehen zu können!

Die Kosten für Masken sind zwar keine Peanuts, machen aber einen vergleichsweise kleinen Teil der Gesamtkosten aus. Ich weiß ehrlich gesagt nicht einmal, wie lange die Lebensdauer von DUV-Masken ist – bei EUV wurde es lange Zeit als Problem angesehen, dass sie teilweise nur noch einige Wochen unter Produktionsbedingungen überlebt haben. Zumindest ein Teil des Maskensatzes wird ohnehin mit jedem Stepping ausgetauscht, also kaum länger als 6-12 Monate genutzt. Von daher halte ich die Dauer der Nutzung einer Maskenvariante für vernachlässigbar.

Die Fixkosten vor der Produktion sind für mich ebenfalls keine Eigenschaft des Chips selbst. Abgesehen davon, dass vieles über mehrere Generationen genutzt werden kann und so kaum einem Chip zuzuordnen ist (man gucke sich nur die enorme Zahl von 90-nm-Athlon-64-Designs an – die aber größtenteils Copy & Paste mit einigen Detailverbesserungen waren), haben sie schlichtweg nach Abschluss der Entwicklung keinen Einfluss mehr. Ob Intel 5 oder 5.000.000.000 Alder Lake verkauft – die Entwicklungskosten sind gleich. (Und sie umfassen auch bei Intel Gehälter für Leute, die neue Fertigungen entwickeln. Auch wenn man da nicht immer von "verdienen" sprechen möchte. :-)). Was bei Fertigungskosten zählt: Wieviel kostet es zusätzlich, wenn ich zwei statt einem Chip haben möchte? Denn wie du selbst sagst: AMD könnte einfach seine Preise anpassen und schon wäre das angebliche "Enthusiast"-Produkt Threadripper mit 64-Kernen tatsächlich im 999-Euro-Enthusiast-Segment zu haben. Ohne dass sich irgend eine technische Eigenschaft daran geändert hätte – einschließlich eines Bedarfs an Siliziumfläche, aus der man genauso gut vier 3950X hätte machen können. Das ist für mich Fertigungsaufwand und daher die Grundlage für eine Klasseneinteilung von Chips. Ohne diesen Schritt landet man sonst bei Cerebras für große Chips aus monolithischem Silizium respektive bei IBM für Verschaltungen aus mehreren Chips, aber nicht bei dem Kinderkram von AMD und Intel.
Nur: Solche Designs könnte man nie zum Preis eines 5900XT oder 12900K anbieten. Sie spielen ungeachtet der in Endkundenpreisen enthaltenen Marge in einer anderen Klasse.

Nichtsdestotrotz sei noch angemerkt, dass Intel bei den jetzigen Marktanteilen in einem Jahr immer noch doppelt so viele (Desktop-)CPUs verkauft, wie AMD. Selbst wenn man berücksichtigt, dass AMDs High-End-Designs faktisch zwei Chips sind und auch noch in Servern eingesetzt werden, muss AMD die Entwicklungskosten auf eine geringere Zahl verkaufter Einheiten umlegen. An der Stelle ist mein Ansatz also recht AMD-freundlich, falls es dir darum geht. ;-)

3.) Wenn AMD 15% draufpackt und die Intels hinter den Leaks zurückbleiben, wie genau soll Intel dann vorne liegen? Die aktuellen Leaks sprechen im CB23 MC von 1,83% Vorsprung des 12900k. Wie genau soll ich deine Rechnung verstehen?
Vor allem da du selber sagst, wie das alles so mit neuen Architekturen funktioniert, weiß man ja nicht. Daher gehst du ja scheinbar nicht automatisch davon aus, dass die hohe CB Wertung (SC) auch in Spielen voll durchschlägt. Ich gehe davon aus, dass es rein fürs Gaming keine besseren CPUs geben wird.

Meine Rechnung bezog sich auf eine mutmaßliche V-Cache-Version des 5800X, für die ich aufgrund der verwendeten Methoden und Siliziummengen einen ähnlichen Fertigungsaufwand wie für einen ADL vermute. (Außerdem böte sich so ein Chip auch softwareseitig für Vergleiche an, da acht große Kerne gegen acht große stehen, aber ich vermute AMD wird V-Cache nur weiter oben bringen.) Da aktuell von einem minimalen Vorsprung des 12900K vor einem 5950X die Rede ist, sollte es selbst bei einer 10-15 Prozent niedrigeren durchschnittlichen Alltagsleistung noch reichen, um den 5900X zu schlagen. Umgekehrt bleibe ein um 15 Prozent verbesserter 5800X(T) aber immer noch hinter dem 5900X und somit hinter meiner Alder-Lake-Schätzung zurück.

Zur Gaming-Tauglichkeit: Von Konzept her ist Alder Lake genauso stark auf Gaming ausgerichtet, wie Rocket Lake und er setzt auf Technik Jahrgang 2019 statt auf Jahrgang 2014 wir RKL. Da mache ich mir also auch Hoffnungen. Aber nüchtern betrachtet muss ich sagen: Je nach Architektur liegen Cinebench-Ergebnisse irgendwo zwischen "weit weg" und "gar nicht mehr zu sehen" in Relation zur Spieleleistung. Daraus will ich deswegen noch nicht zu viel schlussfolgern und bei Alder Lake bleibt auch noch der Fallstrick mit dem Scheduler. Über den Stromverbrauch wissen wir zudem noch gar nichts belastbares, ebensowenig zur Bedeutung von DDR5 für die bisherigen Ergebnisse oder für Spiele auf der anderen Seite.

Insgesamt ist die Lage noch sehr wage. Aufgrund der Effizienz bestehender Intel-10-nm-Designs und aufgrund der bestehenden Leistung von Rocket Lake, die Intel wohl beide bei einem neuen Produkt wohl wenigstens ein bisschen verbessern wird, bin ich mir nur in zwei Dingen relaiv sicher: Das Teil wird auch innerhalb seines PL1 und damit auf Verbrauchs-Augenhöhe mit den Ryzens schneller sein als ein ähnlich aufwendige 5800X, 11900K oder 10900K und es wird in Spielen schneller sein als ein 5950X, solange keine Scheduling-Bugs auftreten. Ob da jeweils nur 1 Prozent dazwischen liegt oder 10 Prozent oder ob gar eine Gesamtleistung geboten wird, die den Preisen gerecht werden wird – keine Ahnung.

Frag mich in 3 Wochen, aber rechne dann damit, dass ich 2 Wochen lang nicht antworte, wenn die Launch-Termin-Leaks stimmen. :-)



P.S.
Ich merke gerade, lästig zu werden :-)
Meine das aber hier nicht provokativ, sondern erfreue mich einfach dem Austausch über Meinungen, die in meinen Augen gerne in "Streitgesprächen" enden sollen. Wenn immer alle einer Meinung sind, kommen wir in unserer eigenen Sichtweise ja nicht weiter.

Kein Thema. Solange es argumentativ bleibt, kann man aus jedem Streit zumindest lernen. Lästig finde ich es, wenn Argumente ignoriert oder Widersprüche ohne Begründung gegeben werden oder wenn jemand auf irgendwelche Wortklaubereien, Unterstellungen oder ähnliches ausweißt, nur um am Ende seines Posts wiederholt Aussagen zu machen, gegen die eben gerade Argumente vorgebracht wurden. Meine Meinung so einem Verhalten merkt man dann an ausbleibenden Antworten. (Bzw. die betroffenen merken mehrheitlich gar nichts.)

So. Und wer hat jetzt diesen Passiv-CPU-Kühler-Test fertig geschrieben, während ich im Forum durch Austausch gelernt habe?
Damn. Die Antwort hatte ich befürchtet.
 
Zurück