Intels 7-nm-Prozess mit Problemen: CPUs erst frühestens Ende 2022; GPUs potenziell von Dritten

Ich vermute mal der 3700k sollte ein 3700x sein? Wenn ja [...]

Was sonst? Ansonsten hast du jedoch das Thema komplett verfehlt. manimani89 hat hier pauschal von "weltweiten Unterschieden" im Stromverbrauch gesprochen und diese Aussage ist in der Form (völlig allgemein und ohne Rahmenbedingungen) schlicht und einfach unzutreffend und wird umso obskurer, wenn man berücksichtigt, dass die Workloads, die diese Unterschiede am ehesten zum Vorschein bringen, über den gesamten Mainstream-Markt betrachtet, am wenigsten genutzt werden. Daher ja auch meine Anmerkung "die Kirche im Dorf lassen". Und deine versuchte Erklärung mit dem Board ist echt schräg. Einerseits wird PCIe 4 gerne immer als Argument schlechthin herangezogen, aber in diesem Fall darf es kein X570-Board sein, weil das eine Benachteiligung wäre? Fällt dir da was an deiner Argumentation auf? (Zumal es in dem konkreten Fall auch hinfällig ist, da hier ein X470 gegen ein Z390 verglichen wurde.)

"Woher nimmst du die Kenntnis, dass intel günstiger fertigen kann wie TSMC?"
"Jedoch entscheidet dabei nicht immer zwingend nur der Preis ..."
Damit nimmst du dir bereits selbst den Wind aus den Segeln, denn entsprechende anderweitige Vorzüge, wie die völlige Kontrolle über den Fertigungsprozess, eine höhere Flexibilität und Designfreiheiten beispielsweise lassen sich schlussendlich natürlich auch in geldwerten Vorteil umrechnen. Am Ende geht es hier darum die Wertschöpfungskette weitesgehend unter Kontrolle zu haben (insbesondere, wenn hohe Absatzzahlen gesichert sind, da man einen Großteil des Marktes bedient) und das dient immer und ausschließlich direkt oder indirekt dazu, ein besseres EBIT zu generieren.
Und hinzu kommt noch, dass der Großteil der Fertigung immer noch im seit vielen Jahren eingefahrenen und hochgradig optimierten 14nm-Prozess erfolgt und ausgerechnet da soll Intel dann auch noch möglicherweise gar Kosten/Nutzen-technisch schlechter abschneiden als andere Hersteller? Und seit Jahren Geld verschwenden ... und warum? Weil sie nett sind? Weil sie ihre Mitarbeiter aus der Fertigung nicht auf die Straße setzen wollen und nur deswegen noch ihre eigene Fertigung aufrecht erhalten?
Vielleicht solltest du erst mal selber irgendwelche Zahlen beisteuern, die belegen, dass Intel's Fertigung teuer ist, oder dass sie bei TSMC oder Samsung gar noch günstiger fertigen lassen könnten, vielleicht, weil die so nett sind und Intel die Fertigung zum Selbstkostenpreis anbieten würden?
Und darüber hinaus kommt weiterhin hinzu, dass Intels Fertigungsvolumen viel zu hoch ist, als dass sie mal kurzerhand fabless werden könnten, denn selbst TSMC kann deren Volumen nicht so einfach auffangen.
Mit scheint du vermischt hier deinen eigenen Bias mit betriebswirtschaftlich sinnvollem Handeln und hast nun auf ein unsinniges Statement (das zudem im Original auch aus einer ganz anderen Ecke gekommen sein dürfte, als dass es auf betriebswirtschaftliche Erwägungen zurückzuführen gewesen sein dürfte ;-)) tatsächlich nun noch einen oben drauf gesetzt.

"[Rekordquartal] An der Fertigung lag das definitiv nicht ..."
Du kannst ja mal gerne versuchen zu erklären, wie eine teuere Fertigung dem Gewinn zuträglich ist. Intel hat sein Operating Income sowie sein Net Income hier Y2Y um über 20 % gesteigert (bspw. trotz rd. 10-fach höherem R&D im Vergleich zu AMD). Und in gleicher Weise kannst du ebenso zu erklären versuchen, warum, da doch die Fertigung bei TSMC möglicherweise gar deutlich günstiger sein soll, und warum AMD nicht gleich schon zu den Zen-Anfangzeiten mit einem hohen Gross Margin eingestiegen ist, denn die hätten doch Gewinn ohne Ende machen müssen, wenn das bei TSMC so spottbillig wäre und entsprechend müssten die heute, mit der dritten (und jetzt bald vierten) Zen-Iteration Intel doch schon längst diesbezüglich überflügelt haben.
TSMC, Samsung und die kleineren Foundries sind nicht in dem Geschäft um nett zu sein oder um die Welt zu verbessern, die wollen Geld verdienen und Gewinn erwirtschaftet (und das holen die sich von ihren Kunden).

"Nein das tut man eben nicht, da die DIEs in 14nm immer größer werden, wenn man mit AMD performancetechnisch mithalten möchte. Um das zu realisieren und z.B. auch mehr Cache verbauen zu können sind bessere Fertigungsprozesse notwendig, damit die Kosten pro CPU nicht ausufern. ..."
Du ignorierst hier vollkommen den Markt zugunnsten deiner Argumentation. Beispielsweise im Consumer-Segment spielen mehr als 8 Kerne aktuell und auch mittelfristig nur eine untergeordnete Rolle, d. h. die sind vertriebstechnisch nicht unwichtig, tragen aber nur einen kleineren Teil zum Umsatz bei. Intel kann aktuell mit seinen 8-Kernern (und kleiner) fertigungskostentechnisch (weil 14nm) noch sehr gut mithalten, bzw. dürfte sogar deutlich günstiger fertigen können als AMD bei TSMC, was schlicht an AMDs CPU-Aufbau und verwendeten Nodes liegt und entsprechend hoch liegt auch Intels Marge. Jeder AMD-Desktop-Ryzen 3000 benötigt bereits mehr Wafer-Fläche als ein 8-Kern-Intel inkl. iGPU und verwendet zudem auch noch zum Teil den deutlich teueren 7nm-Fertigungsprozess und bedarf ebenfalls eines deutlich aufwendigeren Packagings aufgrund des komplexen Routings. Entsprechend liegt auch Intels Marge hier natürlicherweise signifikant höher bei diesen CPUs.

Insofern dürften bspw. Rocket Lake und Alder Lake mit "nur" acht großen Kernen mit Blick auf den Mainstream auch, zumindest wenn man es nur auf diesen Punkt bezieht, deutlich unkritischer zu bewerten sein, als es so manch einer gerne hätte, für den dann anscheinend schon alles unter 16 x86-Kernen nur noch als besserer Taschenrechner taugt. (Nur werden dadurch 16 Kerne auch in 2021/22 nicht zum Mainstream.)

Wendet man sich den Servern zu (was hier im PCGH-Forum eigentlich eher irrelevant ist), sieht es natürlich etwas anders aus und hier kann AMD dann tatsächlich die Vorteile der Chiplet-Fertigung ausspielen, nur ist die Kostenersparnis längst nicht so hoch (die 64-Kerner dürfte AMD etwa um 1/5 bis bestenfalls 1/4 günstiger fertigen können als Intel seine aktuellen 28-Kerner) und vor allem bei AMD überwiegt das Consumer-Volumen deutlich, während man nur relativ wenig Epyc verkauft (und in absoluten Zahlen sowieso).

Darüber hinaus scheint Intel auch für die nächten zwei Server-Generationen weiterhin keinen MCM-Ansatz zu verfolgen, denn Ice Lake SP (10nm++) wird gesichert ein monolithisches Design sein und nach aktuellem Kenntnisstand auch Sapphire Rapids SP (10nm+++). Man kann jetzt natürlich wieder in das übliche Muster verfallen und die Verantwortlichen da schlicht für total bescheuert erklären, wahrscheinlicher ist jedoch, dass die durchaus gute Gründe für dieses Vorgehen haben (und dass das betriebswirtschaftlich sinnvoll durchkaklkuliert wurde).

Und bei 10nm muss Intel froh sein, wenn sie die 4 GHz schaffen.

Der i7-1068NG7 erreicht bereits 4,1 GHz und Tiger Lake-Vorserienchips in 10nm++ wurden bereits mit 4,7 GHz gesichtet.

[...]ormalerweise kassieren die meisten deiner [ChrisMK72] Beiträge von mir ein "like", weil sie realistisch und objektiv sind. Hier sehe ich aber fast nur Fanboy-Gewäsch [...]

Dein Beitrag ist aber nicht weniger "eingefärbt" (was nicht mit Fanboy gleichzusetzen ist) als ChrisMK72' seiner, nur dass er seine Präferenzen und Absichten wenigsten offen ausformuliert hat. ;-)
Am Ende stellt sich halt immer die Frage nach der Relevaz, insbesondere bei völlig verallgemeinernden Aussagen und da bekommt halt so manch einer nicht die Kurve und meint bspw. zu argumentieren, nur weil er/sie doch Programm XY nutzt und das im best case gar noch Open Source ist (es also theoretisch jeder nutzen könnte), dass das damit zum Mainstream bzw. zu einem für den Mainstream relevanten Workload wird.
ChrisMK72 hat in seinem Post zumindest seinen Argumentationshorizont klar abgesteckt und hat auch nicht den Anspruch erhoben, dass seine Ansichten/Bewertungen für jeden anderen (auch nur irgendwie im entferntesten) denkbaren Workload relevant sind. (Manch anderer bekommt so eine Differenzierung nicht hin und haut reihenweise vermeintlich allgemeingültige, pauschalisierende Aussagen raus; das war keine Anspielung auf dich)
 
Zuletzt bearbeitet:
Ich glaube dass Intel durch ihren extrem optimierten 14nm Prozess auch mit den anderen Fertigungen ungewollt Probleme bekommt.
Die 5GHz sind mit einem neuen Prozess sicher sehr schwer machbar und wenn am Ende nur 4GHz rauskommen sollten ist die neue CPU langsamer als die alte und keiner kauft das Ding.
PS danke Intel ich habe meine AMD Aktien und 2,5 gekauft
 
Ich glaube dass Intel durch ihren extrem optimierten 14nm Prozess auch mit den anderen Fertigungen ungewollt Probleme bekommt.
Die 5GHz sind mit einem neuen Prozess sicher sehr schwer machbar und wenn am Ende nur 4GHz rauskommen sollten ist die neue CPU langsamer als die alte und keiner kauft das Ding.
PS danke Intel ich habe meine AMD Aktien und 2,5 gekauft


Ich glaube auch das Intel Anfangs zu viel von der 10nm und 7nm Fertigung erwartet hat , und deswegen jetzt zeitlich zurückstecken muss.;)

Aber hey dann liegt Amd wenigstens nicht gleich wieder im Staub , und wir haben noch ein wenig was von unseren Amd Aktien :daumen:
 
Dein Beitrag ist aber nicht weniger "eingefärbt" (was nicht mit Fanboy gleichzusetzen ist) als ChrisMK72' seiner, nur dass er seine Präferenzen und Absichten wenigsten offen ausformuliert hat. ;-)
Am Ende stellt sich halt immer die Frage nach der Relevaz, insbesondere bei völlig verallgemeinernden Aussagen und da bekommt halt so manch einer nicht die Kurve und meint bspw. zu argumentieren, nur weil er/sie doch Programm XY nutzt und das im best case gar noch Open Source ist (es also theoretisch jeder nutzen könnte), dass das damit zum Mainstream bzw. zu einem für den Mainstream relevanten Workload wird.
ChrisMK72 hat in seinem Post zumindest seinen Argumentationshorizont klar abgesteckt und hat auch nicht den Anspruch erhoben, dass seine Ansichten/Bewertungen für jeden anderen (auch nur irgendwie im entferntesten) denkbaren Workload relevant sind. (Manch anderer bekommt so eine Differenzierung nicht hin und haut reihenweise vermeintlich allgemeingültige, pauschalisierende Aussagen raus; das war keine Anspielung auf dich)
In welcher Farbe sind meine Beiträge in diesem Thread denn eingefärbt? Ich hab Intels Architektur gelobt, meine Turing Grafikkarte gestreichelt (sorry, konnte ich mir nicht verkneifen :D), mich über Bulldozer lustig gemacht, Vega als "Fail" bezeichnet und ansonsten nur das offensichtliche wiederholt. Nämlich das TSMCs 7nm Node der 14nm Node von Intel in puncto Effizient deutlich überlegen ist und deshalb die großen Zen CPUs bei gleichem Verbrauch eine vernichtende Mehrleistung gegenüber Intels CPUs haben. Wenn dir das in irgendeine Richtung parteiisch vorgekommen ist, tut mir das ausdrücklich leid.

Grüße!
 
Weiss gar nicht was du hast, ist doch höchst unterhaltsam wenn Foristen über den baldigen Untergang eines Multimilliarden Dollar Konzerns spekulieren.
Sehr unterhaltsam ja :ugly:, hat aber jegliche Forenkultur zerstört. Ist quasi wie ne Selbsthilfegruppe, jede Intel News eigentlich autistischer AMD Whataboutismus der selben Personen, die meinen sie wären in eine neue moralische und intellektuelle Liga aufgestiegen weil sie einen Test überflogen haben und/oder ein AMD Produkt erworben haben, dabei hat eigentlich wenn überhaupt nur ihr Körpergewicht zugenommen.

Hier auch wieder nur Gesülze, dabei war vom Outsourcing schon lange die Rede, wahrscheinlich hat man TSMC für die XE's angemietet, bei 5nm sieht man sich auf Kurs weil der parallel läuft, das ist alles.
Die glaubwürdigen "Informationen" die Intel gibt sind meist auch nur für Aktionäre weil man die nicht zu stark täuschen darf.
Sollte Intel aber in ein paar Jahren tatsächlich weiter abfallen und nicht ihr Ökosystem von Chipdesign und Produktion weiter betreiben können, wird man gesund schrumpfen müssen. Um ehrlich zu sein finde ich die x86 Situation eigentlich ziemlich ok aktuell, Apple und der ARM Schabernack halte ich für deutlich bedenklicher in der Zukunft.

Nein, die haben sich gegen TSMC entschieden... Samsung wirds mit seinem 8-nm
Nein! Der Hauptteil von Ampere kommt von TSMC das hat Jensen bestätigt, nur ein spezieller Anteil wahrscheinlich Entry kommt von der Samsung 8nm Node.
 
Zuletzt bearbeitet:
@gerX7a
Man sieht aber keine hohen Allcore Boosts bei Intel.
Liegt natürlich an den 15-61W(Boost) Designes, dennoch alles andere als ermunternd.
 
TSMC will zudem bereits auf 3 nm fertigen, wenn Intel dann 2022/2023 auf 7 nm in Großserie gehen will.
Ist das physikalisch überhaupt möglich? Vielleicht werden da jetzt einige den Kopf schütteln, aber ich habe da nicht so viel Ahnung. Ein Bekannter hatte neulich einmal gemeint, dass selbst 5 nm bei der Chipherstellung extrem grenzwertig sei. Weiß da einer mehr?
 
Wir schreiben das Jahr 2020. Dies sind die Abenteuer der Enterprise namens Intel, das mit seiner 110'800 Mann starken Besatzung von jetzt an noch 5 Jahre unterwegs ist, um fremde Prozesse (aka 7nm) zu erforschen, neues Wissen und neue Erkenntnis zu erlangen.
Viele Lichtjahre von der ursprünglichen Roadmap entfernt dringt die Enterprise in Galaxien vor, die nie ein Mensch für möglich erachtet hätte.
 
Zuletzt bearbeitet:
Ist das physikalisch überhaupt möglich? Vielleicht werden da jetzt einige den Kopf schütteln, aber ich habe da nicht so viel Ahnung. Ein Bekannter hatte neulich einmal gemeint, dass selbst 5 nm bei der Chipherstellung extrem grenzwertig sei. Weiß da einer mehr?


TSCM ist eine Aktien Firma wenn ich nicht irre .

Was sollen die ihren Aktionären sagen , solange sie selber nicht wissen ob sie es tatsächlich gebacken bekommen ?

Wir werden das mit den 5 beziehungsweise 3nm vileicht nicht hinbekommen ?!

Die werden nach Plan Arbeiten, abwarten was passiert und keine Zweifel säen :D
 
Wir schreiben das Jahr 2020. Dies sind die Abenteuer der Enterprise namens Intel, das mit seiner 110'800 Mann starken Besatzung von jetzt an noch 5 Jahre unterwegs ist, um fremde Prozesse (aka 7nm) zu erforschen, neues Wissen und neue Erkenntnis zu erlangen.
Viele Lichtjahre von der ursprünglichen Roadmap entfernt dringt die Enterprise in Galaxien vor, die nie ein Mensch für möglich erachtet hätte.

Denkst du ich weiß nicht woher du das her hast?^^ Galaxy Rangers - Intro | German | HD - YouTube
 
So wie es aussieht kommt Intel etwas in Bedrängnis, erst will der 10nm nicht so gelingen und jetzt dann auch noch der 7nm Prozess.

Naja dann wird AMD wohl die Krone ergattern mit Ryzen 4000.

Gesendet von meinem D6603 mit Tapatalk
 
179431E2-13D0-4695-A013-63E4CE9C7A4B.jpeg
 
TSCM ist eine Aktien Firma wenn ich nicht irre .

Was sollen die ihren Aktionären sagen , solange sie selber nicht wissen ob sie es tatsächlich gebacken bekommen ?

Wir werden das mit den 5 beziehungsweise 3nm vileicht nicht hinbekommen ?!



Die werden nach Plan Arbeiten, abwarten was passiert und keine Zweifel säen :D

Um TSMC musst du dir keine Sorgen machen, bis Intels 7nm Prozess in der Massenfertigung angelangt ist wird TSMC wohl bereits bei 2nm angelangt sein.

Report: TSMC to enter risk production for 3nm chips in 2021
Report: TSMC to begin 3nm risk production in 2021 | The Burn-In

Apple manufacturing partner TSMC is on track to start producing chips using a 3nm chip fabrication process in late 2022, and is already working on improved 5nm processes.
TSMC on schedule for 3nm Apple 'A16' iPhone and iPad chip in 2022 | Appleinsider

Auftragsfertiger: TSMC forciert Forschung an 2 nm, AMD füllt Huawei-Lücken
Auftragsfertiger: TSMC forciert Forschung an 2 nm, AMD fuellt Huawei-Luecken - ComputerBase
 
Wäre ich Intel, würde ich meine Fabriken behalten, ganz einfach.
Natürlich dachte ich auch, 10nm Cannon Lake als 4 Kerner mit besserer Grafikeinheit kommt bereits in 2016, aber die Werte bei Comet Lake gehen schon in Ordnung. Ein i9-10900 Test steht an, der laut TechPowerUp gerade Intels effizienteste CPU ist. Intel Core i9-10900 Review - Fail at Stock, Impressive when Unlocked | TechPowerUp

Der kleinste Sockel 1200 Vertreter ist ein 2 Kerner mit 3,4 GHz Takt, ein Celeron G5900.

Idle: 0,582 Watt, 0,362 min
CPU Kerne: 11-12 Watt
CPU Package Power inkl. Grafik: 18,5 Watt.

Und das waren nur die ersten Messwerte ohne Undervolting. OS Win 10 64Bit, 1920x1080 @ 75 Hz. Erste Undervolting Versuche wurden auch schon gemacht. Einsparung bei Cache, Kernen und Grafik: Gut 90mV im Offset Modus.

CPU Package Power: 13,111 W max
IA Cores Power: 8,200 W max
Grafikkerne: 5,184 W max

Alles lief problemlos von Anfang an.
JayzTwoCents erzählt hier von seinen positiven Erfahrungen mit Intel. Nur keine Panik auf der Titanic.

Why are people still buying Intel? - YouTube
 

Anhänge

  • 0.362W 0.582W.png
    0.362W 0.582W.png
    62,7 KB · Aufrufe: 22
Zuletzt bearbeitet:
Intel wird seine Fabriken behalten, allein schon weil aus Sicht der USA strategisches Interesse an deren Existenz besteht. Da findet sich dann schon ein Rüstungsauftrag damit die keine roten Zahlen schreiben.

Der Erfolg von Intel in den letzten 10 Jahren baute darauf auf, dass Intel das CPU Design im Vergleich zu vorher grundlegend überholt hat. Sowohl Speichercontroller als auch 2D Grafikkarte sind mit auf den Chip gewandert. Damit hat sich die Bedeutung von CPU grundlegend verschoben und Intel hat im Desktop und Laptop Markt richtig abgesahnt. AMD hatte in paar APUs, aber Intel hatte Masse, Leistung und zyklische Refreshes. Aber Intel ist auch Opfer des eigenen Erfolgs, denn ich behaupte mal für das was 80% der Leute machen, reicht ein 8 Jahre alter i3 oder i5 mit SSD locker aus. PCs werden im Normalfall nicht ersetzt bevor sie kaputt sind. Das war nicht immer so. Intel braucht jetzt die nächste Killer-App in der Pipeline, das nächste Ding wegen dem jeder seinen i5 wegwirft. Dabei ist das Problem, dass Server und Desktop CPUs wieder eine größere Schere machen als noch vor ein paar Jahren. Server wollen jetzt vor allem wahnsinnig viele PCIe Lanes, damit man die 20-40 NVME Laufwerke auch schnell genug Ansprechen kann und im 10-40GBit Netzwerk verteilt. Rechenleistung ist da noch nicht einmal so groß gefragt mehr. Desweiteren lehnt sich Intel stark Richtung Grafikkarten, einerseits für Compute Rechenzentren, aber auch für den Heimuser. Man kopiert damit etwas Nvidia.

Daher könnte der Dreikampf spannend werden. AMD ist jetzt schon in vielen Konsolen und hätte ein fertiges PC Produkt. Ich behaupte mal 75% hier im Forum würden sich jetzt nicht beschweren, wenn sie von AMD ein PS5 Board bekämen auf das sie eine RGB Wasserkühlung packen und dann Windows 10 drauf installieren. Diese Trennung in CPU und GPU über alle Preisniveaus hinweg ist so eine Sache die sterben könnte, wenn AMD das forciert; was sie ganz klar zur Zeit nicht wollen, denn das Können ist keine Frage. Nvidia scheint jetzt ernst zu machen mit dem dem Kauf von ARM. Nachdem Nvidia zuletzt schon Mellanox gekauft hat, wäre das ein direkter Angriff auf Intel. Supercomputer und Hyperscaler könnten dann total Nvidia dominiert werden, oder zumindest auf Patenten basieren, die Nvidia gehören, z.B. Amazons Serverchip. Ich denke auch im Heimbereich wird es nur eine Frage der Zeit sein, bis das Selbstverständnis von Nvidia nicht ist, dass der User eine Karte von Nvidia in einen PC schiebt, sondern, dass Nvidia gleich eine Box liefert die der PC ist. Im Prinzip wie ein Nvidia Shield, nur halt mit Windows und ein bisschen mehr als die mageren 10W Abwärme die ein Shield produzieren darf.

Ich sehe die Zukunft der Intel Fertigung so, dass Intel alles selber herstellen könnte, aber im Konkurrenzkampf dazu gezwungen ist einzelne Produkte wie bestimmte CPUs oder GPUs, oder Combos aus beidem von TSMC oder Samsung fertigen zu lassen. Intel Produkte gehen ja weit über CPUs hinaus, die können ja im Prinzip jeden Chip fertigen der in einen PC kommt. Wenn man von einer HP 10GBit Serverkarte mal den HP Sticker abzupft sieht man dass Intel drunter auf die Leiterbahn geätzt ist. Sorgen dass Intel nicht seine Produktion auslasten kann müssen wir uns nicht machen, selbst wenn sie mal etwas woanders fertigen lassen müssen um die Benchmarks zu gewinnen.
 
Intel wird seine Fabriken behalten, allein schon weil aus Sicht der USA strategisches Interesse an deren Existenz besteht. Da findet sich dann schon ein Rüstungsauftrag damit die keine roten Zahlen schreiben.

Der Erfolg von Intel in den letzten 10 Jahren baute darauf auf, dass Intel das CPU Design im Vergleich zu vorher grundlegend überholt hat. Sowohl Speichercontroller als auch 2D Grafikkarte sind mit auf den Chip gewandert. Damit hat sich die Bedeutung von CPU grundlegend verschoben und Intel hat im Desktop und Laptop Markt richtig abgesahnt. AMD hatte in paar APUs, aber Intel hatte Masse, Leistung und zyklische Refreshes. Aber Intel ist auch Opfer des eigenen Erfolgs, denn ich behaupte mal für das was 80% der Leute machen, reicht ein 8 Jahre alter i3 oder i5 mit SSD locker aus. PCs werden im Normalfall nicht ersetzt bevor sie kaputt sind. Das war nicht immer so. Intel braucht jetzt die nächste Killer-App in der Pipeline, das nächste Ding wegen dem jeder seinen i5 wegwirft. Dabei ist das Problem, dass Server und Desktop CPUs wieder eine größere Schere machen als noch vor ein paar Jahren. Server wollen jetzt vor allem wahnsinnig viele PCIe Lanes, damit man die 20-40 NVME Laufwerke auch schnell genug Ansprechen kann und im 10-40GBit Netzwerk verteilt. Rechenleistung ist da noch nicht einmal so groß gefragt mehr. Desweiteren lehnt sich Intel stark Richtung Grafikkarten, einerseits für Compute Rechenzentren, aber auch für den Heimuser. Man kopiert damit etwas Nvidia.

Daher könnte der Dreikampf spannend werden. AMD ist jetzt schon in vielen Konsolen und hätte ein fertiges PC Produkt. Ich behaupte mal 75% hier im Forum würden sich jetzt nicht beschweren, wenn sie von AMD ein PS5 Board bekämen auf das sie eine RGB Wasserkühlung packen und dann Windows 10 drauf installieren. Diese Trennung in CPU und GPU über alle Preisniveaus hinweg ist so eine Sache die sterben könnte, wenn AMD das forciert; was sie ganz klar zur Zeit nicht wollen, denn das Können ist keine Frage. Nvidia scheint jetzt ernst zu machen mit dem dem Kauf von ARM. Nachdem Nvidia zuletzt schon Mellanox gekauft hat, wäre das ein direkter Angriff auf Intel. Supercomputer und Hyperscaler könnten dann total Nvidia dominiert werden, oder zumindest auf Patenten basieren, die Nvidia gehören, z.B. Amazons Serverchip. Ich denke auch im Heimbereich wird es nur eine Frage der Zeit sein, bis das Selbstverständnis von Nvidia nicht ist, dass der User eine Karte von Nvidia in einen PC schiebt, sondern, dass Nvidia gleich eine Box liefert die der PC ist. Im Prinzip wie ein Nvidia Shield, nur halt mit Windows und ein bisschen mehr als die mageren 10W Abwärme die ein Shield produzieren darf.

Ich sehe die Zukunft der Intel Fertigung so, dass Intel alles selber herstellen könnte, aber im Konkurrenzkampf dazu gezwungen ist einzelne Produkte wie bestimmte CPUs oder GPUs, oder Combos aus beidem von TSMC oder Samsung fertigen zu lassen. Intel Produkte gehen ja weit über CPUs hinaus, die können ja im Prinzip jeden Chip fertigen der in einen PC kommt. Wenn man von einer HP 10GBit Serverkarte mal den HP Sticker abzupft sieht man dass Intel drunter auf die Leiterbahn geätzt ist. Sorgen dass Intel nicht seine Produktion auslasten kann müssen wir uns nicht machen, selbst wenn sie mal etwas woanders fertigen lassen müssen um die Benchmarks zu gewinnen.

Intel muss die Fertigung in den Griff bekommen! Aber das wird leider nicht so einfach!Und wenn man Rick Bergman glauben darf, dann wird auch eine neue Architektur von Intel erstmal nichts ändern. Vielleicht ist Zen 3 5-fach superskalar? Dann wirds eher noch schwieriger wieder an die Spitze zu kommen! Der Knackpunkt ist die Fertigung! Der Aktienkurs wurde auch in Mitleidenschaft gezogen! Bis die Fertigung wieder wie gewünscht läuft gehts wohl mit dem Aktienkurs bestenfalls seitwärts aber eher abwärts!
 
AMD hatte in paar APUs, aber Intel hatte Masse, Leistung und zyklische Refreshes. Aber Intel ist auch Opfer des eigenen Erfolgs, denn ich behaupte mal für das was 80% der Leute machen, reicht ein 8 Jahre alter i3 oder i5 mit SSD locker aus. PCs werden im Normalfall nicht ersetzt bevor sie kaputt sind. Das war nicht immer so. Intel braucht jetzt die nächste Killer-App in der Pipeline, das nächste Ding wegen dem jeder seinen i5 wegwirft.

Ja, außer wenn man Live Streams machen will, gleichzeitig noch aufnimmt und spielt. Also ab und zu mangelt es schon noch an Rechenleistung. Der Windows Defender soll sich auch schier unendlich viel CPU Leistung bei einem Scan gönnen, es sei denn ihm werden Ketten angelegt. ;)
 

Wer weiß was du dir bei deinen skurillen Vergleichen immer zurecht biegst, zumal es einen 3700k doch von intel gibt ;)


Ansonsten hast du jedoch das Thema komplett verfehlt. manimani89 hat hier pauschal von "weltweiten Unterschieden" im Stromverbrauch gesprochen und diese Aussage ist in der Form (völlig allgemein und ohne Rahmenbedingungen) schlicht und einfach unzutreffend und wird umso obskurer, wenn man berücksichtigt, dass die Workloads, die diese Unterschiede am ehesten zum Vorschein bringen, über den gesamten Mainstream-Markt betrachtet, am wenigsten genutzt werden.

Der einzige der mal wieder wie üblich direkt am Thema vorbeigesegelt ist und es sich so zurechtbiegt wie er braucht bist du. Zum Thema Stromverbrauch zählt eben nicht nur die reine Wattzahl, sondern auch die dafür gelieferte Leistung und wenn AMD da aktuell ~16% effizienter ist, ist das schon eine Menge. Da sich der Abstand mit Zen3 nicht veringern wird und wir dann mal schnell bei 30% und mehr sind... Aber das weißt du bestimmt wieder unter den Tisch zu kehren.


Daher ja auch meine Anmerkung "die Kirche im Dorf lassen". Und deine versuchte Erklärung mit dem Board ist echt schräg. Einerseits wird PCIe 4 gerne immer als Argument schlechthin herangezogen, aber in diesem Fall darf es kein X570-Board sein, weil das eine Benachteiligung wäre? Fällt dir da was an deiner Argumentation auf? (Zumal es in dem konkreten Fall auch hinfällig ist, da hier ein X470 gegen ein Z390 verglichen wurde.)

Das ist keinesfalls schräg, sondern wird bei Leuten die Fachwissen haben (wozu du anscheinend definitiv nicht zählst) berücksichtigt. Und das aus dem ganz simplen Grund, da PCIe4 Mainboards einen höheren Stromverbrauch haben als ihre älteren Pendandts. Von daher ist das mehr als nur legitim danach zufragen, da intel eben kein PCIe4 bietet. Man sollte beim Featereset ja immer fair bleiben. Ich gehe ja auch nicht hin und such mir einen Bench raus der bei intel dank der Verwendung von AVX512 einen höheren Stromverbrauch wie bei AMD verursacht...


"Woher nimmst du die Kenntnis, dass intel günstiger fertigen kann wie TSMC?"
"Jedoch entscheidet dabei nicht immer zwingend nur der Preis ..."
Damit nimmst du dir bereits selbst den Wind aus den Segeln, denn entsprechende anderweitige Vorzüge, wie die völlige Kontrolle über den Fertigungsprozess, eine höhere Flexibilität und Designfreiheiten beispielsweise lassen sich schlussendlich natürlich auch in geldwerten Vorteil umrechnen.

Das man bei deinem Ruderboot keinen Wind aus den Segeln nehmen kann ist ja nicht verwunderlich, jedoch segelt mein Boot perfekt im Wind, daran ändert auch deine Unwissendheit nichts, denn der einzigste der sich mal wieder gehörig widerspricht bist du :schief:
Du sprichst davon, dass intel günstiger fertigen kann, belegst dies aber mit keinem einzigen Beispiel, da es diesbezüglich keine Zahlen von intel gibt (aus gutem Grund vermutlich!). Ansonsten ist das was du behauptest reinster BS vom feinsten. Diese Vorteile die du ansprichst lassen sich eben nicht in einen geldwerten Vorteil umrechnen vor allem nicht in dieser Stückzahl, da geht es allein darum was kostet mich Summe xy im Fremdbezug und was in der Eigenfertigung. Zusätzlich zu dem Kostenvorteil werden dann die andere Argumente wie Unabhängigkeit, höhere Flexibilität (wobei man das mit den Designs auch mit dem zu infrage kommenden Fertiger klärt, aber das nur am Rande) und intel hat sich dafür entschieden, dass ihnen die Unabhängigkeit wichtiger ist. Weil z.B. die Forschungskosten bei TSMC verteilen sich auf deutlich mehr Kunden wie nur AMD...
Wäre im übrigen BWL Semester 1, wo man das lernt. Vielleicht kommst du ja mal noch dahin...


Am Ende geht es hier darum die Wertschöpfungskette weitesgehend unter Kontrolle zu haben (insbesondere, wenn hohe Absatzzahlen gesichert sind, da man einen Großteil des Marktes bedient) und das dient immer und ausschließlich direkt oder indirekt dazu, ein besseres EBIT zu generieren.

Das ist falsch... Bestes Beispiel ist Apple die lassen alles fremdfertigen und es wäre mir neu, dass die schlechte Ergebnisse einfahren... oder schau dir Nvidia an, auch die haben eine bessere Marge wie intel. Aber glänze ruhig weiter mit deinem Unwissen...


Und hinzu kommt noch, dass der Großteil der Fertigung immer noch im seit vielen Jahren eingefahrenen und hochgradig optimierten 14nm-Prozess erfolgt und ausgerechnet da soll Intel dann auch noch möglicherweise gar Kosten/Nutzen-technisch schlechter abschneiden als andere Hersteller?

Habe ich dir bereits erklärt, dass sie ihre großen Monster DIEs für den Servermarkt eben nicht so günstig in ihrem hochoptimierten 14nm Prozess herstellen können... Siehst du doch auch an den Preisen die sie dafür abrufen, dass man die nicht für nen Appel und nen Ei rausschleudern kann.

Und seit Jahren Geld verschwenden ... und warum? Weil sie nett sind? Weil sie ihre Mitarbeiter aus der Fertigung nicht auf die Straße setzen wollen und nur deswegen noch ihre eigene Fertigung aufrecht erhalten?
Vielleicht solltest du erst mal selber irgendwelche Zahlen beisteuern, die belegen, dass Intel's Fertigung teuer ist, oder dass sie bei TSMC oder Samsung gar noch günstiger fertigen lassen könnten, vielleicht, weil die so nett sind und Intel die Fertigung zum Selbstkostenpreis anbieten würden?

Lesen und Verstehen scheint wohl offensichtlich nicht zu deinen Stärken zu zählen! Wo habe ich denn davon gesprochen, dass intel Verlust mit ihrer Fertigung macht? Den Satz darfst du mir gerne mal zeigen. Ich sprach lediglich davon, dass Eigenfertigung nicht zwingend billiger ist wie Fremdbezug. Wie man von dieser Aussage auf Eigenfertigung=Verlust kommt, darfst du uns gerne mal erklären.
Ansonsten wieso soll ich Zahlenmaterial liefern? Du bist doch derjenige der felsenfest behauptet, dass intel günstiger fertigt ohne jemals einen Beweis dafür erbracht zu haben... Ich hab lediglich den Einwand gebracht, dass Fremdbezug eben nicht immer teurer ist wie Eigenfertigung (dafür gibt es in der Literatur im übrigen genügend Beispiele) und solange du keine Belege für deine Behauptung hast bleibe ich dabei, die günstige intelfertigung ist ein Mythos, vor allem wenn man sich nvidia im Vergleich ansieht, die mit reinem Fremdbezug deutlich bessere Margen wie intel haben und wie intel selbst im Bereich Grafik auch Marktführer sind.
Zudem fertigt auch intel nicht zum Selbstkostenpreis, auch die müssen die Kosten für F/E drauf schlagen... Aber sowas wüsste man auch, hätte man mal ein Semester BWL besucht...


Und darüber hinaus kommt weiterhin hinzu, dass Intels Fertigungsvolumen viel zu hoch ist, als dass sie mal kurzerhand fabless werden könnten, denn selbst TSMC kann deren Volumen nicht so einfach auffangen.

Ist mir bewusst, dass TSMC nicht von heute auf Morgen das ganze Volumen von intel fertigen könnte... Aber wo habe ich das behauptet? Richtig, nirgends!
Es ging einzig und allein um die Tatsache bzw. die Behauptung von dir, dass intel günstiger fertigt (wofür du uns immernoch Beweise schuldest). Und da sie aktuell wohl mit dem Gedanken spielen, die Grafikkarten extern produzieren zu lassen, scheinen sie wohl doch auch offen dafür zu sein, einzelne Produktgruppen extern zu fertigen. (was nicht heißen muss, dass man plötzlich alles extern fertigt!)
Aber das hast du bestimmt nur wiedermal überlesen...

Mit scheint du vermischt hier deinen eigenen Bias mit betriebswirtschaftlich sinnvollem Handeln und hast nun auf ein unsinniges Statement (das zudem im Original auch aus einer ganz anderen Ecke gekommen sein dürfte, als dass es auf betriebswirtschaftliche Erwägungen zurückzuführen gewesen sein dürfte ;-)) tatsächlich nun noch einen oben drauf gesetzt.

Der einzige der hier mit seinem Unwissen immer noch einen drauf setzt bist du mein Freund... Ich habe dir aus betriebswirtschaftlicher Sicht erklärt, dass eine Fremdfertigung durchaus günstiger sein kann, es aber durchaus auch Gründe gibt die gegen einen Fremdbezug sprechen. Diese in der Regel aber nicht finanzieller Natur sind. Nur offensichtlich verstehst du das nicht...


"[Rekordquartal] An der Fertigung lag das definitiv nicht ..."
Du kannst ja mal gerne versuchen zu erklären, wie eine teuere Fertigung dem Gewinn zuträglich ist. Intel hat sein Operating Income sowie sein Net Income hier Y2Y um über 20 % gesteigert (bspw. trotz rd. 10-fach höherem R&D im Vergleich zu AMD). Und in gleicher Weise kannst du ebenso zu erklären versuchen, warum, da doch die Fertigung bei TSMC möglicherweise gar deutlich günstiger sein soll, und warum AMD nicht gleich schon zu den Zen-Anfangzeiten mit einem hohen Gross Margin eingestiegen ist, denn die hätten doch Gewinn ohne Ende machen müssen, wenn das bei TSMC so spottbillig wäre und entsprechend müssten die heute, mit der dritten (und jetzt bald vierten) Zen-Iteration Intel doch schon längst diesbezüglich überflügelt haben.
TSMC, Samsung und die kleineren Foundries sind nicht in dem Geschäft um nett zu sein oder um die Welt zu verbessern, die wollen Geld verdienen und Gewinn erwirtschaftet (und das holen die sich von ihren Kunden).

Bei diesem Postingteil fällt mir nur eins ein, Fremdschämen pur!
Nehmen wir uns einfach mal cb, die stellen es etwas übersichtlicher dar wie pcgh:
Chipfertigung: Intel nennt ein Jahr Verspaetung fuer 7‑nm‑Prozess - ComputerBase
Wie Gewinn zustande kommt weißt du? Umsatz - meinen Kosten = Gewinn
Dann schreibt cb, dass der Umsatz um 20% und der Gewinn um 22% gestiegen ist, also eine minimal bessere Marge. Dann steht in dem Artikel auch, dass 52% auf den Bereich „Data-centric“ entfällt, welcher mit 34% gewachsen ist und auch den Bereich Server enthält. Und jetzt die Quizfrage an dich, wo werden wohl die höchsten Margen erzielt und wo spielen dadurch die Fertigungskosten nur eine untergeordnete Rolle (zumindest aus aktueller Sicht, da AMD nicht die Stückzahl liefern kann, um intel zu zwingen den Preis im Serverbereich so massiv zu senken, dass es ihnen weh tut)? Richtig im Serverbereich... Von daher ist es nur logisch, dass der Quartalgewinn für intel gut ausfällt.
Ansonsten darfst du uns auch gerne nochmal erklären, wieso eine teurere Fertigung automatisch ein Verlust bedeutet, solange ich meine Produkte mit ausreichend hohem Preis verkaufen kann. Porsche fertigt in Stuttgart auch deutlich teurer wie BYD in china und weißt dennoch einen ordentlichen Gewinn aus... Des Weiteren ging es lediglich um die Frage was günstiger Fremdfertigung oder Eigenbezug und beides heißt nicht automatisch man macht Gewinn oder Verlust...

Aber dann beantworten wir dir noch deine Fragen zu AMD. Dir ist bekannt, dass die Marge seit Einführung von Zen um ca. 11% Punkte gestiegen ist?
Dir ist auch bewusst, dass im Serverbereich deutlich bessere Margen existieren und AMD da noch sehr zaghaft vertreten ist und die Steigerung hauptsächlich aus dem Desktop bereich kommt? Was darauf hindeutet, dass sie mit Ryzen auch im Desktopbereich gut verdienen.
Dir ist zudem bekannt, dass AMD ungefähr gleich viel Mitarbeiter wie Nvidia hat, jedoch CPUs und GPUs entwickelt? Wodurch sich logischerweise die Marge erst bei deutlich mehr Umsatz noch signifikant verbessert. Denn die Entwicklerteams wollen bezahlt werden, ob du 100 oder 100k CPUs verkaufst.
Ansonsten schau dir die Margen von Nvidia an und die nagen ja schon am Hungertuch, weil die Fertigung bei TSMC so exorbitant teuer ist... Apple scheint mir auch kurz vor dem Bankrott zu sein, die sollten sich lieber eigene Fabs zulegen:schief:

"Nein das tut man eben nicht, da die DIEs in 14nm immer größer werden, wenn man mit AMD performancetechnisch mithalten möchte. Um das zu realisieren und z.B. auch mehr Cache verbauen zu können sind bessere Fertigungsprozesse notwendig, damit die Kosten pro CPU nicht ausufern. ..."
Du ignorierst hier vollkommen den Markt zugunnsten deiner Argumentation. Beispielsweise im Consumer-Segment spielen mehr als 8 Kerne aktuell und auch mittelfristig nur eine untergeordnete Rolle, d. h. die sind vertriebstechnisch nicht unwichtig, tragen aber nur einen kleineren Teil zum Umsatz bei. Intel kann aktuell mit seinen 8-Kernern (und kleiner) fertigungskostentechnisch (weil 14nm) noch sehr gut mithalten, bzw. dürfte sogar deutlich günstiger fertigen können als AMD bei TSMC, was schlicht an AMDs CPU-Aufbau und verwendeten Nodes liegt und entsprechend hoch liegt auch Intels Marge. Jeder AMD-Desktop-Ryzen 3000 benötigt bereits mehr Wafer-Fläche als ein 8-Kern-Intel inkl. iGPU und verwendet zudem auch noch zum Teil den deutlich teueren 7nm-Fertigungsprozess und bedarf ebenfalls eines deutlich aufwendigeren Packagings aufgrund des komplexen Routings. Entsprechend liegt auch Intels Marge hier natürlicherweise signifikant höher bei diesen CPUs.

Ich ignoriere überhaupt nichts, nur du scheinst etwas schwer von Begriff zu sein... Wenn intel noch länger bei 14nm+++ steckt und neue Designs mehr Cache benötigen und dadurch größer werden, wachsen die DIEs und es kann schnell mal unwirtschaftlich in einigen Bereichen werden bzw. die Marge verschlechtern.
Das ein Monolithisches Design bis zu 8-10 Kernen günstiger ist habe ich auch nie bestritten, ansonsten kannst du den Ausschnitt auch gerne zeigen wo ich das tue! Ich hab mich auf das margenträchtige Segment bezogen, wo es richtig weh tut, wenn ich teuer fertige und der Konkurrent die Preise drückt, denn das geht richtig auf die Marge! Oder meinst du ernsthaft intel juckt großartig ob sie im Desktopbereich 10 Dollar mehr oder weniger pro CPU verdienen? Das ist zwar ärgerlich, aber daher kommt nicht die fette Marge!
Und wenn man sich die aktuellen Preise anschaut, scheint AMD selbst mit einem 3600 für um die 160€ noch gutes Geld zu verdienen, von daher können die Preise bei TSMC doch nicht so ruinös sein ;)
Und wenn du bei AMD so penibel genau bist, bei intel solltest du dann die Umrüstungskosten der Fabs von 10nm zurück auf 14nm auch mit hineinrechnen... Dazu die Kosten die durch die ganze Verzögerung der 10nm und durch die 7nm Fertigung entstehen. Den Kunden Apple hat man dadurch verloren, wo rechnest du das mit rein?
Sich hier einfach hinstellen und behaupten die Fertigung von intel ist sooooooo super günstig ist halt leider nicht so, vor allem nicht, wenn man das Argument nicht mit einer einzigen Zahl belegen kann...
Und noch ein wichtiger Punkt ist die Yieldrate, würden wir die von beiden kennen, könnte man das super vergleichen und zumindest bei intels 10nm Prozess wissen wir, dass die langezeit so schlecht war, dass sie sich nur für Dualcores gelohnt hat... Wo schreibst du diese ganzen Kosten hin? Geht auch alles auf die Marge!

Wendet man sich den Servern zu (was hier im PCGH-Forum eigentlich eher irrelevant ist), sieht es natürlich etwas anders aus und hier kann AMD dann tatsächlich die Vorteile der Chiplet-Fertigung ausspielen, nur ist die Kostenersparnis längst nicht so hoch (die 64-Kerner dürfte AMD etwa um 1/5 bis bestenfalls 1/4 günstiger fertigen können als Intel seine aktuellen 28-Kerner) und vor allem bei AMD überwiegt das Consumer-Volumen deutlich, während man nur relativ wenig Epyc verkauft (und in absoluten Zahlen sowieso).

Wieso sollte mich das hier im pcgh Forum nicht interessieren? Es geht hier um die Quartalszahlen von intel und da hat der Bereich, in dem die Server CPUs vertreten sind einen Umsatzanteil von 52%. Klar es passt natürlich nicht in deine Argumentation der günstigen Fertigung, deswegen versucht man es dann unter den Tisch zu kehren...
Ansonsten wo kommen deine Phantasiezahlen mit einem Viertel günstiger zu fertigen her? Eine 28 Core CPU dürfte jetzt nicht die super Yield Rate haben, zudem benötige ich dann auch wiederum zwei Stück um wenigstens einigermaßen konkurenzfähig zu sein... Und auch, wenn AMD dort aktuell noch wenig verkauft ist das der Bereich, der intel am meisten interessiert, da der am meisten Kohle bringt!
Ich glaube intel würde AMD liebend gerne 30% des Desktopmarktes geben, wenn sie dafür weiterhin den Servermarkt mit einem Marktanteil von über 90% dominieren würden. Denn da wird die Kohle gemacht und man kann auf den Desktopmarkt verweisen, dass man doch einen ernstzunehmenden Konkurrenten hat.


Darüber hinaus scheint Intel auch für die nächten zwei Server-Generationen weiterhin keinen MCM-Ansatz zu verfolgen, denn Ice Lake SP (10nm++) wird gesichert ein monolithisches Design sein und nach aktuellem Kenntnisstand auch Sapphire Rapids SP (10nm+++). Man kann jetzt natürlich wieder in das übliche Muster verfallen und die Verantwortlichen da schlicht für total bescheuert erklären, wahrscheinlicher ist jedoch, dass die durchaus gute Gründe für dieses Vorgehen haben (und dass das betriebswirtschaftlich sinnvoll durchkaklkuliert wurde).

Dass dies betriebswirtschaftliche Gründe hat kann man ausschließen, die Tatsache liegt eher in der Entwicklungszeit! Zen gibt es seit 2017 und glaubst du intel ändert mal kurz innerhalb von 3 Jahren ihre komplette Roadmap und bringt gänzlich neue Architekturen? Zumal sie erst mit Zen2 gesehen haben, dass sie damit deutlich im Kostennachteil sind... Mit einer tiefblauen Brille kann man sich das natürlich schönrechnen, aber wenn intel diesen Ansatz auch verfolgen will, dann wird dies auch eine Weile dauern...
 
Zurück