Intel: Massiver Einbruch bei Finanzzahlen, auch wegen Arc-Grafikkarten

Das Desaster ist ein Fakt. Muss dir nicht gefallen und ist mir ehrlich gesagt auch relativ egal, ob du das für eine Überdramatisierung hältst. Es ist keine, dafür muss man nur auf die nackten Zahlen schauen, Stichwort Gewinnspanne. Im Ürbigen ist es dafür schnurzpiepegal, ob Intel in der Vergangenheit ständig "Milliardengewinne" eingefahren hat. Das spielt keine Rolle.

Börse und Realität haben nichts mit "das sind ja immer noch Milliarden und aber in der Vergangenheit war das so daher kann das kein Desaster sein" zu tun. Das ist verklärte Realität und so funktioniert das auch nicht.


Unternehmen geben im Voraus Ausblicke auf das kommende Quartal. Genau wie Intel es getan hat und keine (!) Gewinnwarnung oder ähnliches herausgegeben hat. Obwohl sie wussten, dass sie ihre eigens aufgestellte Prognose krachend verfehlen. Die Börse hat mit $18 Milliarden Umsatz gerechnet, Intel hat $15.3 Milliarden geliefert. Das ist mal eben eine Differenz von 15 % (!!). EPS wurden sogar $.70 erwartet, es waren mit $.29 aber nicht einmal die Hälte (!!!) davon.

Ich meine, wirklich jetzt. Es wäre schön, wenn man sich zumindest ein wenig mit der Materie beschäftigen würde. Ansonsten würde einem ein "keineswegs überraschend" gar nicht erst in den Sinn kommen. Denn das ist schlicht Quatsch und hier spielt niemand die Dramaqueen. Das einzige, was hier "gespielt" wird, ist etwas herunter und zwar den Earnings Report. Nichts für ungut, Niemand hat mit derart schlechten Zahlen gerechnet.


Wenn du weißt, dass du in naher Zukunft massenweise Milliarden in deine Fabs pumpen musst und wirst, dann würde ich von "verfügbar" mal ganz schnell wegkommen. Ich weiß auch jetzt schon, was bei Gas- und Strompreisen auf mich zukommen wird. Sowas berücksichtigt man in etwaigen Kalkulationen schon, sonst kommt nämlich das böse Erwachen.


Jain, Der Server-ASP ging mal eben um 10% zurück. Das liegt nicht an Intel selbst, sondern an vorhandener Konkurrenz. Intel kann keine Preise wie noch vor fünf Jahren mehr verlangen und einen Preiskampf kann sich Intel - eigentlich - gar nicht erlauben. Nun ist Server ja auch nicht nur rein der ASP, sondern eben auch TCO und gerade in der aktuellen Zeit die Effizienz. Da wird auch SPR im direkten Vergleich starke Probleme bekommen und ich kann mir nicht vorstellen, dass es im Interesse von Intel liegt, hier noch mehr bzw. größere Rabatte zu gewähren, um die eigenen Xeons an den Mann zu bringen. Das würde nicht funktionieren, wenn man nicht die Hosen runterlassen will.


Die Frage wurde gestern im Call an Gelsinger gerichtet, beantwortet hat er sie nicht. Ich verstehe es aber auch nicht, obwohl es zu Intels Strategie unter ihm passt: Probleme und Verzögerungen verschweigen, bis man nicht mehr drumherum kommt, sie der Öffentlichkeit benennen zu müssen.


Ich sehe keinen Grund, warum AMD und NV derart federn lassen sollten. Gut, bei NV ist es deswegen wahrscheinlich, weil der ganze Mining-Umsatz in hohem Maße wegbrechen wird. Da ist aber nicht "der Markt" per se für verantwortlich. Wenn man das aus den letzten Quartalen aufsplitten und den bereinigten non-Mining-Umsatz mit den kommenden Quartalen vergleichen würde, sehe ich da nicht zwingend einen derartigen Einbruch, wie ihn Intel gerade erlebt.

Bei AMD noch weniger. Dass die CG-Sparte mal eben um rund 20% an Umsatz einbüßt oder der operative Gewinn um fast 30% zurückgeht, wird nicht passieren. Wenn man das AMD unter Su verfolgt hat, dann weiß man bei ihr mittlerweile auch ganz genau, dass sie ihre Ausblicke für das jeweils kommende Quartal bzw. den Jahresausblick bereits immer extrem konservativ ansetzt und schon für ggf. auftretende Eventualität anpasst. Auch das ist eine große Stärke gegenüber dem Dampfplauderer Pat, der Zeit dafür hat, AMD irgendwo im Rückspiegel zu sehen, statt sich um sein Unternehmen zu kümmen. Die Aussage wird ihm zukünftig auch noch mehrmals um die Ohren fliegen.

Sony hat im abgelaufenen Quartal übrigens mehr PS5 verkauft, als noch im gleichen Vorjahreszeitraum. Der Gaming-Markt als solcher ist also nicht pauschal gesätigt oder rückläufig.
Sapphire Rapids gegen Turin könnte übler als Bulldozer gegen core laufen, wenn intel nicht mal Zeitpleine einhält, wozu es derzeit nach wie vor keine Annzeichen gibt. Und du hast schon recht, das finanzielle Problem wird massive unterschätzt. Intel kann jetzt sich schon die dividende nicht mehr wirklich sich leisten und es wenn erst mal die Fixkostendegression in die andere Richtung kickt steht da schnell ein höheres Milliardenloch. Dieser Quartalsbericht war nur ein Vorgeschmack auf das, was möglich ist, sollte das Severgeschäft weiter bluten und der PC markt schrumpfen. Intels überleben hängt davon ab, dass AMD keinen Preiskampf startet (braucht AMD auch nicht, in den wird Intel gezwungen da man eh rumtrödelt, während AMD und TSMC einfach nur Kurs halten müssen) und keine harte Rezession kommt. Und das Trimmen des CAPEXs war genau einer der wenigen verblieben Hebel, mit denen der Cashflow verbessert werden könnte. Sieht zusammen nach einer potentiell sehr, sehr üblen Mische aus...
 
Das ist wie mit Google und Bing, wer glaubt das einer den Jahrelangen Vorsprung nur durch einen Deppen aufholen, kann, der bei der Produktion den Blueprint zum Kopierer bringen durfte .

Intel wird es so schnell nicht schaffen, egal wie viele Profis am Start sind.

CPU Technisch hat man sich auch ans limit gefahren, vielleicht brint man einfach nur eine CPU mit E-Cores.

Das geld wird mit mobilen Geräten, Server, HPC etc gemacht, das PC zeug ist nur zum angeben.
 
Ich glaube ja immer noch, dass es sich beim Radja um einen Doppelagenten in Diensten Nvidias handelt.
Nachdem er AMD fast in den Abgrund gezogen hatte, ist er ja zum Glück zu Intel weiter gezogen.
Aus AMD's sicht kann man da nur sagen, lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.

Es gab doch auch das Gerücht, AMD hätte RDNA hinter seinem Rücken entwickeln lassen, also heimlich an ihm vorbei :lol:
 
Nochmal etwas zur Entwicklung der letzten Jahre, die ja hier teilweise auch von im Forum schreibenden PCGH Redakteueren vor 2-4 Jahre noch massivst in Frage gestellt wurde.
Falls AMD seine 6,5 Milliarden Umsatz im Q2 2022 den Voraussagen nach schafft, würde sich AMD in sehr dramatischer Weise dem Umsatz von Intel annähern.
6,5 Milliarden zu 15,3 Milliarden wären deutlich dichter an 1/2 Umsatz von Intel denn 1/3, den man schon im Q1 geschafft hat.
AMD hatte im Jahr 2021 alleine ohne Xilinx schon 1/5 des Umsatzes von Intel, wenn ma jetzt bedenkt wo AMD seit 2017 herkommt, ist die Entwicklung dramatisch! Ende des Jahres 2017 war man ungefähr bei 1/12 Umsatz (etwas mehr) von Intel.
AMD 5,3 Milliarden Umsatz für 2017, Intel 62,76 Milliaden Umsatz für 2017.
AMD macht jetzt in 2022 den Umsatz im Quartal, den sie 2018 und 2019 in einem Jahr gemacht haben.
 
Zuletzt bearbeitet:
Bei den Aktionären :fresse::schief:
Entschuldigt euch lieber mal bei euren (potenziellen) Käufern, wie wäre es mal wieder mit Innovation und Fortschritt, bietet den Kunden neues und deutlich besseres, dann wird sich das auch wieder ändern.

Kein Bauer entschuldigt sich bei seinem Milchvieh, wenn es mal nicht so gut läuft, sondern bei seiner Bank. ;)
 
Der Milchbauer müsste sich bei deren Kunden entschuldigen, wenn die Milch nicht gut ist.
Die Kunden kaufen keine schlechtere Milch, zu höheren Preisen.
 
Nachdem man, 10 Jahre lang, die Kunden mit 100Mhz/Jahr mehr abgespeist hat, hält sich mein Mitleid in Grenzen. Wer sich auf seinen Loorbeeren ausruht hat eben nicht mehr verdient. Aber Intel hat doch bestimmt noch was in seinem unteren Schubkasten liegen. Man muss sich einfach nur mal bücken. :lol:
 
Nachdem man, 10 Jahre lang, die Kunden mit 100Mhz/Jahr mehr abgespeist hat, hält sich mein Mitleid in Grenzen. Wer sich auf seinen Loorbeeren ausruht hat eben nicht mehr verdient. Aber Intel hat doch bestimmt noch was in seinem unteren Schubkasten liegen. Man muss sich einfach nur mal bücken. :lol:
Die Frage ist , was man dann zu sehen bekommt. Was Tolles oder nur einen nackten Hintern im Maurerdekolletè.

Cunhell
 
Das ist mal wieder typischer Schwachsinn. Thorsten ist eigentlich recht neutral, aber ist ja in der Mode Leuten eine Tendenz zu unterstellen, man scheint ja die Argumente nicht entkräften zu können also versucht man sie zu diskreditieren... ziemlich traurig.

Ja das ist typischer Schwachsinn wie wir ihn von dir auch nicht anders gewöhnt sind, aber hey scheinbar kannst du auch nicht richtig lesen, da ich direkt die News angesprochen habe die ihn widerlegt.
Aber hauptsache einen auf dicken Max gemacht... ziemlich traurig so ein Verhalten.
Und nein Thorsten ist halt eben nicht neutral, er ist wie Volker bei CB und das lässt er auch immer wieder durchblicken, dass er pro intel eingestellt ist und eben nicht neutral als Redakteur.

Und nochmal für dich, damit es DU auch verstehst. AMD bietet die Milan-X laut pcgh 13% teurer an, bietet dafür in gewissen Szenarien aber 60% Mehrleistung. Und wäre die Herstellung von Milan-X sauteuer, dann würde der Preis mehr wie nur um 13% steigen, weil AMD möchte sich mit so einem Produkt ja nicht die Marge versauen. Im Gegenteil, sie werden damit ihre Marge noch steigern. Alles andere wäre aus AMD Sicht schlicht und ergreifend dumm.

Die 7nm DIE Fläche hat sich um ca. 50% erhöht und die zusätzlichen Fertigungsschritte mal außen vor hast du alleine dadurch deine Kosten deutlich gesteigert. Ihn sauteuer zu nennen ist legitim.

Ne es ist nicht legitim, da du einfach nur Schwachsinn von dir gibst. Die DIE Fläche hat sich eben nicht erhöht, da hier gestapelt wird und die Speicherbausteine sind sehr klein... Und wenn etwas sehr klein ist bekomme ich bei einer guten Yieldrate deutlich mehr davon aus einem Wafer.
Ergo ist die Herstellung davon nicht sauteuer wie von dir und ihm behauptet. Außer die Yieldrate wäre grottenschlecht, jedoch habe ich das im Bezug auf TSMC und die 7nm Fertigung noch nirgends gelesen...

Dann bleibt noch der zusätzliche Fertigungsschritt, nur was kostet der pro CPU?
25 Dollar? 50 Dollar oder doch 100 Dollar? Oder noch mehr, da ihr schließlich von sauteuer redet.
Es weiß niemand, aber hey es ist ja in Mode gekommen, dass wenn man etwas nicht weiß man einfach mal behauptet es ist sauteuer und dann haben natürlich nur die anderen keine Argumente:ugly:
Aber schauen wir uns einfach den 5800X und die 3D Variante an. Laut geizhals aktuell eine Differenz von 190€, nehmen wir einfach 200€.
Dann sehe ich hier ehrlich gesagt nicht, dass die Fertigung sauteuer wäre. Und das hat auch einen ganz einfachen Grund, da AMD die Chiplets auch einfach als Milan-X verkaufen könnte, wieso sollen sie sich im Desktop die Marge versauen? Ja dann ist intel vorne, so what? Waren sie die Jahre davor auch im Gaming (9900K) und die Ryzens haben sich trotzdem gut verkauft.
Und wenn man sich dazu die finanziellen Zahlen bei AMD anschaut wird man feststellen, dass die sehr auf Erhöhung der Marge bedacht sind, ergo werden sie den 5800X3D auch so positionieren, dass sie damit viel Geld verdienen.
Und an der Stelle nochmal für dich Milan-X liefert in einigen Szenarien 60% Mehrleistung, kostet aber nur 13% mehr. Wäre es so sauteuer wie ihr behauptet, würde es deutlich mehr kosten bzw. würden wir es gar nicht im Markt sehen.

Das was AMD hier hilft, ist dass man deutlich mehr teure CPUs absetzen wird im Verhältnis zur 0815 Server CPU die teilweise nicht mal 1/3 des Preises haben. So kannst du auch die Marge steigern.

Du hast schlicht und ergreifend keine Ahnung, du nimmst einfach etwas an, für das du keinerlei Beweise hast und unterstellst AMD Dummheit. Sie sind nämlich nicht gezwungen Produkte anzubieten, die ihre Marge drücken...
Nur intel hat aktuell noch dieses Problem vor allem im Datacenterbereich, da ihre Server CPUs einfach deutlich teurer in der Herstellung sind, sie aber massiv die Preise senken mussten. Deswegen macht intel ja auch ihre Art des Chipletverfahrens, da sie sonst auf Dauer gesehen über den Preis nicht mehr konkurrenzfähig sein werden.
Da die Vorteile von Chiplets der Preis und die Skalierbarkeit sind und diese massive Probleme sieht man aktuell sehr in intels Quartalszahlen, einzig der Clientbereich ist von dieser Problematik nicht betroffen, da hat man andere Probleme und zwar den schrumpfenden Markt. Und da intel die Nummer 1 hinsichtlich des Absatzes ist, verlieren sie bei einem schrumpfenden Markt immer! Als kleinerer Player kannst du in diesem Umfeld sogar wachsen, indem vom Marktführer Marktanteile übernommen werden, nur diese Option hat intel nicht. Sie müssen mehr verkaufen, was der Markt aktuell nicht hergibt. Deswegen weiten sie ihr Geschäft auch aus auf GPUs, da man nicht immer auf einen wachsenden Markt setzen kann.
 
Es gab doch auch das Gerücht, AMD hätte RDNA hinter seinem Rücken entwickeln lassen, also heimlich an ihm vorbei :lol:
Das ist vollkommener Blödsinn ... wie so vieles andere auch, was um seine Person herum zurechtgesponnen wird.
Koduri war Leiter der 2015 gegründeten RTG und somit ging da gesichert nichts an ihm vorbei. Konkret konnte man mal in einem Bericht zu AMDs GPU-(semicustom-)Entwicklung (Anfang 2018, wenn ich mich recht erinnere) lesen, dass er, noch in der Vega-Entwicklung begriffen, nicht sehr erfreut war, dass das obere Management ihm jede Menge Ingenieursarbeitsstunden für Vega gestrichen hatte und man nennenswertes Personal von ihm zur Konsolen-Entwicklung hin verlagerte, worauf er (gemäß der zitierten Quelle(n) aus der RTG) anscheinend nicht allzu viel "Lust" gehabt haben soll, da er anscheinend mehr Interesse an der Entwicklung von dedizierten HighPerf-GPUs hatte.
Entsprechend kam sein Sabbatical und die Hinwendung zu Intel auch nicht allzu überraschend, da er hier deutlich mehr Spielraum, Möglichkeiten und Ressourcen sowie pers. Entfaltungsfreiraum zur Verfügung hat. Und offensichtlich scheint man sich bei Intel sicher zu sein, dass er hier sehr viel richtig gemacht hat, denn andernfalls wäre er diesen April nicht schon ("frühzeitig") zum Executive Vice President and General Manager der AXG befördert worden und die diversen Probleme und Verzögerungen, die man zurzeit in den Medien diskutiert waren zu der Zeit intern zweifellos schon in vollem Umfang bekannt.

*) Koduri begann seine Karriere damals bei S3, wurde dann bei ATI zum Director of Advanced Technologies befördert, kam durch die Übernahme zu AMD, wechselte dann zu Apple, kam in 2013 als Corp VP zurück zu AMD, übernahm dann die Führung der 2015 gegründeten Radeon Technologies Group und wechselte dann Ende 2017 zu Intel.

**) Was zumeist verkannt wird ist, dass mit der AXG ein komplett neues Geschäftsfeld aufgebaut wird, das bestenfalls mittelfristig wenn nicht gar erst langfristig in vollem Umfang Früchte tragen wird und Rückschläge in der einen oder anderen Form gehören zu so einem vielschichtigen Großprojekt nun einmal schlicht dazu.
 
Ja das ist typischer Schwachsinn wie wir ihn von dir auch nicht anders gewöhnt sind, aber hey scheinbar kannst du auch nicht richtig lesen, da ich direkt die News angesprochen habe die ihn widerlegt.
Hast du nicht. Um ihn zu widerlegen müsste man Quellen posten und nicht rumstänkern. Bin aber mal gespannt ob du Belege raushauen kannst dass ich Schwachsinn erzähle ;)
Aber hauptsache einen auf dicken Max gemacht... ziemlich traurig so ein Verhalten.
Und nein Thorsten ist halt eben nicht neutral, er ist wie Volker bei CB und das lässt er auch immer wieder durchblicken, dass er pro intel eingestellt ist und eben nicht neutral als Redakteur.
Wenn man vielleicht einen AMD Bias hat...
Aber dass du an einer sachlichen Diskussion null interessiert bist hast du ja zu genüge unter Beweis gestellt.
Und nochmal für dich, damit es DU auch verstehst. AMD bietet die Milan-X laut pcgh 13% teurer an, bietet dafür in gewissen Szenarien aber 60% Mehrleistung. Und wäre die Herstellung von Milan-X sauteuer, dann würde der Preis mehr wie nur um 13% steigen, weil AMD möchte sich mit so einem Produkt ja nicht die Marge versauen. Im Gegenteil, sie werden damit ihre Marge noch steigern. Alles andere wäre aus AMD Sicht schlicht und ergreifend dumm.
Dann hau doch die Quellen raus. Ist das so schwer für dich deine Aussagen zu untermauern oder bleibt das leeres Geschwätz?
Hier mal ein paar Beispiele dass es ggü. den typischen Epycs keine 13% sind:
Epyc 7343 1624€ vs 7373x 4229€ Preisdifferenz: ca. 2,6x
Epyc 7543 3581€ vs 7573x 6359€ Preisdifferenz: ca. 1,77x
Epyc 7763 4920€ vs 7773x 8767€ Preisdifferenz: ca. 1,78x
Quelle: https://geizhals.de/?cat=cpuamdam4&xf=16686_Epyc+7003

AMD nutzt die Situation, dass man mit Milan-X wesentlich mehr hochpreis Server CPUs verkaufen kann wie vorher mit den sehr nieschigen Sondermodellen. Dadurch hast du die Margensteigerung.
Ne es ist nicht legitim, da du einfach nur Schwachsinn von dir gibst. Die DIE Fläche hat sich eben nicht erhöht, da hier gestapelt wird und die Speicherbausteine sind sehr klein... Und wenn etwas sehr klein ist bekomme ich bei einer guten Yieldrate deutlich mehr davon aus einem Wafer.
Ergo ist die Herstellung davon nicht sauteuer wie von dir und ihm behauptet. Außer die Yieldrate wäre grottenschlecht, jedoch habe ich das im Bezug auf TSMC und die 7nm Fertigung noch nirgends gelesen...
Selbst bei einer 100% Yieldrate wirds teuer. Du hast ca. 50% mehr effektive DIE-Fläche egal ob man sie nun Stackt oder nicht. Der 3D-Cache muss trotzdem aus dem Wafer gefertigt werden also wirst du ca. 50% mehr Waferfläche nutzen müssen. Die gibts nicht kostenlos.
Ich geb dir mal ein Beispiel:
CPU Die 70% Yield bei einem Preis von 1 Preiseinheit pro belichteten DIE macht 1,43 Preiseinheiten pro funktionierendem CPU-DIE
Nun kommt ein 40% so großer 3D Cache mit 100% Yield. (Abschätzung zur sicheren Seite) Den gibts zum Preis von 0,4 Preiseinheiten.
Es kommt also Pro CPU Die ca. 28% höhere Kosten dazu.
Und das berücksichtigt nichtmal weitere Fertigungsschritte wie das Abschleifen oder Stacken.
Das bedeutet, dass der Rest mindestens 1,6 Preiseinheiten/CPU Die kosten muss damit man mit 13% Preiserhöhung keinen Margenverlust hätte. Und das halte ich für unrealistisch.
Wenn ich aber mal den Vergleich zum 7763 und 7773x ziehe dann sind es plötzlich 78% mehr und damit habe ich ziemlich sicher nicht nur die Kosten sondern auch die höhere Marge erzielt.

25 Dollar? 50 Dollar oder doch 100 Dollar? Oder noch mehr, da ihr schließlich von sauteuer redet.
Es weiß niemand, aber hey es ist ja in Mode gekommen, dass wenn man etwas nicht weiß man einfach mal behauptet es ist sauteuer und dann haben natürlich nur die anderen keine Argumente
So wie du der durchgehend behauptet AMD kann mit 13% Preiserhöhung die Marge steigern aber nicht einen einzigen Beleg vorlegt?
Aber schauen wir uns einfach den 5800X und die 3D Variante an. Laut geizhals aktuell eine Differenz von 190€, nehmen wir einfach 200€.
Dann sehe ich hier ehrlich gesagt nicht, dass die Fertigung sauteuer wäre. Und das hat auch einen ganz einfachen Grund, da AMD die Chiplets auch einfach als Milan-X verkaufen könnte, wieso sollen sie sich im Desktop die Marge versauen? Ja dann ist intel vorne, so what? Waren sie die Jahre davor auch im Gaming (9900K) und die Ryzens haben sich trotzdem gut verkauft.
Und wenn man sich dazu die finanziellen Zahlen bei AMD anschaut wird man feststellen, dass die sehr auf Erhöhung der Marge bedacht sind, ergo werden sie den 5800X3D auch so positionieren, dass sie damit viel Geld verdienen.
Und an der Stelle nochmal für dich Milan-X liefert in einigen Szenarien 60% Mehrleistung, kostet aber nur 13% mehr. Wäre es so sauteuer wie ihr behauptet, würde es deutlich mehr kosten bzw. würden wir es gar nicht im Markt sehen.
459 vs 269 sind ein Kostenunterschied von satten 70%. Damit erhöht man ja gerade seine Marge im Desktop Segment. Zumal Chiplets durch die Flexibilität ja gerade erlauben durch die ganzen Lineups das Angebot so zu steuern, dass die Margen möglichst hoch bleiben.
Du hast schlicht und ergreifend keine Ahnung, du nimmst einfach etwas an, für das du keinerlei Beweise hast und unterstellst AMD Dummheit. Sie sind nämlich nicht gezwungen Produkte anzubieten, die ihre Marge drücken...
Du erinnerst mich gerade richtig stark an Dunning-Kruger.
Nebenbei hast du anscheinend nicht mal verstanden was geschrieben wurde oder es einfach nicht gelesen. Ich habe nirgends behauptet AMD würde die Marge senken. Müssen sie auch nicht denn ggü. den normalen Server CPUs kann man sich preislich Massiv absetzen ;)
Strategisch macht AMD zur Zeit alles richtig.
 
@gerX7a

Was das Gerücht unterstreicht: Nach Koduri's Abgang ist man gegenüber Nvidia wieder konkurrenzfähig - und steigert sich. Das gab es vorher nicht. Die Steigerung von RDNA auf RDNA2 ist im Vergleich zu den vorherigen Generationen schon enorm.
 
Das Problem hat doch AMD schon das sie wesentlich weniger Grakas verkaufen weil sie schlechter sind. Das muss doch auch Intel wissen. Da brauch man doch nicht auch noch etwas veröffentlichen was so gut wie keiner haben will.
 
Es scheint sich so langsam das zu bestätigen, was ich seit Beginn an befürchtet hatte. Koduri passt in der aktuellen Situation nicht so wirklich zu Intel. Was meinte ein AMD Verantwortlicher zuletzt über ihn, er ist mehr Visionär als alles andere. Aufgrund Intels eher träger Firmenpolitik haben Visionäre dort eh schon einen schweren Stand. Da sollte Koduri mal bei Jim Keller nachfragen. Und in der aktuellen Situation braucht Intel erst recht keinen Visionär. Wenn ihnen in den letzten Jahren was abgegangen ist, dann vor allem Execution. Anhaltende Fertigungsprobleme, Produkte die weit hinter ihren Erwartungen zurückblieben, immer wieder Verschiebungen von wichtigen Produkten. Ich denke nicht, dass Koduri diese Probleme für die Grafiksparte so schnell lösen kann.
 
Dann hau doch die Quellen raus. Ist das so schwer für dich deine Aussagen zu untermauern oder bleibt das leeres Geschwätz?
Hier mal ein paar Beispiele dass es ggü. den typischen Epycs keine 13% sind:
Epyc 7343 1624€ vs 7373x 4229€ Preisdifferenz: ca. 2,6x
Epyc 7543 3581€ vs 7573x 6359€ Preisdifferenz: ca. 1,77x
Epyc 7763 4920€ vs 7773x 8767€ Preisdifferenz: ca. 1,78x
Quelle: https://geizhals.de/?cat=cpuamdam4&xf=16686_Epyc+7003

Lieber mit den absoluten Preisunterschieden arbeiten:
Bei 77XX: 480 Euro pro Chip
Bei 75XX: 350 Euro pro Chip
Bei 73XX: 330 Euro pro Chip
Bei Ryzen: 200 Euro pro Chip (in Anbetracht der Taktraten: 5700X als Basis)

Man kann nur mutmaßen, wieviel Spielraum AMD bei der zusätzlichen Marge hat, aber zumindest letztere CPU wurde gezielt als Konter gegen die Konkurrenz platziert und wird somit am unteren Ende liegen, der Rest in dem Bereich den man gerne hätte, wenn man stark genug ist die Preise frei zu wählen.

Aber wie will man damit Prozessoren im beliebten 150-250-Euro-Bereich realisieren, ohne die Marge massiv zu kürzen? Oder mit je zwei davon Ryzen 9 für unter 500 Euro? Zumal das Werte für TSMC N7 sind. Die Nachfrage für N5 ist weitaus kritischer, denn eigentlich wollte Großkunde Apple längst auf N3 wechseln, musste das aber wegen technischer Probleme bei TSMC verschieben. Mal eben 50 Prozent mehr Silizium je CPU verbauen geht also nur, wenn man bereit ist 33 Prozent weniger CPUs zu produzieren. Eine solche Entscheidung dürfte Intel noch mehr entgegenkommen als ein "nur guter" Geschwindigkeitsfortschritt von Zen 3 auf 4 ohne V-Cache.
 
Zuletzt bearbeitet:
Der Milchbauer müsste sich bei deren Kunden entschuldigen, wenn die Milch nicht gut ist.
Die Kunden kaufen keine schlechtere Milch, zu höheren Preisen.
RTX 3080 mit vollen 10GB Speicher :crazy: für schlanke ~1000+€ :banane:
Jaja Home Office und Co.

Der "Kunde" kauft jeden XYZ. Man muss es ihm nur lange genug einreden.
Auch die RTX 4080 wird sich wie geschnitten Brot verkaufen.
Wie will man schließlich auch ohne GPU seine Fridays for Future "Protest" planen.
 
@gerX7a

Was das Gerücht unterstreicht: Nach Koduri's Abgang ist man gegenüber Nvidia wieder konkurrenzfähig - und steigert sich. Das gab es vorher nicht. Die Steigerung von RDNA auf RDNA2 ist im Vergleich zu den vorherigen Generationen schon enorm.
Lol, du hast es nicht verstanden, oder? AMD hat zugunsten der RDNA2-Entwicklung (denn das war faktisch das, was man seit Mitte des letzten Jahrzehnts für die Konsolen entwickelte) Arbeitsstunden und Ressourcen von der Entwicklung dedizierter GPUs abgezogen und sich auf die Kooperation mit Sony/Microsoft konzentriert, weil die gesicherte Absatzzahlen versprachen (zwar bei geringer Marge aber dafür mehrjährig und großvolumig), was zu der Zeit für AMD dringend notwendig und ein zwingender Sicherheitsfallschirm war, denn wenn Intel bei seiner 10nm-Entwicklung besser (oder eher nicht ganz so schlecht) vorangekommen wäre, wäre AMDs wirtschaftliche Entwicklungskurve, wie man sie nun beobachten konnte, deutlich gehemmt worden, weil Intel weitaus konkurrenzfähiger gewesen wäre.
Entsprechend wurde Vega zusammengestaucht und man brachte auch in den Folgejahren lediglich einen mäßig überarbeiteten Shrink in Form von Vega20 heraus *) und fertigte Alt-Produkte über viele Jahre, weil man keine Ressourcen für was Neues hatte. Beispielsweise CDNA kam erst deutlich später auf den Plan, als man mehr Geld und Ressourcen vorweisen kommte. Und das vermeintliche RDNA ohne Nummer bzw. das was AMD in 2019 als Navi10 herausbrachte, war voraussichtlich ein billiger SpinOff der eigentlichen Konsolenentwicklung, der soweit zurechtgestutzt werden musste, dass man Sony/Microsoft ggü. nicht vertragsbrüchig wurde, denn schließlich entwicklete man die Architektur in deren Auftrag und konnte natürlicherweise diese nicht schon 18 Monate vorm Konsolenlaunch auf dem PC in dem Markt bringen. Und in 2019 (ggf. etwas später im Jahr) hätte man RDNA2 sicherlich schon bringen können, wenn man gedurft hätte, denn Entwickler weltweit arbeiteten schon in umfangreichem Maße mit Prototyp-Boards der NextGen. Entsprechend fragwürdig waren auch AMDs Marketingäußerungen seit Mitte 2018 zum Thema Raytracing, denn natürlich wusste man, dass man nichts dergleichen vor Ende 2020 in den Markt bringen dürfte, da man sich schon lange zuvor vertraglich festgelegt hatte.

Mit Koduri hat das nichts zu tun, weder im Positiven noch im Negativen. - Den meisten Menschen fällt es zwar einfacher sich einen Sachverhalt zu merken, wenn man daraus eine in sich schlüssige Geschichte spinnt (schlicht weil unser Gehirn darauf ausgelegt ist), das hat aber nicht unbedingt was mit projekttechnischen oder wirtschaftlichen Realitäten und objektiven Sachverhalten zu tun. Darüber hinaus war er nur einer von Hunderten Mitarbeitern in der RTG, zwar ein wichtiger, aber dennoch nur einer von vielen und auch wenn Gehälter manchmal was anderes suggerieren, so designed, entwickelt, validiert und fertigte ein Koduri ebensowenig einen GPU-Chip im Alleingang wie ein Ferdinand Piech dies jemals mit einem Auto aus der Volkwagengruppe getan hat. ;-)

*) Übrigens auch ein Design mit dem man erneut kaum punkten konnte, im Consumer-Markt erst recht, aber dafür war das Design ja grundsätzlich auch nicht gedacht. Im professionellen Segment konnte man jedoch dennoch nicht gegen nVidia bestehen und so stampfte man den Vollausbau schließlich ein und verkaufte die Kapazitäten mal wieder quasi exklusiv an Apple, wie so oft im letzten Jahrzehnt, denn AMD war im vergangenen Jahrzehnt GPU-technisch weitestgehend ein Auftragsfertiger, der diese Entwicklungen lediglich auch für sich mitverwendete. Beispielsweise über Apple dürfte AMD indirekt weitaus mehr Vega abgesetzt haben als es AMD selbst mit seinen eigenen Produkten konnte und Polaris war nicht minder mit Blick auf Apple entwickelt worden.
 
Zuletzt bearbeitet:
Zurück