Wie ich das damals in amerikanischen Zeitungen gelesen habe, wurden die gezwungen ihre Fabs zu verkaufen. Die Kassen bei AMD waren zu der Zeit so leer, das die Wirtschaftsexperten von sechs bis neun Monaten bis zur absoluten Zahlungsunfähigkeit ausgingen. Bewusste Entscheidung ist was anderes, die hatten keine andere Wahl.
Die Kassen waren leer, weil AMD sich dazu entschlossen hatte, hohe Kredite auf das gesamte Firmeninventar aufzunehmen und zusammen mit sämtlichen Barreserven in den Kauf eines GPU-Entwicklers zu stecken. Eines GPU-Entwicklers, der auf dem Höhepunkt seiner Geschichte bis dato entsprechend viel kostete und ein Kauf, durch den AMD vorhersehbar die Unterstützung des damals wichtigsten, kaum ersetzbaren Plattformpartners verlor. All das in einer Situation, in der die Konkurrenz ihr Kerngeschäft nach Jahren voller Falschentscheidungen endlich einem radikalen Kurswechsel unterzog und Technologien durchführte, die den AMD-eigenen Produkten seit längerem überlegen waren.
Um eine Analogie zu wagen: Wenn jemand seinen Fernseher verpfänden muss, weil der Magen noch leerer ist als das Konto, dann hat der in dem Moment auch keine Wahl. Aber wenn das Konto leer ist, weil derjenige kurz nach Ankündigung einer saftigen Mieterhöhung erst einen 20 Jahre laufenden Kredit zum Kauf eines neuen Nobelschlitten aufgenommen und danach auch noch seinen Job gekündigt hat, dann trägt er trotzdem die Schuld an der Lage und allem, was daraus resultiert.
Naja, es kommt auf die Sichtweise an. Technisch mag das alles stimmen, aber faktisch ist es nunmal so, dass man seit Sandy Bridge keine wirklich großen Sprünge gemacht hat, wenn man CB trauen mag, dann hat man zwischen Sandy Bridge alias 2600k und Coffee Lake = 8700k lediglich 66% Leistung geholt (Gaming 720p), das entspricht je Gen einem Schritt von 8,8% Leistungssteigerung. DIch denke diese geringen Steps werden Intel vorgeworfen, vor allem wenn man bedenkt wie stark man Sandy seinerzeit optimieren konnte, da waren 30% Mehrleistung durch OC und RAM gut möglich, der 8700k konnte 9% hinzugewinnen. Der "optimierte" Abstand somit gar nur 38%!!!
siehe CB
Laut dem von dir verlinkten Test liegt der optimierte i7-8700K in Anwendungen 104 Prozent vor dem optimierten i7-2600K und der Spieleschnitt ist für weitere Analysen nicht zu gebrauchen. Da wollte man offensichtlich den Nutzen seinerzeit neuer CPUs in Alltagsszenarien vorfüheren und hat die Hälfte der Titel so gewählt, dass ein Teil der CPUs längst im GPU-Limit steckt. Die "Optimierung" beim i7-8700K ist zudem derart unglücklich geraten, dass das getunte Exemplar im noch am besten skalierenden AS:Origins sogar schlechtere Frametimes abliefert als mit Intel-Specs. Selbige wiederum haben 160 Prozent Vorsprung auf den Stock-i7-2600K. Das alles wohlgemerkt bei niedrigerem Leerlauf- und sowohl Stock vs. Stock als auch Tuning vs. Tuning kaum gestiegenem Verbauch bei realen Lasten.
Über so viel Fortschritt bei Intel-CPUs wäre man die folgenden Jahre sehr froh gewesen – und dabei betrachten wir hier mit den i7-8000 schon die architektonische Stagnationsära zwischen -6000 und -10000. Eignetlich müsste man den i7-6700K als Bezugspunkt nehmen und die Fortschritte auf einen entsprechend kleineren Zeitraum umlegen. Das ergäbe (jeweils Spec/getuned) dann -30/-16 Prozent Verbrauch idle, -9/-10 Prozent Verbrauch in Anwendungen bei +49/+29 Prozent Leistung binnen vier Jahren. Hätte Intel das gleiche Tempo ausgehend vom i9-10900K hinbekommen, würde der i9-14900K sowohl bei Rechenleistung als auch Effizienz auf Augenhöhe mit dem 7900X3D landen. Und der 10900K ist schon ein eher mäßiger Ausgangspunkt.
Warum teils du dies nicht "im geringsten"?
Weil es jeglicher Logik widerspricht, dass TSMC die gleiche Leistung erbringt, Milliarden Gewinne für sich verbucht und am Ende trotzdem noch einen niedrigeren Preis macht. Wer eigene Fabs hat, zahlt nur die Produktionskosten. Wer Kapazitäten extern bucht, zahlt die gleichen Produktionskosten plus die Gewinnspanne der Foundry. Also unterm Strich mehr.
Verglichen mit einer komplett autark arbeitenden, eigenständigen Fertigung wie bei Intel können sich zwar Skalenvorteile bei der Entwicklung ergeben, wenn diese von mehreren Kunden genutzt und refinanziert wird. Aber: AMD war nie Intel, sondern hat immer kooperiert, vor allem mit IBM. Die Entwicklungskosten für die letzten in-House-Prozesse bei AMD wurden also ebenfalls nicht allein auf AMD-Produkte, sondern auch auf IBM-Produkte umgelegt und meiner Erinnerung nach gab es auch noch kleinere Kunden/Partner. Nur weil diese Verteilung jetzt unter dem Dach von TSMC abläuft, bringt sie keine zusätzlichen Einsparungen. Durch den Verkauf der Fabs hat sich AMD somit nur operativ in eine schlechtere Lage gebracht und die Kosten gesteigert. Aber sie haben halt auch kurzfristig eine Menge Geld in die Kassen bekommen, was in aktuer Finanznot wichtiger war und auch die laufenden Mehrkosten eine gewissen Zeit gedeckt hat. Später folgten dann weitere Firmenteile bis sogar der Wert der eigenen Bürogebäuden in kurzfristigen Cashflow zulasten längerfristiger Leasing-Raten umgewandelt werden musste...
Es gab viele Analysten, die gaben AMD kurz vor dem Ryzen-Launch keine zwei Jahre mehr und das auch nur wegen der Einnahmen aus den Konsolen. Während ich mir da nicht so sicher war, schließlich hat AMD auch in der Athlon-Zeit praktisch durchgängig rote Zahlen geschrieben und trotzdem Investoren an Land gezogen, wäre es mit einem funktionierenden Canon Lake als Gegner verdammt eng geworden.
Ob es billiger ist? Ob es richtig war? Ich kann dir mit 100%iger Gewissheit sagen, dass es richtig war! Man krebste mit "teilweiser" eigener Fertigung jahrelang (seit Sandy) hinter der Intelfertigung her und hat nie auch nur im gerinsgten Ansatz die Lücke schließen können, es lag immer mind. eine Prozessbreite zwischen AMD und Intel und dann hatte Intel noch den jeweils bessern Prozess.
Nicht erst seit Sandy. 250 nm, 180 nm, 130 nm, 90 nm, 65 nm, 45 nm, 32 nm, 22 nm – ich bin jetzt zu faul, es auch für die 90er Jahre zu prüfen, aber Intel hatte bei jedem einzelnen Node die Nase vorn. Manchmal nur knapp, aber selbst die stark verspätete 130er Northwood kamen noch vor Palomino auf den Markt. Zeitweise konnte AMD eine halbe bis fast einen ganzen Node durch die qualitativen Vorteile von FD-SOI ausgleichen oder Intel hat, wie bei 90 nm, einfach ins Klo gegriffen. Aber in der Strukturbreite war AMD immer hinterher, bis man ganz aufgegeben hat.
Und das hat sich nicht einmal dadurch geändert, dass AMD zu TSMC gewechselt ist. Tick-Tock sah vor: 10 nm 2017, da nutzte AMD 14 nm TSMC. Dann 7 nm 2019. Da wechselte AMD gerade auf TSMC N7; ein Prozess der 10-nm-Klasse. Logische Folge wären 5 nm 2021 gewesen, wobei Tick-Tock nie eingehalten wurde, als realistischer Weise 2022, als AMD N5, also die 7-nm-Klasse eingeführt hat. AMD hat nach dem Wechsel der Fertigung also 1:1 mit dem "immer eine Generation hinter Intels Planungen" weitergemacht und kein Zähnchen zugelegt. Was sich geändert hat, war der reale Forschritt bei Intel. AMD ist nicht vorbeigezogen, sondern Intel hat den Anker geworfen und 2017 nicht 10 nm, sondern nochmal 14 nm gemacht. Und 2019 nicht 7 nm, sondern immer noch 14 nm. Und 2021/2022 haben sie dann 10 nm zwar endlich unter dem Namen "Intel 7" gebracht (weil TSMC ihren 10-nm-Prozess halt auch "was mit 7" nennt), aber mit dem eigentlich anstehenden 5 nm hat das denkbar wenig zu tun. Diese Klasse, die eigentlich noch mit Zen 3 hätte konkurrieren sollen, kommt erst jetzt, 2023/2024 mit Meteor Lake und Arrow Lake (es sei denn, die werden nochmal verschoben) und wird dann im Desktop wohl gegen Zen 5 antreten müssen.
Aber so positiv Intels Lahmarschigkeit für AMDs Marktposition auch sein mag: Sie resultiert nicht aus dem Verkauf der AMD-Fabs. Hätte AMD diese behalten und das damalige Entwicklungstempo weitergehen können, hätten wir heute vermutlich genau den gleichen Stand und AMD die fortschrittlichsten x86-Herstellungslinien. (Aber: siehe unten)
Daher nochmal, der Schritt von AMD war zu 100% richtig, retroperspektivisch betrachtet.
Retrospektiv ist da sicherlich richtig – deswegen schreib ich im letzten Absatz auch
hätte können. In Anbetracht dessen, dass Global Foundries die zugehörigen Pläne dann beerdigte, IBM auch aufgegeben hat, Samsung hinterherhinkt und Intels Aufholpläne auf dem Papier warten, während TSMC als einzige Foundry das alte Entwicklungstempo halten konnte, besteht durchaus die Gefahr, dass AMD die eigenen Fabs doch noch auf die Füße gefallen wären. Aber das war nicht der Grund für den Verkauf. Bei dem ging man noch davon aus, dass die Halbleiterwerke eine Zukunft in Spitzenposition haben, sonst hätten die arabischen Investoren nie so viel Geld dafür gezahlt. AMD hat damals seine Kronjuwelen verkauft, weil man sich mit der ATI-Übernahme grandios verspekuliert hatte. Dass sich besagte Kronjuwelen später als Imitate aus Glas und Katzengold herausgestellt haben – Glück im Unglück. Und ganz großes Glück, dass es der Konkurrenz mit ihren Erbstücken genauso erging, während der neue Partner TSMC zufällig der einzige mit echtem Edelmetall ist.
verkehrte Welt? Intel ist aktuell in der absoluten Leistung (Desktop) vorne, dafür ist AMD im Gaming vorne. Knapp sind die absoluten Abstände im Desktop, die relativen Abstände (Effizienzschiene) sind dagegen enorm und sehr zum Vorteil von AMD. Im Gaming deklassiert AMD die Intel CPUs derzeit gar.
Jein. In Spielen hat Intel definitiv gar keine Chance gegen die X3D, aber in Anwendungen sieht es gegen den normalen 7950X auch nicht gerade rosig aus. Bei uns im Parcours schafft es der 13900KS ganz knapp, aber der normale 13900K unterliegt bereits. Wenn man mehr Prozesse hat, die tatsächlich mit vielen Kernen umgehen können, anstatt die RAM-Transferrate von schnellem DDR5 zu prüfen, dann ist AMD auch mal im Gesamtschnitt vorne. Unter Berücksichtigung des Energieverbrauchs sowieso.
Intel kann im Moment nur mit zwei Dingen punkten: Die Architektur ist taktfreudiger sowie pro Takt tendenziell leistungsfähiger (ob das an den Kernen oder an der besseren Verbindung liegt, ist leider schwer zu differenzieren) und der Speichercontroller skaliert wesentlich besser. Aber letzteres bringt nur wenig, solange Intel die Specs so konservativ ansetzt und DDR-7000+ so teuer ist; ersteres wird durch die veraltete Fertigung mehr als aufgefressen. Erst Intel 4 soll zu TSMC N4 vergleichbar ausfallen. Wenn das stimmt, können wir dann also mal ein real-sind-es-7-nm-Duell zwischen Arrow Lake und Raphael machen und vermutlich gewinnt Intel dann auch klar. Aber das wird halt ein Duell zwischen 2022er AMD und 2024er Intel-CPU. Für den Markt in etwas so relevant wie Ryzen 2000 gegen Skylake.