Let it Zen. XD
Für mich als Kunden ist es nur von Vorteil.
Schön wäre es, wenn es wirklich stimmt. Der unterschied zwischen Intel und Nvidia ist aber, dass sich Nvidia sich nicht auf der GPU Entwicklung ausruht und nichts neues bringt. Ich denke dann wird auch zufällig ziemlich früh eine 6000 Serie oder eine 5090 mit Chiplet Design kommen.
a) Dein Satz ist etwas verunglückt, aber wolltest du erklären, dass Intel sich ausruht? Wenn ja, weiter daneben liegen könntest du wohl gar nicht. Die haben innerhalb vergleichsweise kurzer Zeit stetige Verbesserungen an den Treibern bereitgestellt und bereits Lunar Lake hat gezeigt, dass Battlemage eine signifikante Weiterentwicklung darstellt. Selbst wenn sie nVidia nicht schlagen können, in welcher Metrik auch immer und wovon schwer auszugehen ist
kann man ihnen die deutliche Weiterentwicklung nicht absprechen.
b) Als absoluter Marktführer ist es unwahrscheinlich, dass sich nVidia hier nennenswert unter Druck setzen lässt. Die werden sicherlich nicht mal eben ihr Amortisierungsfenster für Blackwell verkürzen und RTX 6000 vorzeitig veröffentlichen, nur weil AMD meint seinen Comeback-Versuch etwas früher angehen zu müssen.
Zudem, die Chiplet-Äußerung ist unbegründet ... entweder ist der GB202 grundlegend ein Chiplet-Design und dann wird etwas wie eine spätere, mögliche 5090 Ti oder ggf. Super es zwangsweise auch sein oder der GB202 ist grundlegend als monolithischer Chip entwickelt worden und dann bleiben auch später veröffentlichte Blackwell-(Refresh-)Designs monolithisch. Sollte Blackwell zurzeit über alle Chips hinweg monolithisch sein, dann wird erst die bisher noch unbenannte NextGen möglicherweise auf ein Chiplet-Design wechseln und auch hier könnte es immer noch bei einem "
möglicherweise" bleiben, weil ein Wechsel auf einen 3nm-Node, also ein Full-Node-Sprung, mit der NextGen erwartet werden kann und sie möglicherweise damit immer noch genug Puffer über alle Metriken hinweg zusammengenommen haben, um dann letztmalig erneut mit einem monolithischen (
weniger Komplexität, damit auch weniger Risiko und auch weniger Aufwand) Design aufwarten zu können ...?
*) Zumal eine pauschales monolithisch vs. MCM bzg. einer ganzen GPU-Gen per se ungenau ist, da die kleineren Chips noch längerfristig rein monolithisch gefertigt werden, weil es schlicht effizienter ist. Beispielsweise wird AMD aus wirtschaftlichen Gründen eher gezwungen zu sein ein MCM-Desing weiterreichender zu nutzen als ein nVidia, dass seine Fertigung über viel mehr Märkte mit jeweils um ein Vielfaches höherem Umsatzvolumen verteilen kann.
Also "entschieden" ist hier vielleicht das falsche Wort.
Wohl ist es eher so, dass die Zusammenarbeit [Sony & AMD] lange klar war [...]
"Lange klar" ist unwahrscheinlich. Auch die neue Konsolengeneration wird zweifellos ausgeschrieben worden sein und dementsprechend dürfte da nichts "lange klar" gewesen sein. Nicht umsonst hörte man auch diesmal gar explizt von Intel in diesem Kontext. Sony hat kein Geld zu verschenken oder AMD in den Rachen zu werfen und dementsprechend werden sie selbstredend AMD mit einer Ausschreibung unter Druck setzen *) und sich bspw. auch Angebote von bspw. nVidia und Intel eingeholt haben und selbst Qualcomm könnte hier ein Adressat gewesen sein. Letzten Endes besteht kein zwingender Grund ein so hochspezifisches Produkt wie eine Konsole auf x86 oder gar AMD-HW aufzubauen. Hier hätte bspw. jeder der drei Lösungen anbieten können ... ob man einen Umstieg erneut machen wollte, ist eine andere Frage, ebenso ob einer der anderen Hersteller für den von Sony anvisierten Preis überhaupt noch ernsthaft interessiert gewesen wäre. Das Einholen entsprechender Angebote bei der Konkurrenz wird aber seinen Hauptzweck zweifellos nicht verfehlt haben.
*) ... wie schon immer ... AMD hat bspw. zuletzt den Konsolendeal zur PS5 nicht bekommen, weil sie die einzigen waren die so etwas abliefern konnten, definitiv mitnichten, ... AMD war schlicht die Firma mit ausreichend KnowHow für den Auftrag, die man am stärksten zu preislichen Zugeständnissen zwingen konnte, weil AMD insbesondere zu der Zeit sehr auf den Deal angewiesen war.
[...] und AMD wie schon bei RDNA Resourcen gepooled hat um eine neue Architektur für PCs und Konsolen gemeinsam zu bringen. [...]
Das "Ressourcen poolen" dürfte hier keine zutreffende Sichtweise sein, weil sich die nun kommende Gen bzgl. der Marktsituation deutlich von der damaligen im letzten Jahrzehnt unterscheidet und damals hatte man definitiv nichts "gepoolt"
Das AMD-Management hatte hier damals entschieden, dass das Konsolenprojekt für Sony/Microsoft priorität hat und dementsprechend hatte man Koduri einen nennenswerten Teil der Ingenieuere für die GPU-Entwicklung entzogen und diese auf das Konsolenprojekt gesetzt. Diese Neuausrichtung bzgl. der RTG führte auch schließlich zu Koduris Weggang bei AMD und Vega musste mit weitaus weniger Arbeitsstunden zu Ende entwickelt werden, als es ursprünglich mal vorgesehen war. Das, was später als RDNA2 auf dem PC veröffentlich wurde war primär das speziell für Sony/Micorosft entwickelte Design. AMD hatte schlicht keine Ressourcen hier parallel eine dedizierte Arch für den eigenen Bedarf zu entwickeln. Man brachte das vermeintliche RDNA(1), mehr schlecht als recht, das sich lediglich so weit von RDNA2 (bzw. dem eigentlich/ursprünglichen RDNA) unterscheiden musste, dass man nicht mit/zu Sony/Microsoft vertragsbrüchig wurde und man durfte die neue Arch schließlich nicht vor der Konsoleneinführung für eigene Zwecke in den Markt bringen.
Heute sieht die Sachlage dagegen anders aus. AMD nimmt das Geschäft gerne mit, ist aber längst nicht mehr in der Bittstellerposition. Die werden hier ihre GPU-Arch weiterentwickeln, UDNA scheint nun die neue Ausrichtung zu sein und man wird diese schlicht Sony optional mit ein paar kleineren, spezifischen Anpassungen für die Konsolen-SoCs anbieten und Sony (und ggf. MS?) die Flausen austreiben indem man sagt, das ... oder wenn ihr ein ganz eigenes, individuelles Design haben wollt, wird es halt deutlich teuerer (
im Endeffekt die höfliche Form eines unverblümten "das oder gar nichts" ).
Gegenüber anderen Konkurrenten hat AMD natürlich immer noch den Vorteil, dass man eine inkrementelle Verbesserung auf Hardware- wie Softwareseite ggü. der LastGen anbieten kann, während bspw. nVidia, Intel, Qualcomm hier die Hardware und das gesamte SW-Ökosystem drumherum hätten neu aufbauen müssen, was aus Sicht von Sony/MS zu weiteren Reibungsverlusten führt, die es in der Gesamtbewertung zu berücksichtigen gilt.
Hätte aber bspw. ein nVidia um jeden Preis den Konsolen-Deal haben wollen, die hätten wohl kein Problem gehabt den Zuschlag zu erhalten. Deren Grafik-KnowHow steht eh nicht zur Diskussion und ein leistungsfähiges SoC auf ARM;-Basis hätten die problemlos realisieren können. Letzten Endes darf man bei bspw. konkret nVidia aber eher von einem mäßigen bis gar geringem Interesse ausgehen, was sich natürlich in deren preislichem Angebot niedergeschlagen haben wird.
[...] Ob man auf Zen 4 oder 5 setzt? Die Frage ist dann wohl eher ob auf Zen 5 (2024) Zen 6 (2026*) oder gar schon Zen 7 (2028*)
*= reine Vermutung aufgrund des 2- Jahres Zyklus' [...]
Hier ist mir nicht ganz klar, was du mit diesem Satz sagen wolltest ... Zen7 spielt per se keine Rolle weil zu weit in der Zukunft. Selbst Zen6 könnte möglicherweise noch zeitlich grundsätzlich ausgeschlossen sein.
Und eine Entscheidung zwischen wohlmöglich Zen4 und Zen5 dürfte schlicht eine Preisfrage sein, denn selbstredend wird AMD versuchen Sony mehr abzuknöpfen, wenn sie ein aktuelleres Zen5-Design nutzen wollen.
Darüber hinaus bedeutet die Verwendung dieser Architektur nicht, dass der primäre Node (
das Konsolen-SoC könnte mit einer gewissen Wahrscheinlichkeit weiterhin rein monolithisch gefertigt werden) bei aktuellen 4nm bleiben muss. Das Zen4/5-Design könnte durchaus auf einen 3nm-Node transferiert werden und man könnte dennoch CPU-seitig Zugewinne trotz der deutlich älteren Arch verbuchen.