Wobei man schon sagen muss, dass die 7900XTX erstaunlich gut funktioniert, dafür, dass es ja schon irgendwie der erste Ansatz eines MCM Designs ist, klar rechnen hier nicht schon zwei GCDs zusammen, [...]
Nein, nicht wirklich und du skizzierst schon selbst was das eigentliche Ziel ist und was man offensichtlich immer noch nicht erreicht hat. Die Speichercontroller auszulagern ist vergleichsweise trivial, bei GPUs ist die eigentliche Herausforderung mehrere Chips mit Rechenkernen/Shadern zusammenarbeiten zu lassen, latenztechnisch wie auch Cache-kohärenztechnisch und eine optimale Lastverteilung, etc.
Wie schon erklärt, daran arbeitet die gesamte Industrie schon seit gut einem Jahrzehnt (
wohlgemerkt Grafik-Workloads, nicht Compute-Workloads auf GPUs). Aktuell gibt es lediglich mit der
C-Series von Imagination Technologies ein entsprechend skalierbares Design ink. Raytracing und inwiefern deren Lösungsansatz auf die deutlich größeren und leistungsstärkeren PC-GPUs übertragbar ist, ist ein anderes Thema.
Darüber hinaus, als allgemeine Anmerkung: Es ist wenig wahrscheinlich, dass bei Thema GPU-MCM AMD dem Marktführer hier irgendwas voraus hat (
zumal beide mit TSCM zusammenarbeiten). Entspechend bleibt es auch bzgl. der zukünftigen Gen bewertungstechnisch erst mal dabei, dass wenn nVidia möglicherweise ein weiteres Mal "nur" mit einem monolithischen Design aufzuwarten gedenkt, die sich das wohlüberlegt haben werden.
Das wird in den kommenden Jahren ganz klar immer das Problem sein, so lange sich CPUs und vor allem Konsolen gut verkaufen, sind von den verfügbaren Kapazitäten eben schon recht viel gebunden. Daher wird man unter Umständen eben diesem Umstand Rechnung tragen und den High End Bereich (Enthusiast glaube ich persönlich einfach nicht) fallen lassen, so wie man es ja seit der 7970 eigentlich immer getan hat (da hieß bei NV das Kind halt nur anders und wurde in Titan umgewandelt, wo man dann auf Grund der sehr guten RDNA 2 Gen, plötzlich wieder das Namensschema ändern musste um nicht mit der 3080 gegen die 6900XT komplett abzuschmieren).
Die Konsolen haben damit nichts zu tun. Hier sind Packaging-Kapazitäten eher der limitierende Faktor, während die Konsolen ein monolithisches Design darstellen und zudem eine Produktkategorie mit geringer Marge darstellen, die AMD eher zugunsten anderer Produkte absägen würde, wenn sie könnten. Der Vertrag wurde 2016/17 jedoch zur Sicherung des Cash Flow benötigt und entsprechend band man sich hier (erneut) an Sony/Microsoft. Man darf gespannt sein, wie das in 2027+ weitergehen wird mit den Konsolen, denn AMD dürfte dann eine deutlich gestärkte Marktposition inne haben und das bedeutet, dass man sie nicht mehr so "leicht" runterhandeln kann. Denkbar wäre gar, dass es dann wieder einen echten Wettbewerb bei der Konsolenausschreibung geben wird und möglicherweise kommt die NextGen dann gar von jemand anderem oder wohlmöglich gar aus dem ARM-Lager?
Zu dem konkreten RDNA4-Gerücht hoffe ich sehr dass das ein Irrtum war oder man schlicht nur noch nichts vom eigentlichen HighEnd gehört hat, vielleicht weil dieses erst für 2025 vorgesehen ist? Wer weiß, aber wenn hier AMD komplett die Reißleine zieht wäre das schlecht für den PC-Markt.
Wobei die Gerüchte dort von einem Effizienzsprung bis zu 60% sprechen, was ja schon ein immenser Sprung wäre. Aber ich denke (interpretiere) mal in deine Aussage, dass ein Leistungssprung im High End gemeint ist.
Dass man darauf und auf AMDs Werbeaussagen nicht viel geben kann, hat man doch erst "kürzlich" bei RDNA3 gesehen. Der signifkante Fortschritt ggü. RDNA2 ist zweifellos gegeben, dennoch unterliegt man der Konkurrenz und ist gar effizienztechnisch klar schlecher aufgestellt. Hier wird man abwarten müssen was konkret mit RDNA4 kommt und ob es AMD diesmal vermeiden kann seine Hardware mit einem handfesten Hardware-Bug zu veröffentlichen.
Sehe ich etwas anders, Nvidia ist ohnehin vorne weg, die Karten in 5nm werden ja eher "günstiger", 3nm wird wieder einen deftigen Schluck aus der Pulle nehmen und die Preise bei TSMC werden nicht schlecht werden. Intel ist einfach noch keine ernsthafte Gefahr, die Karten haben an allen Ecken und Enden unnötig Baustellen. Eine Arc 770 liegt bei rund 50% der Leistung einer 6900XT, beide in 7nm Prozess gerfertigt, eine 7900XTX ist 132% weg, bei gleichzeitig überlegener Effizienz! Da wird Intel noch mind. zwei Generationen brauchen und jedes Mal immense Schritte machen müssen um in den Bereich der RDNA3 zu kommen, denn selbst in N3P geferfigt würde die ARC nicht in den Bereich einer RDNA3 Karte kommen!
Ich kann mir schon vorstellen, dass man im N5P wildert und mit 10-15% IPC Verbesserungen, evtl. zusätzlichem Cache einiges verbessern kann. Dazu evtl. noch GDDR7 und dann wird man schon 30% Leistungssteigerung anpeilen können, im nur minimal verbesserten Prozess. Klar ist, das High End ist dann kein Zielbereich, dafür ist die 4090 einfach zu gut! Aber man hat dennoch mit solch einer theoretischen GPU vieles auf seiner Seite, man kann günstig anbieten, denn so ein GCD ist ja nicht wirklich groß (300mm²), während NV doch schon immens Chipfläche verbrät (608mm²), da wird alleine der Unterschied im Yield, mal abgesehen von der möglichen Platzierung auf dem Wafer und der Verteilung schon eine Menge Unterschied machen. Die MCDs sind ja sogar nur 37mm² groß (in einer 7nm Fertigung), da wird der Yield enorm sein.
Das sei dir zugestanden, ändert aber nichts am Fakt, dass AMD ohne eine moderne Fertigung keine großen Sprünge, sondern nur kleine iterative Schritte machen kann und das wird absehbar schnell zum Problem bzw. führt zu mangelnder Konkurrenzfähigkeit, denn nVidia wird zweifellos den Fertigungsprozess upgraden, im worst case für AMD gar hin zu einem 3 nm-Prozess. nVidia kann sich übrigens 3 nm aufgrund ihrer beträchtlich größeren Marktanteile weitaus eher leisten als AMD für seine regulären GPU-Produkte, was ja auch der Grund dafür ist, dass AMD sehr kostensensitiv bei GPUs ist und entsprechend, sowie vielfach fehlinterpretiert, diente das MCM-Design bei RDNA3 primär der Kostensenkung. Ob man bei RDNA4 ggf. schon multiple GCDs zu sehen bekommen wird, muss man erst noch abwarten oder hoffen, dass derartiges ggf. 2025 nachgereicht wird?
Entsprechend wird das 2024er-RDNA4 vermutlich einen 4 nm-Prozess nutzen ... es sei denn, die Gerüchte bewahrheiten sich doch und man zieht sich aus dem oberen GPU-Marktsegment zurück und will lediglich den GPU-Markt nicht gleich komplett aufgeben und bleibt in dem Fall extrem kosteneffizient doch noch auf einem 5 nm-Prozess. In dem Fall würde man sich aber vermutlich eher selbst ein Ei legen, denn dann würde man beträchtlicher Konkurrenz gleich aus zwei Lagern gegenüberstehen, einerseits nVidia, andererseits dann auch Intel.
*) Anmerkung: Das mit dem "günstiger werden" hat bei TSMCs Prozesskosten in den letzten zwei Jahren aufgrund der mehrmaligen Preiserhöhungen seitens TSMC eher nicht geklappt und obwohl bspw. 5 nm schon seit 2020 im Markt sind, haben sich die Wafer-Preise bisher "erschreckend" wenig verringert ...
**) Btw, Intel ist für AMD eine weitaus größere Konkurrenz, als es vielleicht gemeinhin den Anschein hat, wenn man sich JPRs letzte Zahlen ansieht. Einerseits hat AMD bei Add-In-Boards grundsätzlich beträchtliche Marktanteile (
trotz RDNA2 und 3) verloren, andererseits geben die nun Intels Anteil als bereits 1/3 so groß wie der von AMD an. Das ist bereits ein signifkanter Anteil (
oder unterstreicht wie wenig AMD eigentlich verkauft), insbesondere wenn man berücksichtigt mit welchen Startschwierigkeiten Alchemist in den Markt kam. Sofern Intel hier nicht den Stecker zieht, rechnen muss man damit immer, darf man hier in 2024 mit durchaus etwas einigermaßem Konkurrenzfähigem rechnen und auch diese Startschwierigkeiten werden für Battlemage höchstwahrscheinlich entfallen.
Daher hat AMD in meinen Augen tendenziell den Vorteil viel mehr Chipfläche anbieten zu können als NV, weil eben der Yield deutlich besser sein müsste bei der MCM Bauweise.
Nein, zweifellos nicht, denn wie schon eingangs erklärt ist das schlicht eine Designentscheidung von nVidia und wenn die der Meinung sein sollten, dass die um markttechnisch bestehen zu können, ein MCM benötigen werden, wird das schlicht kommen. Wie gesagt, es ist unwahrscheinlich, dass AMDs kleine GPU-Sparte nVidia hier nennenswert was voraus hat. (
Und nein, das ist eine Marktbewertung und hat nichts mit Bauchgefühl oder persönlicher Präferenz zu tun. )
???
1.) Ja, designtechnische Probleme müssten gelöst werden, siehe aber oben, ein Teil davon ist ja bereits gelöst und funktioniert durchaus überaschend gut (MCDs)
2.) beliebig viele wird man nicht koppeln können, denke aber, dass zwei derzeit schon "Sinn" ergeben könnten, gerade wenn man eben RT mit reinbringt, preistechnisch aber wahrscheinlich weniger sinnvoll.
3.) Mehr aktives Silizium verbraucht nicht automatisch mehr Strom, das ist Quatsch. Überhaupt ist meines Erachtens nach kein Rückschluss von der Fläche auf den Verbrauch zu schließen. Wie sonst wäre es zu erklären, dass bspw. nur ein BIOS (EffizienzBIOS) alleine schon einen Unterschied von 100W zu 500W Verbrauch machen kann? In der Regel ist es sogar so, dass mehr Silizium positiv auf den Verbrauch wirkt, bspw. 3D gestackter Speicher auf den aktuellen Ryzens.
1) Nein, hat man bisher nicht wirklich gelöst, wie gesagt, das Speicherinterface auszulagern ist dagegen vergleichsweise trivial. Und überraschend gut funktioniert es eben nicht, es funktioniert, nicht mehr und nicht weniger. Würde es nicht funktionieren, würde man gar nicht darüber reden, weil das Design nicht über einen Prototyp-Status hinausgekommen wäre.
Darüber hinaus funktioniert es mit Einschränkungen, da AMD hier einen handfesten Hardware-Bug im Desing hat, der genau diesen MCM-Ansatz betrifft und den man nur treibertechnisch auf wortwörtlich den letzten Drücker kompensieren aber nicht lösen konnte (
mit entsprechenden Leistungsverlusten).
2) Ja, zwei GCDs zu koppeln wäre durchaus ein Ansatz. Ob die Zeit dafür schon mit RDNA4 gekommen sein wird, wird man abwarten müssen. Damit hätten sie dann aber tatsächlich einen echten Druchbruch erreicht und würde nicht nur, so wie jetzt, die Fertigungskosten drücken.
3) Doch, tun sie in diesem Falle schon. In diesem Kontext: GPUs sind darauf ausgelegt ihre Funktionseinheiten vollumfänglich auszulasten, d. h. hier arbeitet der "gesamte Chip" parallel. Natürlich kannst du dich nun hin zu moderaten Taktraten hin bewegen, aber den Leistungsverlust muss du wiederum durch noch mehr Chipfläche kompensieren und da beginnt sich dann die Katze in den Schwanz zu beißen. Und wenn du das Design noch weiter aufbrichst auf bspw. vier Chips, dann steigt die Latenz und der Overhead für Kommunikation und Cache-Kohärenz zusätzlich, d. h. auch dieser Punkt mindert wiederum die erzielbaren Zugewinne. Das Ganze auszutarieren ist zweifellos eine komplexe Rechnung und erfordert zudem internes Zahlenmaterial aber am Ende dampft sich das auf eine simple Betrachtungsweise ein: Sofern nVidia nicht gedenkt dem Consumer-GPU-Markt den Rücken zuzukehren und sich in Richtung AI-Gefilde zu verabschieden, kannst du davon ausgehen, dass wenn sie der Meinung sind, dass (
wenn auch nur im oberen Marktsegment) wenn Sie wenn sie ein derartiges Design benötigen würden, AMD sich sicher auch genau so einem Konkurrenzprodukt gegenüber sehen werden. Dass AMD hier nVidia in irgendeiner Art "überrumpeln" kann, darf man eher als unwahrscheinlich ansehen ... wobei preisentwicklungstechnisch wäre das sicherlich mal zu begrüßen ...
Also einfach mal darauf hoffen, dass AMD hier "nichts streicht" und dass Intel ein ordentlich weiterentwickeltes Battlemage im nächsten Jahr vorlegen kann.
Schlussendlich bleibt aber auch noch die Frage, wie weit sich das ganze preistechnisch überhaupt regulieren und entwickeln kann, denn natürlich kann man erst mal unreflektiert nach immer mehr Grafikleistung rufen ... was die Entwicklungskosten (
Design wie auch Fertigung) angeht, könnte es aber auch sein, dass man sich so langsam von dem Gedanken verabschieden muss, dass es immer mehr Leistung für immer weniger Geld geben wird, schlicht, weil die Fertigung dermaßen komplex wird, dass die Kosten gar nicht in dem erwünschten Rahmen sinken können ...