Hmm, kann man auch anders sehen, die 4080 bspw. ist recht schnell deutlich gesunken.
Aber ich wunder mich ehrlicherweise über die Vermutung, dass AMD kein High End mehr machen will. Jetzt wo man den Anfang im MCM Design machen konnte will man aufhören? Nö, ich glaube einfach das es sehr frühe Gerüchte sind und man bis runter zu Navi44 einfach nur den gleichen GCD nutzen wird, nur in unterschiedlicher Anzahl. Denn es macht eigentlich keinen Sinn, diese Möglichkeit nicht zu nutzen, MCM wird im lukrativen Workstation und Serverbereich eh kommen und wichtig werden, da kann man das auch im Desktop nutzen für ein Haloprodukt
Ja, erst mal ist das nicht mehr als ein Gerücht und man muss abwarten, ob das tatsächlich so kommen wird, sprich d. h. AMD sich (für einige Zeit) aus dem HighEnd verabschiedet mit RDNA4, d. h. man nicht mit einer 5090, 5080 und schlimmstenfalls gar mit einer 5070 Ti konkurrieren wird.
Das einzige dessen man sich gewiss sein kann, dass wenn das tatsächlich so kommen sollten, dass sie das nicht freiwilig machen werden, sondern es irgendwelche internen und/oder externen Zwänge gibt, die diesen Schritt erforderlich bzw. wirtschaftlich notwendig machen, denn ein solcher Schritt wäre keinesfalls mit so etwas vergleichbar, wie dass man nur kein Halo-Produkt a la 5090 Ti-Killer bringen würde, sondern damit würde das ganze ober Marktsegment entfallen, was auch dem Marketing arge Kopfschmerzen bereiten wird/würde.
Gesetz dem Fall, dass hier nicht nur wer was missverstanden hat, unvollständige Informationen verfrüht verarbeitet wurden oder sich gar jemand nur produzieren wollte, wäre bspw. denkbar:
a) Dass man voll auf MCM gesetzt hat für RDNA4, also auch das Verwenden mehrerer (wahrscheinlich zwei) GCDs und dass man die damit verbundenen umfangreichen Probleme nicht hinreichend gelöst bekommen hat für das Releasezeitfenster, sodass man hier nun die Reißleine zieht. (
Die gesamte Grafikindustrie arbeitet hieran schon gut ein Jahrzehnt, das ist alles andere als eine Kleinigkeit und erfordert sehr viel R&D und bspw. der Marktführer zögert derartige Designs im Consumer-Segment nicht ohne Grund hinaus, denn technologisch gibt es hier keinen plausiblen Grund anzunehmen, dass AMD denen gegenüber etwas voraus hat. )
b) Ein weiterer Punkt könnte sein, dass AMD auch Fertigungs- bzw. insbesondere Packaging-Kapazitäten-limitiert ist und man sich entschlossen hat, dass ihre sehr überschaubaren GPU-Umsätze es schlicht nicht Wert sind
zurzeit Ressourcen beim Packaging und dann noch beim notwendigen R&D für ein derartiges Design zu versenken, während diese Ressourcen dann für margenträchtigere, gefragtere Produkte fehlen.
Aber schlussendlich erst mal abwarten, ob das überhaupt so kommen wird ... vielleicht ist deren HighEnd-Design ja auch ein derart gut gehütetes Geheimnis, dass die Leaker und deren Quellen davon noch nichts mitbekommen haben? Schlussendlich, wenn nVidia tatsächlich erst in 2025 seine NextGen rausbringen wird, hat man auch das Problem, dass frühzeitige Leaks (
auch solche, die nicht öffentlich werden) dem Hauptkonkurrenten einen erweiterten Handlungsspielraum einräumen würden, da man wohl schätzungsweise 6 - 9 Monate später veröffentlichen wird, ggf. gar möglicherweise 12 Monate später und wenn man schon in diesem Jahr recht gut abschätzen könnte was bei AMD kommen würde, hätte man mehr als genug Zeit um einen passgenauen Konter zu entwickeln und das käme AMD abermals sehr teuer zu stehen ...
Eine weitere Spielart des "
gut gehüteten Geheimnisses" wäre auch, dass wenn nVidia schon meint seinen Release auf 2025 verschieben zu können, man das eigene HighEnd auch erst in 2025 veröffentelichen will. Das würde ihnen zudem etwas mehr Zeit einräumen ein echtes MCM-Design weiter auszuarbeiten, sodass dann vielleicht doch noch echte Multi-GCD-Designs auf Basis von RDNA4 in 2025 erscheinen werden?
Ich denke gar dass beide sich überlegen werden, die alten Gens laufen zu lassen. KI auf 3nm, neue Gamingchips weiterhin auf 5nm. Vielleicht fällt dann ein Gamingableger mit 3nm als Halo ab, aber so ein Szenario halte ich aktuell für mehr als denkbar.
Der Gerüchteküche zufolge "
steht das bei nVidia schon fest", da Ada-Next angeblich erst 2025 kommen soll. Das kann schlichte marktstrategische Gründe haben. 3 nm-Kapazitäten werden kurz- bis mittelfristig noch heiß umkämpft und teuer sein, dürften für einen größeren Sprung in der GPU-Entwicklung jedoch unumgänglich sein. Wenn die davon ausgehen, dass AMD kein großer Sprung gelingen wird, könnten die durchaus entscheiden sich die Zeit zu nehmen zumal man kapazitäts- und kostentechnisch dann später besser dasteht, GDDR7 in umfangreichem Maße zur Verfügung steht und man in der Zwischenzeit die gebuchten modernsten Kapazitäten für Hopper und Hopper-Next nutzen kann, die mit gänzlich anderen Margen aufwarten und extrem begehrt sind.
(
Als Anmerkung: Diese voraussichtliche Verschiebung würde auch zu dem früheren Gerücht passen, dass nVidia 3 nm erst in 2025 nutzen wird (hier absehbar im Kontext von Consumer-Produkten gemeint). Ob es so kommt ... auch hier abwarten ...)
Darüber hinaus kann AMD nicht bei 5nm bzgl. der GPUs (konkret dem GCD) verbleiben, da sie damit keinen nennenswerten Entwicklungsspielraum hätten. RDNA4 (in 2024) wird absehbar auf einem N4xy-Prozess gefertigt werden, so vielleicht dem N4P? Andernfalls würde RDNA4 von nVidia's NextGen regelrecht überrollt werden und man würde möglicherweise selbst von Intel's Battlemage (
in ebenfalls einem N4xy-Prozess) unnötig unter Druck gesetzt werden.
Zudem, irgend eine Art Halo-Produkt wird da nirgends "abfallen", da das, wofür AMD vorerst die modernsten Nodes verwenden wird, weil es die Margen erlauben, CDNA-Produkte sein werden, die nichts mit regulären GPUs gemein haben. Hinzu kommt bzgl. der Workstation-Produkte, dass diese bei AMD aufgrund deren recht geringem Marktanteil eher ein Abfallprodukt der Consumer-Produkte sind und nicht anders herum, d. h. wenn es tatsächlich (vorerst) nichts "Großes" im RDNA4-Portfolio geben sollte, wird es auch keine neuen großen Workstation-Karten/-Updates geben.
Noch eine allgemeine Anmerkung, weil zuvor gelesen und anscheinend den feuchten Träumen einiger Fanboys erwachsen: AMD kann hier nicht "beliebig" viele GCDs koppeln. Einerseits müssen erst mal die umfangreichen designtechnischen Probleme gelöst werden für ein derartiges GPU-Design, andererseits verbraucht mehr aktives Silizium auch mehr Energie, d. h. wenn nVidia beim Top-Chip mit bspw. monolithischen 650 mm2 aufwarten würde, würde AMD diesen sicherlich nicht "zerstören" mit einem 900 mm2-MCM, denn der würde beträchtlich mehr Energie verbrauchen, insbesondere wenn man auch noch i. V. z. nVidia auf einen älteren Prozess zurückgreifen müsste.