Du hast oben Multi-GPU-Settings aufgebracht nur interessieren diese den Markt nicht mehr wirlich, in dem Falle konkret die Entwickler, die den Mehraufwand für die Implementation nicht bereit sind auf sich zu nehmen, zumal auch nur noch die wenigsten Anwender mehr als eine dedizierte GPU in ihrem PC verbaut haben.
Insofern ist es "interessant" warum du nun mit so einer Erklärung ankommst. Aber vielleicht missverstehe ich deinen Punkt aber auch nur. Konkretisiere den dann doch noch mal bitte.
Und um das vorwegzunehmen:
- MCM- bzw. Chiplet-Designs helfen AMD früher konkurrenzfähiger auftreten zu können und davon hat selbstredend auch der Anwender etwas.
- MCM-Desings wie die Top-RNDA3-Modelle oder bspw. Battlemage könnte man selbstredend auch in ein Multi-GPU-Setup zwängen; wenn die Treiber und vor allem die SW-Entwickler das unterstützen wollten. Das ginge durchaus. Nur wird man das wahrscheinlich nicht mehr anbieten, weil Kosten/Nutzen für den kleinen Marktanteil viel zu schlecht ausfallen und nicht mehr ausreichend werbewirksam sind.
- Und es wird vorerst absehbar keine auf einem halben Dutzend Chips basierende GPUs geben, weil der Inter-Chip-Kommunikationsaufwand über diese Bridges deutliche Kosten mit sich bringt, die man zu minimieren versuchen wird. Bei AMD wird man aus dem Grunde absehbar nur zwei Compute-Chiplets zu sehen bekommen und es ist die Frage ob deren (und auch Intels) erste Implementation hardware- wie auch softwaretechnisch überhaupt in der Lage sein wird den Workload über so viele Chips sinnvoll zu verteilen und Cache-Kohärenz und Latenzen in einem akzeptablen Rahmen zu halten. (GPUs sind da noch mal ein etwas anderes Thema als CPUs, was auch ein Grund ist, warum diese Art der Fertigung so "spät" aufgegriffen wird.)
- Zudem, die reine Wafer-Fertigung kann durch eine Aufteilung effizienter erfolgen, jedoch verteuert sich das Testing und Packaging. Das ist ein Trade-Off und die Hersteller müssen hier abwägen zu welcher Zeit welche einzelnen Punkte wie viel Gewicht in die Waagschale werfen um sich für eine Produktentwicklung auf die eine oder andere Art zu entscheiden. Beispielsweise nVidia hat den Mehraufwand durch ein MCM für sich offensichtlich als noch nicht gerechtfertigt bewertet.
Du bist also in einer Zeit in der AMD und Nvidia 1000€ und 2000€ GPU's auf den Markt bringen der Meinung es gibt dafür keinen Markt? Scheinbar gibt es sogar Leute die 3000€ für die Dinger ausgeben
oder 1500€ für 3080er...
Dass wir weitestgehend hier vom Enthusiasten-Markt reden ist doch wohl einleuchtend.
Leistung wollen die Leute immer mehr...
Nein, das was Klassisches SLI/Crossfire gekillt hat, sind schlechte Unterstützung seitens der Spielehersteller,
Mikroruckeln, also "verpulverte" Performance und mangelnde Vorteile als Aufrüstoption.
Letzteres wurde sowohl durch die letzte Iteration von NVLink und Explicit-MGPU quasi eleminiert.
Nicht nur ist z.B. die 3090 memory pooing fähig, hat also bei NVLink 48GB VRAM zur Verfügung.
Explicit-MGPU ist generell auch mit verschiedenen GPUs verschiedener Hersteller möglich. Hier ist also die Unterstützung der Engine der Knackpunkt. Man hätte also durchaus bei Unterstützung die Möglichkeit seine alte GPU weiter zu nutzen und so etwas Geld zu sparen. Aber auch hier der Fingerzeig an die Entwickler. Denn Prinzipiell reden wir ja von universal Recheneinheiten. Entsprechenden Willen vorausgesetzt, könnte man eine zusätzliche GPU auch für KI, Physik, Kantenglättung oder sonst was einsetzen... Und eine alte GPU hat potentiell
jeder Aufrüstwillige daheim oder?
Was Mikroruckeln angeht, nun da scheint es auch bei der aktuellen Generation gar nicht so schlecht auszusehen,
auch wenn ich nicht glaube dass es Perfekt läuft. Hier wäre sicher mehr möglich. Aber ohne Forschung wird das nichts. Hier hat man schlicht von Anfang an zu wenig Innovationswillen gezeigt die Technik und Verfahren weiter zu entwickeln.
Und Heute sind es eben die Engine Entwickler und Spielehersteller die den Aufwand scheuen. Da sehe ich eher
Engine Entwickler wie Epic in der Pflicht...
Und Solange man das über Jahre verlorene Vertrauen der Kunden nicht wieder herstellen kann, durch "Marktreife" Technik und entsprechendes Marketing, das die Vorteile hervorhebt, wird das natürlich nichts.
Und was MCD angeht, sehe ich für mich immer noch keine Vorteile... Außer dass der Entwicklungs- und Fertigungsaufwand weniger wird. Und? Sind die CPUs jetzt günstiger geworden? Eher nicht oder... ?
Wenn's also weder den Preis merklich drückt, noch die Effizienz steigert, habe ich als
Kunde rein gar nichts von einer "innovativen Technik"... Interessant hin oder her...