[...] Die nur geringe Verbreitung dieser Technologie liegt meines Wissens jedoch weniger im Unvermögen von Nvidia oder AMD begründet, sondern viel mehr bei der fehlenden Beachtung durch die Spieleentwickler. [...]
Eher das typische Henne-Ei-Problem: Die Multi-GPU-Modi von DX12 müssen durch den Entwickler explizit unterstützt werden (Explicit Multiadapter ist gar noch wesentlich aufwändiger, da hier Kommunikationspfade zwischen den GPUs im Detail modelliert und abgestimmt werden müssen). Die Hardware ist teuer, nur die wenigsten Spieler haben zwei GPUs in ihrem System verbaut, ergo gibt es kaum eine Anwenderbasis für derartige Designs. Somit ist schlussendlich auch das Interesse der Entwickler und Publisher gering diesen Mehraufwand zu betreiben und somit gibt es auch kaum entsprechende Titel und daher ...
Beispielsweise demonstierte Oxide Games eine AFR-Version (Implicit Multiadapter) von Ashes of Singularity, die die besten Resultate lieferte, wenn vergleichbar leistungsstarke GPUs kombiniert wurden. In 1440p mit 2x MSAA in HQ zeigte eine R9 Fury X im Mittel 42 Fps und eine GTX 980 Ti 45 FPS. Wenn man diese beiden kombinierte, erhielt man gemittelte 70 Fps. In 4K ließen sich "unspielbare" 32 Fps der Einzelkarten auf zusammengeschaltet gemittelte 52 Fps steigern.
Die Frage wird sein, in wie weit sich Konsolen-Ports um derartige PC-Spezialitäten kümmern wollen. Hier wird der Mehraufwand bei der Portierung gegen die potentiell höheren Umsätze aufzuwiegen sein. Aktuell sieht es daher eher mau aus.
In Bezug auf Mobile-Designs verspricht der Ansatz grunddsätzlich interessant zu sein, da man sich nicht mehr zwischen der stromsparenden, langsamen iGPU und der schnellen, dedizierten Chipsatz-GPU entscheiden muss, sondern tatsächlich in weiten Teilen beide zusammenschalten kann. Für leistungsstarke Notebooks, mobile Workstations und NUCs ist das sicherlich interessant. Auch einen APU-basierten Desktop könnte man bereits durch das Hinzustecken einer vermeintlich kleinen GPU deutlich aufwerten, da die iGPU zuarbeiten kann.
Man wird sehen wohin das führt. Vielleicht sieht man in diesen Arbeiten schon Vorboten zu Intel's kommenden Multi-Chip-Design?
wie sagt Nvidia so schön [...]
"
Nvidia rechnet da jede einzelne Operation auf dem Chip in Pico-Joule aus."
Das machen alle Hersteller, insbesondere auch AMD und Intel bei ihren Mobile-Chips und insbesondere auch Intel bei ihren FPGAs und AI-Beschleunigern. Nicht umsonst ist Renoir erneut ein eigenständiges, monolithisches und nicht etwa ein Chiplet-Design und alle AI-Hersteller stehen hier zurzeit grundsätzlich vor dem Problem des beträchtlichen Energiebedarfs pro transportiertem Bit, da die Bandbreiten- und Kapazitätsanforderungen immer weiter steigen. (Allgemein u. a. mit ein Grund, der steigenden Verbreitung von HBM2 und LPDDR5, letzteres nicht nur bei Smartphones, sondern bspw. auch bei günstigen ML-Designs für das Inferencing.)
Abseits dessen skizzierte die Präsentation relativ klar differenzierte Anwendungszenarien, die einen signifikanten Nutzen versprechen.
"
Das ist nicht zu verwechseln mit SLI"
Nein, ist es nicht, denn dessen Äquivalent ist der Implicit Multiadapter Modus, der im Wesentlichen ein Alternate Frame Rendering darstellt. Der DX12 Explicit Multiadapter Modus ist weitaus leistungsfähiger aber auch komplexer zu nutzen und unterteilt sich zumden in einen unlinked und einen linked Modus. Erstgeannnter kann unterschiedliche GPUs zusammen nutzen, bei letztgenanntem müssen weitestgehend gleichartige GPUs zusammengefasst werden, die dafür aber wie eine einzige, große GPU erscheinen.
"
Das ist auch der Grund warum die PC Architektur mal mindestens mehr Strom braucht, um die gleichen Ergebnisse zu erzielen wie eine Konsole."
Spielt hier aber keine Rolle, weil es hier darum geht verfügbare, jedoch ungenutzt Rechenleistung sinnvoll zu nutzen und selbst nur "etwas" hinzuschalten zu können ist immer noch schneller als gar nichts hinzuschalten zu können.
"
Das ist auch der Grund, warum Besitzer eines Ryzen 3400G mit Vega 8 neidisch auf Konsolenbesitzer schauen, bei denen APUs viel besser für Spiele ausbalanciert sind."
Ich gehe man davon aus dass dein relativ unspezifischer Vergleich nicht wortlich zu nehmen ist (alte Zen+-APU und unspezifizierte Konsolen), schlussendlich aber ein Apfel-mit-Birnen-Vergleich. Natürlich kann man einen Formel 1-Boliden mit einem VW Polo vergleichen, sollte dabei nur nicht aus dem Blick verlieren, dass die für komplett unterschiedliche Einsatzzwecke konzipiert sind (trotz der Gemeinsamkeinten wie vier Rädern und einem Lenkrad
).
"
Wenn AMD und Nvidia Grafikkarten mit integrierten CPUs verkaufen würden/könnten"
AMD tut das bereits ... nennt sich bei denen APU. nVidia kann es grundsätzlich nicht auf x86-Basis, da sie keine Lizenz haben und die werden sie auch absehbar nicht bekommen, da daran weder AMD noch Intel ein Interesse haben.
"
wäre von Intel bei Gamern nicht mehr viel zu hören"
Warum sollte das so sein? Trotz deren derzeit magerem Engagement im Consumer-Segment haben die dennoch mit die schnellsten Gaming-CPUs anzubieten. AMD hatte im letzten Quartal einen Desktop-Market Share von unter 20 %. Sollen das ausnahmslos alles Gamer sein, damit sich deine Sichtweise erfüllt, d. h. AMD ist vollkommen erfolglos im OEM-Segment? Intels Gewinne in der CCG werden zweifelsfrei zu einem Großteil auf den OEM-Markt zurückzuführen sein, aber nicht ausnahmeslos und die setzen weitaus mehr Volumen als AMD um .
"
Intel stößt hier an das Problem, dass aus Gamersicht 50% des CPU Dies für eine iGPU draufgehen die niemand braucht."
Warum sollte das ein Problem von Intel sein? Das ist bestenfalls ein Problem der Käufer, denn Intel lässt sich das bezahlen. Abseits dessen, da sie immer noch den Großteil des weltweiten OEM-Marktes bedienen, ist das auch durchaus eine sinnvolle Herangehensweise, denn Client-PCs sind nahezu ausschließlich APUs.
Abseits dessen kann Intel seine aktuellen 8-Kerner günstier fertigen als AMD ihre 8-Kerner (und im Vergleich zu AMDs 6-Kernern wird deren Verhältnis noch ungünstiger), d. h. fertigungs(kosten)technisch haben die hier keine Probleme und der Rest ist einfach eine bewußt geplante Preisgestaltung, die sich zudem im OEM-Markt deutlich anders darstellen mag als im Retail-Markt. (
Beispielsweise HP und Dell kaufen einen 9900K zweifelsfrei nicht für 510 € pro Stück ein und selbst nicht für ein entsprechendes Preisäquivalent exkl. Umsatzsteuer. )[/QUOTE]
Nur muss die IGP auch nur im Ansatz mit der Leistung der Hauptgpu mithalten können. [...]
Die Präsentation beschreibt genau das Gegenteil, nämlich dass es etliche, ansychrone Tasks gibt, die man gewinnbringend über eine (langsamere) iGPU berechnen lassen kann. (Siehe u. a. Sheet 33)