Abgesehen davon, dass der Engine-Entwickler mehr Feintuning betreiben kann, hat Multi-GPU via DX12 oder Vulkan sehr viel mit den klassischen Treiberlösungen gemeinsam. Alle Techniken stehen vor den gleichen technischen Problemen. Und ich würde nicht damit rechnen, dass irgend ein kleiner Spieleentwickler, dessen Fokus naturgemäß immer eher darauf liegt, dass sein Produkt auch von den Besitzern schwacher Rechner noch konsumiert werden kann, plötzlich den genialen Geistesblitz hat, auf den die Ingenieurs-Phalanxen der jahrelang voll auf den Verkauf möglichst teurer Hardware fokussierten GPU-Hersteller sowie sämtlich sich mit dem Problem beschäftigtenden Theoretiker nie gekommen sind.
Nun, es war auch nicht meine Absicht zu behaupten man hätte mit explizitem Multi-GPU Rendering das Rad neu erfunden, das sicher nicht. Und ich erwarte auch keinen entsprechenden Entwicklungsaufwand von Indie-Studios.
Aber selbst AAA Studios und Engine-Entwickler scheinen sich nicht gerade die Beine auszureißen um die Technik
voran zu bringen, um eine breitere Nutzung zu generieren.
Dabei gibt es durchaus ansehnliche Beispiele, (unter den begrenzt verfügbaren) die durchaus die
Möglichkeiten aufzeigen sogar bis an 200% zu skalieren, oder gute Leistungsverbesserungen
zu erreichen, ohne in den "sauren AFR Apfel" mit seinen Mikrorucklern beißen zu müssen...
Nvidia hat es in ihrem Statement am Launchtag der 3080 ja durchaus einleuchtend beschrieben, durch
die eigene Implementierung in die Software haben die Entwickler mit ihrem Konw how die Möglichkeit den Gamecode direkt so zu optimieren wie sie es für angebracht halten, um entsprechenden Mehrwert aus der Technik zu ziehen.
Zudem sind sie nicht mehr zwingend an proprietäre Techniken wie SLI oder Crossfire gebunden,
auch wenn dies sicher zusätzliche Vorteile bringen kann.
Memory-pooling z.B. das sich viele Nutzer ja schon recht früh gewünscht haben und jetzt endlich zur Verfügung steht,
wäre sogar für Aufrüster interessant...
Und selbst abseits von reinen Rendertechniken, gibt es sicher Verwendungsmöglichkeiten von mehr Rechenleistung
in Form einer zweiten GPU. Ob nun für Physikeffekte, Ki oder anderen Berechnungen in Spielen.
Aber was das optimieren für "Besitzer schwacher Rechner" angeht, nun da ändert auch Multi-GPU nichts dran. Auch ohne die Nutzung mehrerer Grafikkarten, optimieren die Entwickler ihre Games für verschiedene Leistungsbereiche.
Zudem kommt heute ohnehin praktisch jedes bessere Spiel für mindestens vier Plattformen auf den Markt, und für alle muss hier separat optimiert werden. Im falle von Cyberpunk sind es sogar neun wenn ich mich nicht irre...
So oder so, wenn eine Technik nicht aktiv vorangebracht wird, stirbt sie meist aus. Und jetzt sind eben die Softwareentwickler am Zug, mit ihrem Know how beizutragen...
Nachtrag: Für CFR gibt es ein ganz nettes Beispiel mit Metro: Exodus auf YouTube, das augenscheinlich recht vielversprechend erscheint.