Radeon RX 6800 XT: Games profitieren durch Multi-GPU-Setup unterschiedlich

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6800 XT: Games profitieren durch Multi-GPU-Setup unterschiedlich

Wie ein Test zeigt, skalieren Spiele mit zwei Exemplaren der Radeon RX 6800 XT teilweise gut. Die Auswahl an Games, die heute noch Multi-GPU-Setups unterstützt, ist jedoch sehr überschaubar. Und da, wo es geht, verdoppelt sich die Framerate nicht unbedingt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6800 XT: Games profitieren durch Multi-GPU-Setup unterschiedlich
 
Echt schade, da man es heute durchaus gebrauchen kann. Bei einem Plus von 70-80% wird wohl auch die nächste Generation nicht schnell genug sein, um das mit einer Karte hinzubekommen. Von daher wäre man 4 Jahre der Master of the Universe. Mit einem gut Funktionierendem Quad CF hätte man wohl sogar bis zum Ende des Jahrzehnts ausgesorgt (wenn einem der VRAM nicht einen Strich durch die Rechnung macht).

Irgendwie ironisch, dass das ganze ausgerechnet dann Ausstirbt, wenn es seine Vorteile so richtig ausspielen kann.

Ich vermute das ganze wird wiederkommen, wenn sich der Fortschritt immer mehr verlangsamt führt kaum ein Weg daran vorbei (außer eventuell DLSS, aber das hat auch seine Grenzen). Dual Sockelboards wären auch eine tolle Idee.
 
Schade, dass es keine wirklich brauchbare Multi-GPU-Technologie gibt. Aber Mikroruckler, Pfrickelei, mässige Skalierung und notwendige Implementierung durch den Entwickler (das ist einfach nie gut!) und damit kaum vorhandene Games, das bringts für die meisten nicht, selbst wenn Geld und Wille grundsätzlich vorhanden wären...
Ohne Multi-GPU gibt es keine Möglichkeit, über die Grenzen der aktuell besten Grafikkarte hinauszugehen und man muss mit dem Vorlieb nehmen, was angeboten wird. :/
 
Hi,

Ich find das auch total schade, dass Multi GPU ausstirbt. Hoffentlich kommt es mal irgendwann wieder.
Mit welchen Games ist den jetzt aktuell Multi GPU noch nutzbar?
Ich hab das bei mir hier auf die schnelle mal zb bei Deus Ex Mankind Divivded mit meinen Radeon VIIern nicht so recht zum laufen gekriegt und dann wieder aufgegeben.

Gibt es irgendwo im Internet eine Anleitung / Übersicht anhand der man sich für Multi GPU orientieren kann?
 
Ich vermute das ganze wird wiederkommen, wenn sich der Fortschritt immer mehr verlangsamt führt kaum ein Weg daran vorbei (außer eventuell DLSS, aber das hat auch seine Grenzen). Dual Sockelboards wären auch eine tolle Idee.

Multichip Design ist das Stichwort. Alle kommenden GPU Generationen der 3 Hersteller kommen im Multichipdesign, das erste von Intel sogar schon im Sommer.
 
Multichip Design ist das Stichwort. Alle kommenden GPU Generationen der 3 Hersteller kommen im Multichipdesign, das erste von Intel sogar schon im Sommer.
Bei AMD und Nvidia sind das meines Wissens nur Gerüchte. Man sollte auch bei der Faktenlage bleiben. Viele tun so, als wüßten sie, was Hopper alles kann, dabei steht nichtmal der Name fest.

Auch mit dem Multichipdesign wird man an eine Grenze stoßen. Irgendwann führt an Multi GPU kein Weg vorbei.
 
Bei AMD und Nvidia sind das meines Wissens nur Gerüchte. Man sollte auch bei der Faktenlage bleiben. Viele tun so, als wüßten sie, was Hopper alles kann, dabei steht nichtmal der Name fest.

Auch mit dem Multichipdesign wird man an eine Grenze stoßen. Irgendwann führt an Multi GPU kein Weg vorbei.

Bis das passiert ist entweder Silizium am Ende oder die Zeit in der man selbst Hardware kauft lange vorbei.
Vermutlich Zweiteres.
 
Sorry, wenn ich hier eine etwas "kontroverse" Sichtweise zum Thema Multi-GPU vertrete, aber die These dass
Multi-GPU ausstirbt, halte ich zum Einen für "gewagt", zum Anderen (sofern zutreffend) für hausgemacht.

Die Sache ist doch folgende, Jahrelang gab es gute Unterstützung für Multi-GPU Systeme, aber kaum jemand hat sie gekauft, ergo gibt es für Hersteller und Entwickler kaum einen Grund hier zu investieren. Die einzige Ausnahme sind hier Professionelle Umgebungen, wo entsprechende Techniken kaum noch wegzudenken sind.

Selbst heute (RTX 3000 Serie), mosern Kunden auf der einen Seite rum, dass die Karten ja "sooo teuer sind" - selbst bei 3070er und 3080er Modellen um UVP Preis. Und auf der Anderen, wird die Nase darüber gerümpft, dass nur die 3090 NVLink SLI unterstützt.

Dabei ist gerade dieser Zug von Nvidia mehr als nur nachvollziehbar, hier einen "Cut" zu vollziehen.

Zum einen hat klassisches Treiberbasiertes SLI sowie Crossfire seine berechtigter maßen angeprangerten Probleme.
Zum anderen stehen mit Expliziten Multi-GPU Techniken viel Flexiblere und
Potentere Möglichkeiten zur Verfügung - und das seit Jahren.
Diese aber werden , abseits von Professionellen Szenarien, nicht konsequent genutzt.

Aktuelle GPU's sind momentan potent genug für quasi alle DX10,11 Spiele und DX12, OpenGL und Vulkan unterstützen Explizites Multi-GPU. Zudem steht mit PCIe 4.0 eine Schnittstelle zur Verfügung die Potent genug sein sollte solche Techniken nicht über die maßen auszubremsen.

Und der wichtigste Aspekt des Ganzen ist, dass man bei Explizitem Multi-GPU gar kein SLI oder Crossfire benötigt!

Sicher hat das von den Quadro Karten übernommene NVLink SLI der 3090 Vorteile, wie direktere, sehr schnelle Kommunikation der Karten untereinander und Memory-Pooling, notwendig ist dies jedoch nicht.

Es liegt also jetzt schlicht in den Händen der Engine- und Spieleentwickler hier die vorhandenen
Techniken konsequent in ihren Produkten umzusetzen und an den Gamern diese dann auch zu nutzen.

Denn nur wenn dies Konsequent getan wird, hat Multi-GPU im Consumerbereich wirklich die Chance
noch die Kurve zu kriegen.
Und dank alternativer Rendertechniken, all das auch ohne Nachteile wie Micro-Stuttering!
 
Zuletzt bearbeitet:
Ja, es ist schon cool und so, aber es sind nur kleinere Teile der Gamerschaft (die hier allerdings stark vertreten sind), die sich überhaupt Grafikkarten für mehr als 600€ leisten, sprich oberhalb der RTX3060Ti und RX6700XT geht gar nicht so viel, wie mittlerweile im Budget- und Mid-End-Bereich. Des Weiteren haben die Leute auch in der Regel keine passenden Netzteile, oft keine geeigeneten Boards und auch keine passenden Gehäuse, wo man mal eben so 2x RTX3080 / 2x 6800XT, oder höher, reinknallen kann.

Die GPUs sind in den letzten Jahren arschteuer geworden und schlucken immer mehr Strom, da wird es schwer noch eine Zukunft für Dual-GPU-Systeme zu sehen, wenn man es jetzt mal nicht aus dem Standpunkt von Spezialanwendern betrachtet.

Momentan stehen Kosten und Nutzen in keinem guten Verhältnis.
 
Ja, es ist schon cool und so, aber es sind nur kleinere Teile der Gamerschaft (die hier allerdings stark vertreten sind), die sich überhaupt Grafikkarten für mehr als 600€ leisten, sprich oberhalb der RTX3060Ti und RX6700XT geht gar nicht so viel, wie mittlerweile im Budget- und Mid-End-Bereich. Des Weiteren haben die Leute auch in der Regel keine passenden Netzteile, oft keine geeigeneten Boards und auch keine passenden Gehäuse, wo man mal eben so 2x RTX3080 / 2x 6800XT, oder höher, reinknallen kann.

Die GPUs sind in den letzten Jahren arschteuer geworden und schlucken immer mehr Strom, da wird es schwer noch eine Zukunft für Dual-GPU-Systeme zu sehen, wenn man es jetzt mal nicht aus dem Standpunkt von Spezialanwendern betrachtet.

Momentan stehen Kosten und Nutzen in keinem guten Verhältnis.
Ja wohl wahr, hier trifft wie üblich in der Realität, der "Haben wollen Faktor" auf den
"Zugeschnürten Geldbeutel Faktor"... :ugly:

Schon komisch, alle schreien nach mehr Leistung und man hört in Foren Kommentare wie "Was nur 50% Mehrleistung
zur letzten Generation? Fu§&* Nvidia und Sh?% on AMD... Mehr Geld ausgeben will aber keiner. :schief:

Und wenn das Ganze dann noch in Mehrkosten durch potentere Netzteile ect. ausartet, ist bei den Meisten
endgültig Schluss...

Das Lustige dabei ist nur, wenn Multi-GPU konsequent umgesetzt würde, könnten viele vermutlich beim aufrüsten noch von ihrer alten GPU spürbar profitieren, clevere Programmierung der Spiele mal vorausgesetzt.

Ich für meinen Teil hoffe inständig dass CDPR sich treu bleibt und auch bei Cyberpunk 2077 Multi-GPU Techniken unterstützt, so wie bei den Witcher Teilen. Im Optimalfall natürlich Explizites und nicht Implizites Multi-GPU. :hail:
 
Das Hoch war mMn zu Zeiten von HD7970 und GTX580. Da lieferte die zweite crossfire-Karte noch bis zu 97 Prozent mehr fps und die dritte glättete bei mir spürbar die frametimes. Das hat wirklich noch Spaß gemacht. Danach ging's abwärts.
Ich finde diese Entwicklung echt schade.
 
Um so trauriger, dass nicht mehr Spielehersteller Explizites Multi-GPU unterstützen,
dass im Gegensatz zu Klassischem SLI & Crossfire, neben dem von diesen bevorzugten AFR,
jede nur erdenkliche Rendertechnik ermöglicht - je nachdem was sich der Entwickler eben ausdenkt...
 
Tja, multi-GPU hat einfach zu viele Nachteile. Für nicht Echtzeit Anwendungen ist es kein Problem wenn nicht alles gleichzeitig fertig ist, aber in einem Spiel kann man es kaum gebrauchen wenn eine Karte 10 ms später fertig wurde.

Das Lustige dabei ist nur, wenn Multi-GPU konsequent umgesetzt würde, könnten viele vermutlich beim aufrüsten noch von ihrer alten GPU spürbar profitieren, clevere Programmierung der Spiele mal vorausgesetzt.
Wenns nur so einfach wäre.
 
Tja, multi-GPU hat einfach zu viele Nachteile. Für nicht Echtzeit Anwendungen ist es kein Problem wenn nicht alles gleichzeitig fertig ist, aber in einem Spiel kann man es kaum gebrauchen wenn eine Karte 10 ms später fertig wurde.


Wenns nur so einfach wäre.
Genau das ist ja der Punkt - es ist "so einfach" - Relativ gesehen natürlich ;-).
Explizites Multi-GPU hat recht wenig mit "Klassischem SLI" (Oder Crossfire) gemein.

Sicherlich, die Tatsache dass Spiele Echtzeitanwendungen darstellen, bei denen die Berechnungszeit pro Frame und die Frametime essentielle Faktoren sind ist klar. Das wird sich aber auch nie ändern.

Aber durch moderne Multi-GPU Techniken die z.B. DX12 oder Vulkan anbieten, haben die Entwickler nicht nur die Möglichkeit selbst Einfluss zu nehmen, sie können auch entscheiden wofür die Rechenleistung verwendet wird.

Ich finde es einfach nur traurig, dass seit der Vorstellung von DX12 anno 2014 sich in diesem Bereich
kaum etwas getan hat. Bei der Masse an Spielen die in den letzten Jahren auf den Markt gekommen sind,
unterstützen scheinbar nicht einmal 20 Explizites Multi-GPU.
 
Zuletzt bearbeitet:
Abgesehen davon, dass der Engine-Entwickler mehr Feintuning betreiben kann, hat Multi-GPU via DX12 oder Vulkan sehr viel mit den klassischen Treiberlösungen gemeinsam. Alle Techniken stehen vor den gleichen technischen Problemen. Und ich würde nicht damit rechnen, dass irgend ein kleiner Spieleentwickler, dessen Fokus naturgemäß immer eher darauf liegt, dass sein Produkt auch von den Besitzern schwacher Rechner noch konsumiert werden kann, plötzlich den genialen Geistesblitz hat, auf den die Ingenieurs-Phalanxen der jahrelang voll auf den Verkauf möglichst teurer Hardware fokussierten GPU-Hersteller sowie sämtlich sich mit dem Problem beschäftigtenden Theoretiker nie gekommen sind.
 
Tja, wirklich schade drum. Dabei hätte CFR die Hoffnung des SLI werden können.
Die Skalierung selbst ist ja nicht das Problem, die ist selbst bei treiberseitigem SLI nicht mal unbedingt schlecht, wenn es denn unterstützt wird. Die Unterstützung und die Varianz der Frametimes sind das Problem bei der ganzen Sache. Auch wenn man letztere oft genug ignorieren kann (weil gering genug), kann man an fehlender Unterstützung nichts ändern. Explizites Multi-GPU in Spielen ist quasi ne Totgeburt, weil es gefühlt nie unterstützt wird. Da war treiberseitiges SLI um Welten besser.
Wie auch immer, ich bleibe beim 2080ti-SLI. In gut unterstützten Titeln kommen da immer noch mehr Fps raus als bei der 3090.
 
Gekacheltes Mutli-GPU gab es, zumindest bei AMD, schon Mitte der 0er Jahre als Alterantive zu SFR und AFR. Ist aber sehr schnell in der Versenkung verschwunden, weil an jedem Kachelübergang Objekte doppelt gerendert werden müssen. Bei heutigen Beleuchtungstechniken & Co kämen noch sehr viele bildweite Effekte hinzu, die von allen GPUs redundant bearbeitet werden würden.
 
Abgesehen davon, dass der Engine-Entwickler mehr Feintuning betreiben kann, hat Multi-GPU via DX12 oder Vulkan sehr viel mit den klassischen Treiberlösungen gemeinsam. Alle Techniken stehen vor den gleichen technischen Problemen. Und ich würde nicht damit rechnen, dass irgend ein kleiner Spieleentwickler, dessen Fokus naturgemäß immer eher darauf liegt, dass sein Produkt auch von den Besitzern schwacher Rechner noch konsumiert werden kann, plötzlich den genialen Geistesblitz hat, auf den die Ingenieurs-Phalanxen der jahrelang voll auf den Verkauf möglichst teurer Hardware fokussierten GPU-Hersteller sowie sämtlich sich mit dem Problem beschäftigtenden Theoretiker nie gekommen sind.
Nun, es war auch nicht meine Absicht zu behaupten man hätte mit explizitem Multi-GPU Rendering das Rad neu erfunden, das sicher nicht. Und ich erwarte auch keinen entsprechenden Entwicklungsaufwand von Indie-Studios.

Aber selbst AAA Studios und Engine-Entwickler scheinen sich nicht gerade die Beine auszureißen um die Technik
voran zu bringen, um eine breitere Nutzung zu generieren.

Dabei gibt es durchaus ansehnliche Beispiele, (unter den begrenzt verfügbaren) die durchaus die
Möglichkeiten aufzeigen sogar bis an 200% zu skalieren, oder gute Leistungsverbesserungen
zu erreichen, ohne in den "sauren AFR Apfel" mit seinen Mikrorucklern beißen zu müssen...

Nvidia hat es in ihrem Statement am Launchtag der 3080 ja durchaus einleuchtend beschrieben, durch
die eigene Implementierung in die Software haben die Entwickler mit ihrem Konw how die Möglichkeit den Gamecode direkt so zu optimieren wie sie es für angebracht halten, um entsprechenden Mehrwert aus der Technik zu ziehen.
Zudem sind sie nicht mehr zwingend an proprietäre Techniken wie SLI oder Crossfire gebunden,
auch wenn dies sicher zusätzliche Vorteile bringen kann.

Memory-pooling z.B. das sich viele Nutzer ja schon recht früh gewünscht haben und jetzt endlich zur Verfügung steht,
wäre sogar für Aufrüster interessant...

Und selbst abseits von reinen Rendertechniken, gibt es sicher Verwendungsmöglichkeiten von mehr Rechenleistung
in Form einer zweiten GPU. Ob nun für Physikeffekte, Ki oder anderen Berechnungen in Spielen.

Aber was das optimieren für "Besitzer schwacher Rechner" angeht, nun da ändert auch Multi-GPU nichts dran. Auch ohne die Nutzung mehrerer Grafikkarten, optimieren die Entwickler ihre Games für verschiedene Leistungsbereiche.
Zudem kommt heute ohnehin praktisch jedes bessere Spiel für mindestens vier Plattformen auf den Markt, und für alle muss hier separat optimiert werden. Im falle von Cyberpunk sind es sogar neun wenn ich mich nicht irre...

So oder so, wenn eine Technik nicht aktiv vorangebracht wird, stirbt sie meist aus. Und jetzt sind eben die Softwareentwickler am Zug, mit ihrem Know how beizutragen...

Nachtrag: Für CFR gibt es ein ganz nettes Beispiel mit Metro: Exodus auf YouTube, das augenscheinlich recht vielversprechend erscheint.
 
Zuletzt bearbeitet:
Gekacheltes Mutli-GPU gab es, zumindest bei AMD, schon Mitte der 0er Jahre als Alterantive zu SFR und AFR. Ist aber sehr schnell in der Versenkung verschwunden, weil an jedem Kachelübergang Objekte doppelt gerendert werden müssen. Bei heutigen Beleuchtungstechniken & Co kämen noch sehr viele bildweite Effekte hinzu, die von allen GPUs redundant bearbeitet werden würden.
Die Idee beim CFR-Ansatz, den Nvidia vor einem Jahr in wenigen Treiberversionen hatte, war nicht, das Bild in viele Einzelbilder zu zerlegen, sondern noch weiterzugehen und es quasi in einzelne Pixel zu zerlegen. So rechnet jede Grafikkarte das Bild einmal in halber Auflösung, was dann nur noch zusammengefügt werden muss. Man kann quasi die WQHD-Benchs (nicht ganz halbe Auflösung, ich weiß) für UHD nehmen.
Die Umsetzung war natürlich eine Sache. Wenn es überhaupt funktioniert hat, war die Skalierung meist nicht ideal.
 
Zurück