Multi GPU Aussichten NVLink

-FA-

Software-Overclocker(in)
Moin,

ich bräuchte mal einen kleinen Blick in die Kristallkugel.

Nachdem in kürze ja die RTX3000-Serie ansteht. Was schätzt ihr, wird da NVLink (ehemals SLi) noch ein Thema sein oder wird das restlos wegfallen?
Bei der 2000er Serie wars ja so, dass nur die RTX 2080 TI NVLink-fähig war. Meine persönliche Vermutung wäre, dass wenn NVLink an Bord ist, das wiederum Thema bei der RTX 3080 TI sein wird. Da diese aber 24 GB RAM bekommen soll würde das ja in Richtung Titan tendieren. Rechnet ihr beim Preis dass die RTX3080 TI sich iwo im bereich 2500€ wie zuvor die Titan bewegt?

Hintergrund ist der, ich besitze zwei RTX 2080 TI. Aufgrund der ganzen Ausgabegeräte (Monitore, Beamer, ...) brauch ich zwingend zwei Grakas. Wäre die RTX3080 TI NV-Link fähig würde ich anstreben zwei dieser Karten zu verbauen und meine 2080 TIs zu verkaufen. Sollten da allerdings Mondpreise ausgerufen werden, also vergleichbar zur Titan, scheidet das definitiv aus. Weil vor ich zwei normale 3080er ohne NV-Link separat reinpack, bleib ich bei meinen 2080 TIs. Weil wenn ich schon zwei Grakas im Rechner hab (brauche), möchte ich die wenigstens als Verbund nutzen können.
 
Wird schon noch an Board sein. Wird im Profi-Bereich genutzt, kommt in abgespeckter Form auch auf den neuen Karten, schließlich braucht man ja Enthusiasten, die das auch gerne bezahlen.
 
Wenn du konkret nach der Aussicht zwecks multi GPU Unterstützung fragst würde ich auf jeden Fall darauf hinweisen wollen, dass die Verantwortung für eine entsprechende Implementierung im DX12 Zeitalter nicht mehr beim Grafikkarten-Hersteller, sondern beim jeweiligen Spieleentwickler liegt.
Der Raytracing Hypetrain rollt, Raytracing erfordert DX12, nur wieviele DX12 Titel bieten heute mGPU Support?

Wenn du jetzt nicht planst alte SLI/Crossfire-DX11 Games in 8K zu zocken, oder in anderen Anwendungen von zwei GPU´s profitieren kannst, würde ich das Investment stark überdenken.

Bin selbst großer Fan von mGPU und im Vergleich zu SLi oder Crossfire läuft es um Welten besser, nur wenn man sich vor Augen führt, dass maximal 3% aller PC-Gamer jemals in Ihrem Leben zwei GPU´s im System hatten, muss man wohl oder übel akzeptieren, dass die bestehende Nachfrage den Aufwand für die Implementierung in den meisten Fällen nicht zu rechtfertigen scheint.
 
War ja auch nur ein -zudem versteckter- Feldversuch, wie es aussieht. Grundsätzlich funktioniert die Technik ja und scheint auch zumindest bei ausgewählten Titeln keine Nachteile bzgl. Min-Fps und Frametimes zu haben. So hat man mit 2 Karten ohne Nachteile beim Spielgefühl mehr Power, oberhalb der 2080ti ist eben nur noch die Titan mit 5% Mehrleistung, da sind mindestens 30% Leistungszuwachs schon ordentlich.

Spekulatius: Wenn wir Glück haben und das kein Fehlschlag war, gibt es CFR vielleicht bald offiziell im Treiber mit umfangreicherem Spielesupport. Irgendwie muss NV ja MCMs umsetzen, der Ansatz ist zumindest nicht schlecht und setzt "nur" zeitgemäße Anbindung der Chips untereinander voraus.
Ist SLI tot? Ich würde sagen, SLI gehts ähnlich wie AMD vor 5 Jahren, am Boden, aber noch nicht zerstört. Vielleicht gibts ja noch die große Wiederbelebung von mGPU treiberseitig.
 
War ja auch nur ein -zudem versteckter- Feldversuch, wie es aussieht. Grundsätzlich funktioniert die Technik ja und scheint auch zumindest bei ausgewählten Titeln keine Nachteile bzgl. Min-Fps und Frametimes zu haben. So hat man mit 2 Karten ohne Nachteile beim Spielgefühl mehr Power
Das bleibt und dürfte gar weiter nach unten gereicht werden. Es gibt einen Markt für Leute die MultiGPU nutzen wollen/können und nicht zocken. UND, keine Quadros bezahlen wollen. Davinci Resolve Studio z.B. Kostet keine Tausende über Tausende, sondern nur 299$ ;)
 
Wenn du konkret nach der Aussicht zwecks multi GPU Unterstützung fragst würde ich auf jeden Fall darauf hinweisen wollen, dass die Verantwortung für eine entsprechende Implementierung im DX12 Zeitalter nicht mehr beim Grafikkarten-Hersteller, sondern beim jeweiligen Spieleentwickler liegt.
Der Raytracing Hypetrain rollt, Raytracing erfordert DX12, nur wieviele DX12 Titel bieten heute mGPU Support?

Wenn du jetzt nicht planst alte SLI/Crossfire-DX11 Games in 8K zu zocken, oder in anderen Anwendungen von zwei GPU´s profitieren kannst, würde ich das Investment stark überdenken.

Bin selbst großer Fan von mGPU und im Vergleich zu SLi oder Crossfire läuft es um Welten besser, nur wenn man sich vor Augen führt, dass maximal 3% aller PC-Gamer jemals in Ihrem Leben zwei GPU´s im System hatten, muss man wohl oder übel akzeptieren, dass die bestehende Nachfrage den Aufwand für die Implementierung in den meisten Fällen nicht zu rechtfertigen scheint.

An der Stelle von Nvidia würde ich NVLink/SLI genau aus diesem Grund nicht mehr standardmäßig implementieren, weil die wenigsten davon Gebrauch machen. Stattdessen würde ich für diese 3% Enthusiasten wieder eine Multi-GPU auf den Markt bringen, quasi einen modernen Nachfolger für die GTX Titan Z.
 
An der Stelle von Nvidia würde ich NVLink/SLI genau aus diesem Grund nicht mehr standardmäßig implementieren, weil die wenigsten davon Gebrauch machen. Stattdessen würde ich für diese 3% Enthusiasten wieder eine Multi-GPU auf den Markt bringen, quasi einen modernen Nachfolger für die GTX Titan Z.
Und was bringt eine DualGPU ohne dementsprechende Implementierung von SLI/NVLink?
 
Und was bringt eine DualGPU ohne dementsprechende Implementierung von SLI/NVLink?

Er meint wahrscheinlich, dass die einzelnen Single-GPUs keine SLI/NVLink Bridge zur Durchkopplung mehr zu haben brauchen. Dass die Funktionen für Multi-GPU in den Mainboards noch vorhanden sein müssen, ist logisch. Anderenfalls würde eine Dual-GPU auch nix bringen.
 
Naja, am Ende wird es genau darauf hinauslaufen wie es bei den CPUs läuft.
Ein paar Shader-Chips um einen IO-Teil in der Mitte, der genau das veranstaltet was ihr gerade ansprecht, im Chiplet-Design.
 
Naja, am Ende wird es genau darauf hinauslaufen wie es bei den CPUs läuft.
Ein paar Shader-Chips um einen IO-Teil in der Mitte, der genau das veranstaltet was ihr gerade ansprecht, im Chiplet-Design.
Meine Meinung. Wobei das "Mittelchipplet" schon bisschen mehr als nur I/O machen wird, aber grob gesehen imho 100% richtig.
Und das ganze auf HBM, was zwischen 512GB/s bis 1 TB/s macht. Reicht erstmal :)

Klassisches MultiGPU wird es fürs Zocken imho nicht mehr geben. Erstens ist das dann nicht mehr von Nöten, zweitens ist die Kundschaft extrem empfindlich, wenns denn mal mit der Syncro nicht 100% ideal läuft. Der Aufwand dafür ist viel zu groß damit sich das jemand noch freiwillig antut.
Bei GPGPU dagegen bleibt das ein großes Thema, lohnt da auch klar und benötigt dafür keine µs genaue Syncro bei der Ausgabe des Datenstroms.
 
Zuletzt bearbeitet:
Zurück