Der SLI und Crossfire Thread (FAQ - Benchmarks - Tests)

Zweifellos, nur dass das so schnell wohl nicht passiert.
Die Position des obersten Slots wurde aber aufgrund auftretender Imkompatibilitäten durchgeführt, mechanisch bekommt man auch bei 3 Slots Abstand Tripleslotkarten rein, nur an der Kühlung scheitert es. Egal wie man es sieht, mGpu mit Karten >200W/Stück braucht eigentlich eine Wasserkühlung.
Es gibt immer noch Boards mit 4 Slots Abstand, da sind aber meistens ohnehin 4 mechanische x16 Slots verbaut, die alle um einen Slot nach unten verschoben sind. Das ergibt dann aber ein XL-ATX Board oder man hat eben eventuell imkompatible Hardware.
 
Das würde du da beschreibst, sind ja einfach nur die aktuellen Spezifikation. Aber Gehäuse und Spezifikationen werden ja an den Käufer ausgerichtet. Würden plötzlich 90 Prozent der Käufer mGPU Systeme betreiben, wären plötzlich wieder genug passende Gehäuse am Start.

Wenn hätte Fahrradkette. Komischerweise wird mit jeden neuen Spiel die 1080er Reihe immer langsamer, die RTX immer schneller (die Rohleistung ist aber eine Konstante) und für mGPU scheint sich auch kein Entwicker mehr zu interessieren. Bestes Beispiel die AS Creed Reihe.

Lustig ist das eine 2070 nun schneller als eine 1080 TI ist oder eine 2080 Ti mal eben um 60% schneller ist. Ja ist nur Zufall.... Sogar die neue Vulkan low Level API bezüglich Breakpoints performt nur auf Turing, bei Pascal bringt es nichts.
 
Zuletzt bearbeitet:
Wenn man SLI verbaut sollte man so oder so EATX Mainboards nehmen... da ist genügend Platz für SLI.. auch mit Blowerkühler...

Dann stellt sich der gedanke auch nicht welches Gehäuse gebraucht wird den in den meisten EATX Gehäusen ist auch genug Platz...
 
Andererseits, da man ohnehin 2 High End Karten verbaut, kann man auch gleich auf Wasser gehen. Immerhin bezahlt man ja mindestens 1500€ für 2 Karten, die auch Sinn unter mGpu machen. Und spätestens dann ist die Frage nach der Gehäusegröße auch so weit, dass da ohnehin ein EATX Board passt.
 
Andererseits, da man ohnehin 2 High End Karten verbaut, kann man auch gleich auf Wasser gehen. Immerhin bezahlt man ja mindestens 1500€ für 2 Karten
Wobei man dann aber nur noch eine Karte für 1500 bekommt. Also bei Nvidia zumindest ^^
Ich glaube man muss selber einmal Wakü im Besitz haben, dann möchte man eigentlich auch nicht wieder zurück. Aber die Mehrkosten haben es echt in sich.
 
Ein großer Teil der Kosten sind einmalig, lediglich Grafikkartenkühler und hin und wieder Schlauch und Wasser muss man wechseln. Aber bei einer 1200€ Karte (oder zwei :devil:) sind die 150€ für einen guten Block kein Problem und man sieht sie ziemlich deutlich im Takt wieder. Vom niedrigeren Verbrauch der Karte bzw. mehr Power für die Gpu. Nvidia zählt anders als Amd ja den Verbrauch sämtlicher Komponenten der Karte, also auch Vram, Wandlerverluste und auch Lüfter und RGB ins Powerlimit. Da kann man durchaus mal 20W für die Gpu freischaufeln, zusätzlich arbeitet die Gpu an sich effizienter und kann noch physikalisch etwas höher takten.
Kleines Beispiel von mir: Ich habe ja 2 2080ti Strix mit XOC Bios für 1000W Powerlimit.
Unter Luft, wo ich zur Sicherheit mit dem Bios immer nur eine Karte verwendet habe, wurde die Gpu 79°C warm, lief auf 1980Mhz, die Karte hat 420W gesoffen und die Lüfter liefen auf 3400 Umdrehungen, weil der Hotspot, dessen Sensor Nvidia versteckt, wohl etwas warm wurde. Alles ohne händisches OC, das wollte ich bei der Temperatur nicht machen.
Unter Wasser sieht die Sache anders aus. Ich habe zur Vergleichbarkeit mal mit einer Karte unter Wasser getestet, die 2. war zu dem Zeitpunkt ausgebaut. Die Gpu wurde 39°C warm, lief auf 2115Mhz, die Karte hat 360W gesoffen und die Lüfter der Wakü liefen auf 400 Umdrehungen. Da gehörte allerdings OC dazu, der VRAM war auch noch deutlich übertaktet.
Zweites Beispiel: Meine Radeon VII hat unter Luft Peak 341W gezogen und wurde 113°C auf dem Hotspot warm, entsprechend 80°C Gpu.
Unter Wasser war der Verbrauch bei 305W und die Temperatur bei 62 (Hotspot) bzw. 32°C (Gpu).
Worauf ich hinaus will: Die Lüfter ziehen gerade bei hohen Temperaturen eine nicht zu vernachlässigende Menge Saft und der Verbrauch fällt auch bei niedrigerer Temperatur. Das gibt dir bei gleichem Verbrauch gut und gerne 100Mhz mehr, wenn du eine Nvidia Karte hast und ins Powerlimit rennst.
Ich selbst habe zwar bei der Radiatorfläche und der Lautstärke der Lüfter massiv übertrieben, aber auch ohne so Übertreibungen hat man schon bei einer Karte einen deutlichen Benefit. Bei zweien und deren thermischen Problemen unter Luft -2x300W sind eben viel- durchaus nicht zu vernachlässigen, jedenfalls wenn man ti´s hat und daher 2500€ für Grafikkarten rausgehauen hat.
Wie gesagt, viele Kosten sind einmalig und 10-20% Mehrkosten bei Grafikkartenupdate sind zumindest für uns mGpunutzer wohl zu verschmerzen; wir bezahlen ohnehin viel fürs Upgrade, vor allem, weil man mit Wasser auch noch deutliche Mehrleistung erhält, wenn man ins Powerlimit rennt.
Andererseits, da man ohnehin 100-150€ mehr für custom Designs bezahlen würde, kann man auch Referenzdesign und Wasserblock nehmen und ist am Ende gleichauf bei den Kosten, hat aber die Waküvorteile.
 
Die 1080 TI lief überhaupt nicht als Costum mit den drei Lüftern.

Zum Vergleich: 1650 Mhz bei 80 °C zu 2040 Mhz mit Wasser.
Bei der 2080 TI lohnt sich wegen der geringeren Wärmestromdichte ein Waküblock deutlich weniger. Wäre hier für SLI eher interessant.
 
Die Wärmestromdichte zwischen Pascal und Turing ist gar nicht mal so unterschiedlich, Turing gleicht die größere Fläche mit Mehrverbrauch sehr wirksam aus. Am Ende ist die Differenz Gpu-Wasser bei Turing sogar ein gutes Stück höher als bei Pascal. Der höhere Energieverbrauch zwingt die Luftkühler dann noch wirksam in die Knie, sodass sich gerade bei der 2080ti die Wakü viel mehr lohnt, so meine Meinung. Die hohen Anschaffungskosten relativieren die Mehrkosten des Wasserblocks dann auch ganz gut. Wobei die Turingblöcke in gleichem Verhältnis teurer geworden sind wie die Karten.
Ich weiß ja nicht, welche 1080ti du hast, aber meine FTW3 lief mit ~1950Mhz bei 75°C unter Luft. Bei der 2080ti resultieren solche Taktraten in wie oben erwähnt 400+W, was sich nur mit sehr unschönen Lüfterdrehzahlen kompensieren lässt.
 
Bei Sli hat man immer erhöhte Anschaffungskosten.. davon sollte man Ausgehen.

Wer kosten reduzieren will sollte SLI nicht verbauen.

Ich persönlich nehme halt nur Lüfterkarten, weil ich die viel zu oft aus und einbauen muss, das wäre bei Wakü ne Katastrophe, im Gegensatz zur CPU bei mir die switcht quasi nie..

Aber wie ich schon sage bei EATX z.B. bei meinem Board hat man 4 Slots für die Karte 1 und weitere 4 Slots für Karte 2. Wenn man dann eine Blower Karte mit 2 Slots einbaut hat man ganze 2 Slots Platz bis zur Karte zwei. Bei einer 3 Slot Blower Karte wäre dann obwohl die Karte 3 Slots belegt immer noch ein ganzer Slot frei für die untere Karte...

Und Gehäuse gibts auch passende, das LianLi O11 Dynamic kann von Unten belüftet werden also zielen direkt 3 Lüfter mit Frischluft auf die Grakas, setzt natürlich vorraus das man sein Gehäuse so platziert das es nicht auf einem Teppich steht.

Machbar ist es also auch mit Luft, persönlich verbaue ich aber so nur 2 Slot Karten, da mehr Platz ist.
Temperatur ist fast so wie im einzel Modus, maximal +1-5° also nichts dramatisches.

Bei ATX allerdings gebe ich recht, zu wenig Platz, da würde ich nur Wakü nehmen.
 
Zuletzt bearbeitet:
:) :) :) :) :) :) GELÖST :) :) :) :) :) :)

hallo Multi-GraKa-Gemeinde

Ich habe folgendes System:
Gigabyte X570 Aorus Xtreme mit BIOS f12e, 2x32GB G.Skill TridentZNeo 3600, AMD Ryzen 3950X, EVGA Geforce RTX 2080 TI FTW3 11GB 11G-P4-2387-KR (aktuelle FW), 1200W supply
Win10 pro, NVIDEA 26.21.14.4112 vom 24.10.2019

Nun wollte ich das System mit einer zweiten, baugleichen GraKa erweitern. Das klappte nicht.

Weder NVIDIA-Settings, EVGA Precision X, noch der device manager zeigen eine zweite Karte an.
Die Karten und das MoBo sollen NVLINK kompatibel sein und auch ohne solchen via PCI (aber langsamer) funktionieren.
Momentan kein NVLINK verfügbar

Ich habe folgendes getestet:
- K1 oder K2 im top slot: OK
- K1 top K2 mitte : NOK (K1 wird erkannt)
- K2 top K1 mitte : NOK (K2 wird erkannt)
- K1 oder K2 mitte : NOK (Keine Karte wird erkannt) (falsches BIOS-Setting: Prim. GraKa = slot 1 :()

Ich habe keine weitere PCI-Karte, die zum Testen des mittleren slot verwendet werden könnte

Die Karten werden für Folding@home und distributed computing verwendet, also nicht zum gamen

Wer hat eine Lösung, die zur Erkennung der zweiten Karte und zur dualen Funktionalität führt? Vielen Dank
Bitte keine Antworten zu warum, wozu, Wärme oder Ähnlichem

==========================================================================================================
ich werde eure anregungen hier dokumentieren, damit ihr wisst, was vorgeschlagen, getestet und heraus gekommen ist
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
vorschlag sinusspass:
Die Cpu stellt für PCIe Slots nur 16 Lanes zur Verfügung, für weitere Slots werden eben 8 Lanes geswitchet.
Viele Boards machen das zwar automatisch, aber bei manchen Boards muss man von x16 auf x8/x8 umschalten.
Frag mich aber nicht, wo genau im Bios die Option ist.

gemacht:
im bios gesetzt
Initial Display Output Specifies the first initiation of the monitor display from the the installed PCI Express graphics card.
PCIe 1 Slot : Sets the graphics card on the PCIEX16 slot as the first display. (Default)
PCIe 2 Slot : Sets the graphics card on the PCIEX8 slot as the first display. <--- gesetzt

PCIEX16 Bifurcation : Allows you to determine how the bandwidth of the PCIEX16 slot is divided. PCIE 2x8 <--- gesetzt

ergebnis:
es wird immer nur 1 GraKa angezeigt, auch wenn die zweite verwendet wird :(
gleich was gesetzt wird, es wird immer die karte bevorzugt, an der der HDMI anschluss verwendet wird.
bei 2 x HDMI wird slot 1 genommen.
leider hat mein 2. bildschirm keinen DP, nur einen DVI, so dass ich da immer HDMI fahren muss.
-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Lösung:
ich habe eine LianLi anti-grafikkarten-sag einrichtung installiert.
da für meine dicken GraKa die halteschiene 3cm zu kurz war, musste ich die untere stütze um 180° drehen.
diese kleine auflagefläche zum MB hin hat ein vollständiges einrasten der GraKa verhindert. das war so wenig, dass ich es nicht sehen konnte.
aus lauter verzweiflung, als alles nicht funktioniert hat, habe ich diese einrichtung demontiert und siehe da - es klappte.

die anti-sag vorrichtung wäre ok, wenn sie 3cm länger wäre, um die untere stütze der vorgabe gerecht (!) zu montieren.


. GraKa_antisag.jpg
 
Zuletzt bearbeitet:
Die Cpu stellt für PCIe Slots nur 16 Lanes zur Verfügung, für weitere Slots werden eben 8 Lanes geswitchet.
Viele Boards machen das zwar automatisch, aber bei manchen Boards muss man von x16 auf x8/x8 umschalten. Frag mich aber nicht, wo genau im Bios die Option ist.
 
Hi,

Hätte mal eine Frage zum Thema nvlink Bridge, und zwar werden die Bridges immer in tripple oder Quad-Slot angegeben dabei wäre tripple 60 mm, dieser Abstand ist bei meinem Board der 2 Slot in den möchte ich die 2 Karte auch stecken müsste dann doch passen, warum heißt es dann Triple-Slot? Der betrieb von 2 gleichen Karten nur von unterschiedlichen herstellen ist soweit ich weiß möglich nur manche Karten sind breiter als andere bezieht sich das auch auf den Anschluss für die Bridge oder haben die alle ein Einheitsmaß da die Bridge ja sonst nicht passt, wenn eine karte breiter ist.

Mainboard: MSI MEG X570 ACE
 
Es geht um den Abstand zwischen PCIe Slots und damit den Karten untereinander. Tripple bedeutet in dem Fall über 3 PCIe Slot's. Oben die 1. Karte, einer frei, darunter die nächste Karte. Die Brücke muss dann passen.

Das war mir klar, nur gibt Nvidia ihren Triple-Slot Bridge mit 60 mm an, bei meinem Board ist der Abstand von vom ersten zum 2 PCIe Slots 80 mm da bräuchte ich ja die Quad-Slot Bridge 80 mm, deswegen hatte mich das verwirrt da dann kein PCIe Slot frei gelassen wird zwischen der Bridge.
 
Hi, und liebe Grüße aus dem Jahr 2014! :D
Spaß beiseite, ich hab ne Frage zu nem kürzlich bei mir Zustande gekommenden Crossfire-Setup aus 2 R9 290:
Also die 2. ist erst seid kurzem da, Wärmeentwicklung unter Last ist im wahrsten Wortsinn Grenzwertig, aber noch okay, Im moment Spiele ich nichtmal sondern Lasse Sie für Folding@Home Rechnen.
Auf nem x470 Board in nem Towergehäuse, aber im Liegen mit Front&Hecklüftern, jetzt aber der Knackpunkt, während die Karten Falten schaue ich auf u.a. YT&Twitch, allerdings erzeugt die Videowiedergabe bei der Primären Karte eine höhere Auslastung&Wärmeentwicklung als nur beim FoldingBetrieb so das dann Thermisch die Karte im Oberen Slot selbst bei ner angepassten Lüfterkurve nicht drum rum kommt Vollast zu drehen oder bei 94 Grad anfängt runterzudrosseln bis teils auf minTakt.
die sekundäre Karte hingegen dümpelt bei 70Grad +- rum da Sie ja keine teils vorgewärmte Luft zieht
Ich würde daher gern die Karte im 2. x16 Slot als Primäre/Master Karte einrichten, so das die Thermische Belastung beider karten besser verteilt ist, hab aber im Adrenalin 20.4.2 Treiber und nach ner Google-Suche nichts in der Richtung gefunden.
Danke schonmal falls wer weiß wie mans switcht :)
 
Hi Zusammen,

ich habe mal eine allgemeine Frage: Wiso ist SLI eigentlich so nun ja ich sag mal "verpönt" ?

Es schreiben sooo viele nimm lieber eine RTX 2080 ti anstatt 2x GTX 1080 ti, aber wiso eigentlich weil so wenig Spiele SLI unterstützen ? Müssen sie das zwingend zu 100% ?

Wenn ich mir mal so ein Video hier anschauen dann schaut das irgendwie nicht so aus als wäre SLI schlecht ? ----> YouTube
 
Ja, das müssen sie zwingend.
Wenn sie das nicht machen hast Du negative Skalierung mit SLI, keine Skalierung, wenig Skalierung oder falls Du Skalierung erzwingst bekommste Bildfehler.

Und die Leute, die mit ihren SLI-Fehlern Videos machen, die haste Dir nicht angeschaut?

z.b.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich meine, was nützen Dir da alle FPS der Welt, wenn es Flackert? (War übrigens ein Treiber-Fehler, der irgendwann behoben wurde, aber solange ist das Game nicht spielbar. Und dabei wird es immer als tolles Referenz-Game herangezogen, eben weil es gerade gut mit SLI skaliert).
 
Ah okay dann bin ich jetzt ein bisschen schlauer danke. :daumen:

Achso das ist ja von dir das Video :). (Jetzt weis ich endlich für was das HisN steht. ;))
 
Zuletzt bearbeitet:
Oft kann man aber mit den Einstellungen das System aber auch so hinbekommen das man gut an die 90%+ kommt.

Hatte selbst auch schon des öfteren SLI und CF. Und eines ist mir besonders aufgefallen, das SLI eben doch schlechter skaliert als CF.

Hat man aber ein Spiel wo Multi GPU gut skaliert ist das auch echt gut, aber die sind eben selten und heute noch schwerer zu finden, denn der Support für SLI und CF fällt zunehmend weg.

Ich hatte vor ein paar Jahren 2 R9 390 im System und muss sagen, die liefen echt gut mit einander, fast in jedem Game kam ich auf 90%+ GPU Skalierung. Lag aber auch daran, weil mein CPU Limit in weiter ferne war bei einer Auflösung von 5040x1050. Gepaart war das ganze mit einem Ryzen 1700 auf einem C6H. Die 2. Karte ging weg weil mir eben die 700W Verbrauch vom PC es nicht wert waren und die Karten eben doch schon recht laut waren trotz UV.

Größte Nachteil bei CF/SLI ist eben der enorme Verbrauch und die Abwärme.

Daher würde ich heute mit einer 5700XT oder NV 20XX Karte kein Multi GPU System mehr aufbauen, weil es eben mit mehr Nachteilen verbunden ist. Spiele gibt es kaum noch, Unterstützung und es wird in Zukunft nicht besser.

Ich bin aber auch der gegenteiligen Meinung was die kleinen Karten angeht. Ich würde lieber 2 kleine Karten im SLI/CF nutzen als 2 große Karten. Erklärung auch ganz einfach.

2 2080TI zum Beispiel ins GPU Limit zu bekommen ist nicht einfach und man hängt oft dank fehlender Leistung der CPU im CPU Limit.

Dann lieber 2 kleine Karten, wo bei den heutigen CPUs es kein Problem ist die Karten ins GPU Limit zu bekommen, denn dann skaliert SLI/CF auch deutlich besser.
 
Hatte selbst auch schon des öfteren SLI und CF. Und eines ist mir besonders aufgefallen, das SLI eben doch schlechter skaliert als CF.

Ich hab immer genau die Gegenteilige Beobachtung gemacht, find es bemerkenswert das es bei dir besser gelaufen hat.
Was war denn der Unterbau dazu?

Weil die kommunikation via PCIe Lanes ist echt zu wenig für einen stabilen Dual GPU betrieb, das ging vielleicht noch vor Jahren aber gerade heutzutage eignet sich PCIe nur noch bedingt zur Synchronisation der GPU´s.
Die benötigten Signale brauchen einfach viel zu lange von Karte A zur Karte B und zurück.
 
Zurück