Der SLI und Crossfire Thread (FAQ - Benchmarks - Tests)

Exakt das gleiche war bei mir wirklich exakt, bau die obere doch mal aus und wieder ein oder tausch beide.

Ich hab's gelöst. Wer weiß wie lange das schon so läuft.

Ich habe einfach mal den Strom der unteren Karte gezogen, gebootet. Schon waren beide mit 16x angebunden, runtergefahren, Strom wieder dran, fertig.

Ziemlich kurioser Bug.

Danke für den Tipp, ich wollte aber nicht gleich alles komplett ausbauen, das ist wenn alles unter Wasser läuft, auch nicht in 5 Minuten getan :D
 
Außerdem ist ja ein 1KW-Netzteil vorhanden und kein 800er

Hab ich ja gesagt oder nicht?
Ich beziehe mich auf dem Bereich wenn das Netzteil nicht mehr optimal rennt.
Zudem er hat den 10 Kerner auf 4,5.., wie sich die Titans vs den TI mit Stromverbrauch vergleichen lassen kA...
Dann die Wakü... also ich bin skeptisch und würde das in meinem System gründlich überprüfen, das heißt nicht das es so ist bzw sein muss.

Ich hab's gelöst. Wer weiß wie lange das schon so läuft.

Ich habe einfach mal den Strom der unteren Karte gezogen, gebootet. Schon waren beide mit 16x angebunden, runtergefahren, Strom wieder dran, fertig.

Ziemlich kurioser Bug.

Danke für den Tipp, ich wollte aber nicht gleich alles komplett ausbauen, das ist wenn alles unter Wasser läuft, auch nicht in 5 Minuten getan :D

Das mit dem Wasser hab ich mir schon gedacht... ;)
 
Also mein System ist oft bei 800W+. :D (gemessen mit Stromzange) Ich hatte es ja erst mit dem 700W Netzteil probiert aber da ist die Kiste sofort ausgegangen. Je nach Spiel liegen da auch schonmal 200W Unterschied drin. PUBG, Division und ME:A fressen richtig Strom.
 
Hallo TheBadFrag,

läuft PUBG im SLI bei dir?
Wir CF'er scheinen da wohl noch in die Röhre zu schauen.


Liebe Grüße

Derber-Shit
 
Also mein System ist oft bei 800W+. :D (gemessen mit Stromzange) Ich hatte es ja erst mit dem 700W Netzteil probiert aber da ist die Kiste sofort ausgegangen. Je nach Spiel liegen da auch schonmal 200W Unterschied drin. PUBG, Division und ME:A fressen richtig Strom.

Dann rechne man zu deinem Strom-peaks noch mal einen 6 Kerner raus und einen 10 Kerner mit krassem OC hinzu.

Schon ist meine Theorie schon gar nicht mehr so weit hergeholt...
 
Ähm das gibt doch keinen sinn. Was wären ja 800 +120+160 watt = 1080 watt. Was kann ich mir aber nicht vostellen days es soviel strom verbrauch ist.
Ich Wei's halt nicht wieviel der 6 kerner an Strom verbraucht. Einen 10 Lerner have aber ich. Somit word der betrag so ähnlich schon sein.
 
Kannst du nicht einfach den Crossfire Betrieb erzwingen? Bei SLI geht das immer. Ob es dann wirklich was bringt hängt vom Spiel ab. Gibt es denn generell für kein Spiel mit UE4 CF-unterstützung?
 
Und mal wieder wurde auf der el cheapo Platform getestet. Als ob die da bei CB kein x299 Board mit 7900x rumliegen hätten... Aber dann könnte man ja nichts negatives schreiben. :D
 
Kannst du nicht einfach den Crossfire Betrieb erzwingen? Bei SLI geht das immer. Ob es dann wirklich was bringt hängt vom Spiel ab. Gibt es denn generell für kein Spiel mit UE4 CF-unterstützung?

Man kann es erzwingen, jedoch stottert das Spiel dann alle paar Sekunden. Ob es ein anderen UE4-Spiel mit CF-Unterstützung gibt... weiß ich ehrlich gesagt gerade nicht. Vielleicht könnte ich solch ein Profil dann darauf anwenden...

Zum CB-Bericht:
Vernichtendes Urteil. Ich hatte eigentlich gehofft, dass die Spielemacher und die Grafikkartenhersteller in Zeiten von 4K@60-144Hz und 2K@144-240Hz vielleicht mal wieder mehr Liebe in diese ansich nette Technologie stecken... Ich für meinen Teil bin nicht bereit, Multi-GPU aufzugeben - erst dann, wenn die Verantwortlichen es wirklich komplett abkündigen und dann auch wirklich einstampfen. Wenn ich in aktuellen Titeln nicht glücklich werde, dann eben in älteren Titeln, die noch Unterstützung bieten, in Kombination mit einem meiner anderen Computer.

Ich meine... das wurde hier ja schon tausend Mal diksutiert, aber... ich muss es einfach nochmal sagen.
Klar, damals mögen die Probleme mit den Engines noch mehr gewesen sein, die DirectX API Konkurrenzlos, die Erfahrung der Entwickler noch nicht so hoch, etc pp. Aber in Zeiten von hochfrequenten Bildschirmen wäre eine Technologie wie SLI oder CF echt wieder angebracht (in meinen Augen).
Ansonsten kann ich auch die Anstrengungen von AMD, in den Jahren 2014-2016 nicht verstehen, als sie Crossfire auf eine neue Stufe gehoben haben (bzw. an SLI angeglichen haben) mit der Implementierung von Frame-Pacing in alle APIs (nach und nach). Dafür müssen sie doch einen tieferen Grund gehabt haben als "wir machen uns jetzt noch die Mühe um es anschließend inoffiziell einzustampfen).
Auch bin ich der Meinung, dass wenn AMD und Nvidia dieses Thema wieder pushen würden (im vernünftigen Rahmen, mehr als zwei Karten sind wirklich "over the top"), gerade jetzt mit diesen flotten Bildanzeigern, und die Entwickler mit DirectX12 und oder Vulkan unter die Arme greifen würden, dann würde sich das auf lange Sicht hin rentieren. Wenn ich mich recht erinnere wurde doch vor kurzem Multi-GPU als standard-Library in Vulkan aufgenommen. Daher bin ich fast schon zuversichtlich, dass mit der nächsten Generation von Spiele-Engines die Unterstützung von mehreren Betriebsystemen, sowie die von Multi-GPU wiederkommen wird. Und wenn die Entwickler mit DX12 und Vulkan erstmal warm geworden sind, dann stehen die Chacen (imho) gut, dass sich auch eventuell um die eine oder andere Annehmlichkeit gekümmert wird. ;-)
Auf lange Sicht hin können die Chips ohnehin kaum noch größer werden und die Strukturbreiten haben auch in absehbarer Zeit ihr Limit erreicht, in denen sie noch so in der Stückzahl hergestellt werden können, dass der Kunde es auch noch bezahlen kann. Hier Irgendwann führt eben kein Weg mehr an der Parallelität vorbei - meine Meinung.

Und um noch ein Wort bzgl. "Outsourcing der Ressourcen", sprich Nvidia Geforce NOW zu verlieren: ich habe kürzlich bei einem Kollegen mit einer Super-Internetverbindung (Glasfaser in Stuttgart) mal den Dienst (beta, wohlgemerkt) ausprobieren können: Es hat mich ganz und gar nicht überzeugt. Es war wie ein ganz mies komprimierter Film, der da auf dem Bildschirm ablief, Input-Lag des Todes gleich dazu.
Klar, es ist noch eine Beta, deswegen muss man den Jungs noch Zeit geben aber ich sehe nicht, dass echtes "Cloud"-Gaming auf absehbares Zeit eine Sache sein wird.

So, das war jetzt mal meine kurze, bescheidene Meinung zum Stand der Dinge. Falls es jemanden abseits der Multi-GPU-Freunde wieder sauer aufstößt... kann ich nachvollziehen. Aber so ist eben meine Meinung und ich bin leider auch verdammt stur. Sorry.


Liebe Grüße

Derber-Shit
 
Zuletzt bearbeitet:
Und mal wieder wurde auf der el cheapo Platform getestet. Als ob die da bei CB kein x299 Board mit 7900x rumliegen hätten... Aber dann könnte man ja nichts negatives schreiben. :D

Alleine ich zitiere:

"SLI mit zwei Modellen des Typs GeForce GTX 1080 bringt einen Leistungsschub von 19 Prozent. Wer eine SLI-HB- anstatt einer normalen SLI-Bridge verwendet, erhält weitere 20 Prozent an FPS und damit ein Plus von 43 Prozent gegenüber einer Einzelkarte."

Die SLI HB Bridge macht einen dermaßen hohen Vorteil in 4k?
Aber auf die Lanes achten die nicht in dem Forum... wolln die die Leser eigentlich verarschen?

Und letztes Jahr 2017 hieß es noch bei Computer Base "die SLI-HB- Bridge bringt keine Messbaren vorteile"


Und unterm Strich sieht man mal wieder wie wichtig es ist, an wirklich alles zu denken bei SLI.

Denke CF wird da ähnlich sein.
 
Zuletzt bearbeitet:
wie groß können die grafikkarten maximal werden ohne sli/crossfire.Und wenn man zwei grafikkarte zusammen setzt,wie groß können sie dann maximal wachsen?
 
SLI könnte man prinzipiell schon abschaffen, schont den Geldbeutel, wenn die Hersteller endlich mal dazu bereit wären potente Hardware zu entwickeln, scheint bis heute nicht der Fall zu sein. Selbst ein schon in die Jahre gekommender AAA Titel wie Witcher 3 oder Fallout 4 ist immer noch nicht flüssig in 4K auf einer übertakteten 1080 TI zu spielen. Frameeinbrüche teilweise auf ca. 52 FPS @ 2 Ghz, trotz Reglerbemühung, ein Armutszeugnis.
Wenn man dann endlich die unsinnigen 11 GB ausnutzen möchen, in dem man hübsche 4 K Texturen (in der Regel mit etwas detaillierten Meshes) installiert, ja an sowas braucht man gar nicht denken.

Hauptsache viel Speicher... Dabei sollte aber längst bekannt sein, das bessere 3D Modelle eben stets auch detaillierte Meshes haben. Und nein ein planares 3D Modell sieht trotz hochauflösender Texturen, ambient occlusion, Normal Map etc. trotzdem beschissen aus.
 
Zuletzt bearbeitet:
SLI könnte man prinzipiell schon abschaffen, schont den Geldbeutel, wenn die Hersteller endlich mal dazu bereit wären potente Hardware zu entwickeln, scheint bis heute nicht der Fall zu sein. Selbst ein schon in die Jahre gekommender AAA Titel wie Witcher 3 oder Fallout 4 ist immer noch nicht flüssig in 4K auf einer übertakteten 1080 TI zu spielen. Frameeinbrüche teilweise auf ca. 52 FPS @ 2 Ghz, trotz Reglerbemühung, ein Armutszeugnis.
Wenn man dann endlich die unsinnigen 11 GB ausnutzen möchen, in dem man hübsche 4 K Texturen (in der Regel mit etwas detaillierten Meshes) installiert, ja an sowas braucht man gar nicht denken.

Hauptsache viel Speicher... Dabei sollte aber längst bekannt sein, das bessere 3D Modelle eben stets auch detaillierte Meshes haben. Und nein ein planares 3D Modell sieht trotz hochauflösender Texturen, ambient occlusion, Normal Map etc. trotzdem beschissen aus.

Die Grafikkarten haben seit Jahren zu wenig VRAM ... guck dir mal Final Fantasy 15 an... da braucht man deutlich mehr als 8GB.

Und das The Witcher 3 so wenig braucht ist wohl hart den alten Konsolen wie PS3 geschuldet... darauf wurde es auch noch portiert.
Denke das die Kommenden Games die 8 und sogar die 11 GB deutlich an die Grenze bringen werden, von unsinnig kann da keine Rede sein.
 
SLI könnte man prinzipiell schon abschaffen, schont den Geldbeutel, wenn die Hersteller endlich mal dazu bereit wären potente Hardware zu entwickeln, scheint bis heute nicht der Fall zu sein. Selbst ein schon in die Jahre gekommender AAA Titel wie Witcher 3 oder Fallout 4 ist immer noch nicht flüssig in 4K auf einer übertakteten 1080 TI zu spielen. Frameeinbrüche teilweise auf ca. 52 FPS @ 2 Ghz, trotz Reglerbemühung, ein Armutszeugnis.
Wenn man dann endlich die unsinnigen 11 GB ausnutzen möchen, in dem man hübsche 4 K Texturen (in der Regel mit etwas detaillierten Meshes) installiert, ja an sowas braucht man gar nicht denken.

Hauptsache viel Speicher... Dabei sollte aber längst bekannt sein, das bessere 3D Modelle eben stets auch detaillierte Meshes haben. Und nein ein planares 3D Modell sieht trotz hochauflösender Texturen, ambient occlusion, Normal Map etc. trotzdem beschissen aus.
Also wenn man die Karten im SLI betreibt braucht man die 11GB. :D Bin da ganz froh drum, die normalen 1080er, die ich vorher hatte waren mit den 8GB echt zu knapp. Witcher und Fallout laufen übrigens mit SLI in 4k wunderbar mit min. 60 FPS ohne Reglerfummeln. ;)
 
@ GEChun

Witcher oder Fallout brauchen deshalb so wenig, weil mehr mit Polygonen als mit hochauflösenden Texturen gearbeitet wurde. 3D Modelle mit hochauflösenden Texturen sehen halt ohne entsprechende Meshes nur in der Ferne gut aus, in der Regel besteht aber in der Ferne wegen der Tiefenunschärfe generell dann aber ein geringer Bedarf an solchen Texturen, aber das wäre ein anderes Thema.
Darum ging es aber gar nicht, sondern viel mehr darum, dass die GPU-Leistung nicht in Korrelation mit dem VRAM steht. Darum wird es immer einen Bedarf an SLI und co. geben. Ohne SLI kann man den VRAM von 11 GB ja kaum nutzen, der limitierende Faktor ist stets die GPU-Leistung anstatt der VRAM.
Viele Spiele parken auch gerne mal den VRAM zu, ist also nicht immer sicher ob dieser dann wirklich benötigt wird.
 
Zuletzt bearbeitet:
Welche Spiele sind das den, die mit 8 GB nicht auskommen?

Ich hatte bis jetzt nur eins was an die 8 GB herankam bzw. drüber geht und das ist GTA 5.

Bei allen anderen kam ich gerade mal bis 6 GB.

Gesendet von meinem SM-G935F mit Tapatalk

Ich kann jetzt nicht sagen welche mehr brauchen aber ich habe etliche bei denen ich die 8GB voll knalle bis zum abwinken...
z.B. Mass Effect Andromeda

Bei Rise of the Tomb Raider weiß ichs sogar von Hisn das es mehr als 8 braucht...
Und Final Fantasy sprengt ja schon die von PCGH getestet 16GB Vega Frontier :D

In Blick auf die Zukunft wird es nur jedenfalls nicht besser Cyberpunk und Shadow of the Tomb Raider sind schon sehr gute Kandidaten für einen höheren Verbrauch als 8GB.
 
Bei MEA kam ich so ca. auf 6,5 - 7 GB @ 4k maxed out. Und RottR kam mit Ultratexturen auf ca. 6,5 GB, die 8 GB+ wurden nur zugeparkt.
 
Zurück