Grafikkarten-Test: Crossfire-X gegen Quad-SLI und 3-Way-SLI

Aber warum ist es den Entwicklern möglich, eine gute Leistung mit 3 Karten zu bringen und bei 4 so dermassen zu versagen? Ist das 3er System nur so was wie ein normales 2er mit (Oldschool-)GraKa-Beschleuniger? Versucht man, bei 4 dann ein 2x2 zu basteln?

Anhand des Crysis benches kann man sehr schön sehen das wenn es um brachiale rechenleistung geht Nvidia weit hinter ATI zurückbleibt.
Jaja, deswegen wird ja auch CUDA/Tesla mehr genutzt als FireStream :what:
 
Ist einerseits Treibersache und andererseits dem Treibermodell von Windows geschuldet sowie dem zu berechnenden Content. Anhand von Tesla oder in Workstations sieht man ja, dass die Skalierung unter anderen Voraussetzungen gut klappt. Ist ähnlich wie bei Multicore-CPUs.

cYa
 
Aber warum ist es den Entwicklern möglich, eine gute Leistung mit 3 Karten zu bringen und bei 4 so dermassen zu versagen? Ist das 3er System nur so was wie ein normales 2er mit (Oldschool-)GraKa-Beschleuniger? Versucht man, bei 4 dann ein 2x2 zu basteln?


Jaja, deswegen wird ja auch CUDA/Tesla mehr genutzt als FireStream :what:

Gerade bei PC - Games ist es bekannterweise schwierig eine optimale Leistung aus der gebotenen Hardware zuerzielen:
Ich versuche mal ein paar Gründe zu liefern:

1. Viele Games werden nicht mal für 2 Karten richtig optimiert.
(Die Gruppe der Kunden eines MultiGPU Systems ist nun mal gering)
2. Treiberprobleme: Schon bei der 7950gx2 (erstes mögliche 4 GPU System)
war es schwierig eine optimale Auslastung der Karten bzw. Verwaltung der
Daten zu haben. Je mehr Karten desto schwieriger das Ganze (Skalierung)

Wobei grad der zweite Punkt ausschlaggebend ist. Man kann für die Leistungssteigerung bei der Nutzung von mehreren GPUs, die von CPUs, als Vergleich heranziehen:

1 CPU Kern skaliert zu 100%, 2 Kernen ca. 80% und 4 Kerne (wenn sie genutzt werden) bis etwa 50%-60%. Bei immer mehr Kernen wird es auch schwieriger die Arbeit optimal auf alle verfügbaren Kerne zu verteilen.
Intel hat mit ihrem "Forschungchip (über 200Kerne) berechnet, dass mit bis zu 16 Kernen ein gutes Leistungplus bei einer Steigerung der Kernanzahl erzielt werden kann. Danach immer schlechter.
Ein gutes Beispiel finde ich ist der AMD Phenom X3 (3 Kerne): Hier wird zum Teil eine bessere Leistung erzielt, als mit einem Vierkerner (VSS. nicht extrem auf 4Kerner optimierte Software) bei "Multikern" Software.



Ich denke NV ist mit CUDA einfach einen Schritt schneller, als ATI/AMD gewesen. Zudem bietet CUDA als freiprogrammierbare Schnittstelle schon jetzt ungeahnte Möglichkeit für Software Entwickler. Kein Wunder, dass bevorzugt darauf programmiert wird. Kann sich aber mit DX 11 ändern, wenn ein einheitlicher Standard geschaffen wird.


ps. Biete nicht auf die Werte genau festnageln, kann von Fall zu Fall unterschiedlich sein;)

mfg
 
Zuletzt bearbeitet:
könntet ihr mal die achsen beschriften damit man auf den ersten blick sieht was die zahlen bedeuten :huh:
CF_SLI_Power.png
 
Zuletzt bearbeitet:
@ VVeisserRabe

Kommt beim nexten Mal "Watt" hinzu. Allerdings wüsste ich nicht, dass man die Leistungsaufnahme mit etwas anderem misst als in Watt ;)

cYa
 
Cooler Test :daumen:.

Für mich persönlich gibts nach dem Test auch ein relativ klares Fazit:
SLI mit mehr wie 2/3 GPUs bzw. CF mit mehr wie 2/3 GPUs ist momentan absolut sinnfrei, ausser vielleicht für Benchmarkrekordjäger...
Da ich auch in 1680x1050 zocke reicht mir ein SLI aus 2 Grakas locker aus. Werde demnächst meine ollen G80er PCIe1.x Grakas durch 2x280GTX PCIe 2.0 (oder 2x285GTX) ersetzen. Damit kann ich alles mit max.Details + AA/AF locker ruckelfrei geniessen.
 
Zurück