Aber warum ist es den Entwicklern möglich, eine gute Leistung mit 3 Karten zu bringen und bei 4 so dermassen zu versagen? Ist das 3er System nur so was wie ein normales 2er mit (Oldschool-)GraKa-Beschleuniger? Versucht man, bei 4 dann ein 2x2 zu basteln?
Jaja, deswegen wird ja auch CUDA/Tesla mehr genutzt als FireStream
Gerade bei PC - Games ist es bekannterweise schwierig eine optimale Leistung aus der gebotenen Hardware zuerzielen:
Ich versuche mal ein paar Gründe zu liefern:
1. Viele Games werden nicht mal für 2 Karten richtig optimiert.
(Die Gruppe der Kunden eines MultiGPU Systems ist nun mal gering)
2. Treiberprobleme: Schon bei der 7950gx2 (erstes mögliche 4 GPU System)
war es schwierig eine optimale Auslastung der Karten bzw. Verwaltung der
Daten zu haben. Je mehr Karten desto schwieriger das Ganze (Skalierung)
Wobei grad der zweite Punkt ausschlaggebend ist. Man kann für die Leistungssteigerung bei der Nutzung von mehreren GPUs, die von CPUs, als Vergleich heranziehen:
1 CPU Kern skaliert zu 100%, 2 Kernen ca. 80% und 4 Kerne (wenn sie genutzt werden) bis etwa 50%-60%. Bei immer mehr Kernen wird es auch schwieriger die Arbeit optimal auf alle verfügbaren Kerne zu verteilen.
Intel hat mit ihrem "Forschungchip (über 200Kerne) berechnet, dass mit bis zu 16 Kernen ein gutes Leistungplus bei einer Steigerung der Kernanzahl erzielt werden kann. Danach immer schlechter.
Ein gutes Beispiel finde ich ist der AMD Phenom X3 (3 Kerne): Hier wird
zum Teil eine bessere Leistung erzielt, als mit einem Vierkerner (VSS. nicht extrem auf 4Kerner optimierte Software) bei "Multikern" Software.
Ich denke NV ist mit CUDA einfach einen Schritt schneller, als ATI/AMD gewesen. Zudem bietet CUDA als freiprogrammierbare Schnittstelle schon jetzt ungeahnte Möglichkeit für Software Entwickler. Kein Wunder, dass bevorzugt darauf programmiert wird. Kann sich aber mit DX 11 ändern, wenn ein einheitlicher Standard geschaffen wird.
ps. Biete nicht auf die Werte genau festnageln, kann von Fall zu Fall unterschiedlich sein
mfg