Ati Radeon HD 5850/5870 Crossfire vs. Nvidia Geforce GTX 285 SLI im Test: Multi-GPU-Shootout

Erstmal abwarten! Die wirkliche Leistung der neuen 5800er Generation wird sich erst bei echten DX11 Spielen zeigen können!
Ich bitte Dich! Wir kennen das jetzt schon seit knapp 10 Jahren.da führte NVidia mit dem Geforce 256 Hardware T&L ein. Bis das in Spielen leistungsfördernd implementiert war hatte jeder schon eine Geforce 2 Pro im Rechner. Analogien sind DX8 mit dem Geforce 3 und DX10 mit der 8800 GTS 320/640. Bis die Features eine Marktbedeutung haben ist die 5870 a.) zu langsam und b.)alt. NVidia geht es nicht anders. Die ersten Karten der neuen Generation bewältigen hervorragend die Anforderungen der letzten Generation.Das ist alles.
Fakt ist: wenn Nvidia keine Probleme mit ihren Karten hätten, dann würden sie noch pünktlich zum Weihnachtsgeschäft da sein! Da dies als unwahrscheinlich gilt, kann man annehmen, dass Nvidia etwas in der Klemme sitzt. Deswegen betrachte ich die kürzlichen Werbeveranstaltungen zu ihrer "Überkarte" sehr kritisch - in meinen Augen eine reine Hinhaltetaktik.
Wieso bitteschön ist das Fakt? GTX275er für unter 200€ verkaufen sich im Moment wie geschnitten Brot...und die Mehrheit derjenigen die über 450€ für eine Grafikkarte-die gar nicht nötig ist-springen lassen-kaufen sich die Karte wenn sie da ist. Ein weiterer Anlass wie der Weihnachtsmann oder' s Sandmännchen ist nicht vonnöten. Vonnöten wäre allerdings mal ein Statement seitens PCGH-warum ein 5870er Crossfire-Verbund dermaßen in CoD5 absegelt. Jetzt bitte nicht mit irgend einem Treibergewäsch kommen...die 4870 X2 ist seit einem Jahr auf dem Markt und macht völlig die Grätsche
 
Ich bitte Dich! Wir kennen das jetzt schon seit knapp 10 Jahren.da führte NVidia mit dem Geforce 256 Hardware T&L ein. Bis das in Spielen leistungsfördernd implementiert war hatte jeder schon eine Geforce 2 Pro im Rechner. Analogien sind DX8 mit dem Geforce 3 und DX10 mit der 8800 GTS 320/640. Bis die Features eine Marktbedeutung haben ist die 5870 a.) zu langsam und b.)alt. NVidia geht es nicht anders. Die ersten Karten der neuen Generation bewältigen hervorragend die Anforderungen der letzten Generation.Das ist alles. Wieso bitteschön ist das Fakt? GTX275er für unter 200€ verkaufen sich im Moment wie geschnitten Brot...und die Mehrheit derjenigen die über 450€ für eine Grafikkarte-die gar nicht nötig ist-springen lassen-kaufen sich die Karte wenn sie da ist. Ein weiterer Anlass wie der Weihnachtsmann oder' s Sandmännchen ist nicht vonnöten. Vonnöten wäre allerdings mal ein Statement seitens PCGH-warum ein 5870er Crossfire-Verbund dermaßen in CoD5 absegelt. Jetzt bitte nicht mit irgend einem Treibergewäsch kommen...die 4870 X2 ist seit einem Jahr auf dem Markt und macht völlig die Grätsche


COD war schon immer eine Domäne der NV Karten. Warum ? keinen schimmer. Ist warscheinlich das selbe wie für ATI Karten das Spiel Grid. Da kommt keine NV Karte mit. Liegt warscheinlich an den Programiercodes. Es wird immer Spiele geben in denen eine Karte schneller ist und in einem anderen eine andere.
Aber das sich eine GTX275, wie geschnitten Brot verkauft, halte ich für ein Gerücht. (laut meinen Info's) Bei einer GTX260+ hätte ich dir recht gegeben. Bei der Karte kommt es im Moment zu liefer schwierigkeiten. :devil:
 
Das Nvidia-Karten in CoD so gut abschneiden liegt soweit ich weiß daran, dass es ein sehr Füllraten-lastiges Spiel ist. Und hier ist die Nvidia-Architektur besonders gut. Bei Ati-Karten laufen Shader-lastige Spiele besser (deswegen vielleicht auch Grid und Risen).

Das stand aber auch schon mehrmals in der PCGH und auf der Webseite hier. :schief:
 
"Update: 6.10.2009
Heute bieten wir Ihnen ein Update des Multi-GPU-Shootouts. Auf Seite 12 des Artikels vergleichen wir die SGSSAA-Performance einer einzelnen Radeon HD 5850 respektive HD 5870 mit ihrem jeweiligen Crossfire-Doppel."

Falsch verlinkt, funzt sowas von nicht.
 
Ähm; entspricht 4x SGSSAA nicht der Polygongläätung von 4x RGMSAA, während 2x2 OGSSAA etwa auf dem Niveau von 2x RGMSAA liegt?
 
Sehr schön reagiert mit diesem Nachtest und mit 2x2SGSSAA den limitierenden Faktor CPU beiseite geschafft. Teilweise reichte ja nicht mal 24x ED-CFAA, um das große Radeon-Gespann in den FPS-Bereich unterhalb des CPU-Limits zu bringen.
Nun kann man sehen, wie die wahre Skalierung ist und sie ist sehr gut bis perfekt.
Leider gibt es weiterhin die Problematik der ungleichmässig verteilten Frames.


Gruß
Kakerlake

PS: Nun sollten sich noch die vielen Nörgler an der Skalierung, sowie die Zweifler an dem limitierenden Faktor I7 für solche Grakagespanne wie 2x GTX285 und 2x 5870 in "zu niedrigen" Grafikeinstellungen überlegen, wie man Tests liest und interpretiert.
 
Zuletzt bearbeitet:
Auch der GT300 wird von einer CPU - Limitierung betroffen sein. Da braucht man nur mal seine grüne oder rote Brille absetzen und sieht auf einmal klarer.

Wenn die Technik eines I7 von den Spielen nicht komplett ausgereizt wird, dann ist schnell aus die Maus mit FPS - Sprüngen, egal welchen Herstellers.
 
@INU.ID
AMDs Multi-GPU-Technik skaliert mit diesen fordernden Settings exzellent, die Steigerung durch eine zweite Karte liegt meistens bei knapp 100 Prozent. Eine bessere Skalierung von einer auf zwei GPUs ist nicht möglich. :daumen:

Woher stammt dieses Zitat?
 
@INU.ID

Woher stammt dieses Zitat?
Vielleicht wärs ganz sinnvoll den Artikel auch einfach mal zu lesen bevor man ihn kommentiert ;) ...das Zitat stammt nämlich aus eben diesem.

Klick

Finds aber auch erstaunlich! Scheinbar rennt so ein CF-System doch sehr schnell ins CPU-Limit wenn man nicht entsprechend extreme Qualitätseinstellungen wählt.
 
Zuletzt bearbeitet:
Aus diesem Test, genauer aus dem Nachtest mit 8xSGSSAA.
Leider kam der Nachtest etwas spät, sonst hätte sich der Kommentarthread vielleicht die etwa 50 Schwachsinnposts über schlechte Skalierung und miese CF-Treiber sparen können.
Nunja beim schnellen Überfliegen der Zahlen sieht man halt nicht, dass beim 5870-CF-Gespann in 5 von 9 Spielen unter 4AA die FPS in allen Auflösungen etwa gleich ist, auch die FPS des GTX-Gespann bleiben häufig an der CPU-Grenze hängen.
Da kommt halt dann so n Schmarrn wie schlechte Skalierung und miese Treiber.


Gruß
Kakerlake
 
Seitens der Autoren wird auf pcgh.de immer wieder gern auf Microruckler hingewiesen und wie schlecht das bei ATI ist und wie toll die Nvidia-Karten dabei sind. Sie werden auch nicht Müde, dies bei jeder Monatsünersicht "Kaufe Nvidia ..., Kaufe ATI ..." so in den Mittelpunkt zu rücken, als wäre es DAS Kaufkriterium. Soweit so gut. Ich kann es nicht beurteilen und plane auch nicht, mehrere Karten in meinen Rechenknecht zu stopfen. Ich habe mich in anderen Tests zu diesem Thema belesen und da ist der Thenor folgendermaßen: Microruckler sind nur bei Frameraten unter 30 Bilder je Sekunde wahrnehmbar. Dies ist ja durchaus logisch, wenn man die die gute grafische Aufarbeitung zu Beginn des Artikels anschaut. Warum wird das hier permanent verschwiegen??? Damit ist doch das Problem ein faktisch nicht relevantes bei der Kaufentscheidung!
 
Zurück