Grafikkarten-Test: Crossfire-X gegen Quad-SLI und 3-Way-SLI

Wer hat denn die Nase vorn bei Clear Sky ? Die X2 natürlich vor der 295.
Von der 285 rede ich nicht. Also guck richtig man !
ich weiß ja wieder nicht was du gelesen hast, aber ich sehe da die 295 vor der X2 und die 285 vor der 4870

habs für dich sogar nochmal rot markiert, scheint ja wirklich extrem schwer zu lesen zu sein:
 
ich weiß ja wieder nicht was du gelesen hast, aber ich sehe da die 295 vor der X2 und die 285 vor der 4870

habs für dich sogar nochmal rot markiert, scheint ja wirklich extrem schwer zu lesen zu sein:

In Auflösungen jenseits der 1.920x1.200 liegt die X2 deutlich vor der 295...
Auch in Crysis liegt die X2 ab 1.920x1.200 mit 8xMSAA deutlich vor der 295...
 
In Auflösungen jenseits der 1.920x1.200 liegt die X2 deutlich vor der 295...
Auch in Crysis liegt die X2 ab 1.920x1.200 mit 8xMSAA deutlich vor der 295...
ja mit 5 frames pro sekunde - da macht das zocken doch direkt spaß :lol::lol:

beantworte mir nur eine frage: was ist deiner meinung nach die sinnvollere grafikkarte - diejenige, die bei 30fps schneller ist oder die, die bei 5fps schneller ist?
 
ja mit 5 frames pro sekunde - da macht das zocken doch direkt spaß :lol::lol:

beantworte mir nur eine frage: was ist deiner meinung nach die sinnvollere grafikkarte - diejenige, die bei 30fps schneller ist oder die, die bei 5fps schneller ist?

Hast schon recht, dass man bei 5 Frames nicht spielen kann. Sinnvoll ist natürlich die Karte, die spielbare Bilder auf den Bildschirm liefert.
Es geht aber darum, dass die X2 bei so hohen Auflösungen einfach die bessere Karte ist. Spielbare Frames oder nicht.
 
Anhand des Crysis benches kann man sehr schön sehen das wenn es um brachiale rechenleistung geht Nvidia weit hinter ATI zurückbleibt.
Und das die ATI treiber selten das volle potential der karte nutzen im gegenzatz zu Nvidia.
Sollte irgendwan ATI genauso eng mit den spieleentwicklern zusammen arbeiten muss sich nvidia wirklich mal was neues einfallen ausser ihre alten karten dauernd neue bezeichnungen zu geben:lol:
 
Hast schon recht, dass man bei 5 Frames nicht spielen kann. Sinnvoll ist natürlich die Karte, die spielbare Bilder auf den Bildschirm liefert.
Es geht aber darum, dass die X2 bei so hohen Auflösungen einfach die bessere Karte ist. Spielbare Frames oder nicht.

Und da sind wir wieder bei dem Thema "Benchmark Karte". Hast ja Recht, dass sie bei den Settings schneller ist, doch kein Gamer kann was mit unter 20fps anfangen.

Ich persönlich achte sehr darauf, dass das jeweilige Game anständig läuft! Ich regel lieber ein bisschen AA und AF runter, für anständige FPS Werte.

Und nebenbei ich bin nur ein objektiver Beobachter ;-).

@PCGH: super Test.
 
Anhand des Crysis benches kann man sehr schön sehen das wenn es um brachiale rechenleistung geht Nvidia weit hinter ATI zurückbleibt.
Und das die ATI treiber selten das volle potential der karte nutzen im gegenzatz zu Nvidia.
Sollte irgendwan ATI genauso eng mit den spieleentwicklern zusammen arbeiten muss sich nvidia wirklich mal was neues einfallen ausser ihre alten karten dauernd neue bezeichnungen zu geben:lol:

Also jetzt würde ich mal langsam leiser werden an deiner Stelle....
ATI/AMD benennt selbst Grafikkarten aus der HD3000er Reihe um, damit sie in der HD4000er Generation untergebracht werden können.
Link:
AMD benennt Grafikkarten um - News Hartware.net


Und nur zur Information 2006 hat ATI das schon mal gemacht!!!!
Link:
ComputerBase - ATi benennt weitere Grafikkarten um

Ich heiße solche "Geschäftspraktiken" generell nicht für gut, aber man sollte nicht einseitig urteilen.


mfg
 
@ minustaurusrex

In 2.560 haben die Geforces VRAM-Probleme, nicht mehr und nicht weniger. Mit der Rechenleistung hat das wenig zu tun. Laut den Release Notes des 181.22 hat nV allerdings bei vielen Spielen Fixes für extreme Auflösungen eingebaut, evtl. tut sich da ja auch was bei Crysis?

cYa
 
@ minustaurusrex

In 2.560 haben die Geforces VRAM-Probleme, nicht mehr und nicht weniger. Mit der Rechenleistung hat das wenig zu tun. Laut den Release Notes des 181.22 hat nV allerdings bei vielen Spielen Fixes für extreme Auflösungen eingebaut, evtl. tut sich da ja auch was bei Crysis?

cYa

Is einfach nur lächerlich, dass bei Crysis ab 2.560...nix mehr passiert. muahaha...

Anhand des Crysis benches kann man sehr schön sehen das wenn es um brachiale rechenleistung geht Nvidia weit hinter ATI zurückbleibt.

Ist vollkommen richtig, gibts überhaupt keine Diskussion, weil die Tatsachen für sich sprechen.
 
Zuletzt bearbeitet von einem Moderator:
@ minustaurusrex

In 2.560 haben die Geforces VRAM-Probleme, nicht mehr und nicht weniger. Mit der Rechenleistung hat das wenig zu tun. Laut den Release Notes des 181.22 hat nV allerdings bei vielen Spielen Fixes für extreme Auflösungen eingebaut, evtl. tut sich da ja auch was bei Crysis?

cYa


Ob man da viel mit einem Treiber rausholen kann, wage ich mal zu bezweifeln.
NV hat schon seit 7er Generation ein schlechteres Speichermanagment, als ATI gehabt. Da wird ein Treiber nicht allzu viel ändern können.

Als logische Konsequenz ist es dann falsch eine GTX295 (als HIGHEnd Karte) mit nur 2 x 896MB zu bestücken (Sparmaßnahme???)

Das gleicht sich mit den computerbase Ergebnissen:
ComputerBase - Test: Nvidia GeForce GTX 285 (SLI) (Seite 20)

Da schneiden 2 GTX 280 deutlich besser ab in hohen Auflösungen, als eine GTX 295.

Aber auch besser, als eine 4870x2:D
Deshalb glaube ich auch nicht, dass die Rohleistung ausschlaggebend ist. ATI hat seit der HD2900er Reihe auf dem Papier eine höhere Rohleistung, als NV.
Im Ergebnis war NV immer schneller.

@ PCGH_Marc
Kannst du mir mal genau sagen wieviele "richtige Shader Einheiten" die 4870 hat (ATI/AMD rechnet seit der HD2900er immer noch sekundäre Einheiten als richtige Shader Units mit)
 
Ist vollkommen richtig, gibts überhaupt keine Diskussion, weil die Tatsachen für sich sprechen.
nur wenn man die tatsachen sich so hinbiegt, wie sie einem gerade in den kram passen. denn reine rechenleistung liegt die geforce weit vor der x2 -> siehe die benches auf 1920 bei 4xAA, wo nur die rechenleistung des chips und nicht der speicher zur bremse wird.
 
@pcghMarc

Wie siehts denn jetzt aus mit F@H?
Reicht Ihr noch Benches nach - oder Watt?

Am Besten beides!

Und die Leisungsaufnahme unter Praxisbedingungen würde mich auch sehr Interessieren. Also z. B. die Spitzen und die mittlere Leistung bei Crysis oder 3DMark.
 
@ Kosake

1 Fps wäre schon mal besser als ein schwarzer Bildschirm :D Ich schau mir den Treiber an. Bezüglich der Shader bzw. ALUs. Seit dem R600 kommen sogenannte Vector-5-Einheiten zum Einsatz. Ob man nun bei einem RV770 von 800 oder 160 ALUs oder zehn SIMD-Arrays spricht, ist so eine Sache. In der Theorie sind 5-Vecs effizienter, in der Praxis sieht es meist anders aus. Zudem ist die Programmierung auf 5-Vecs aufwendiger als aus skalare Units wie sie bei einem GT200 vorkommen. So rechnet eine GTX260-216 trotz "nur" 216 skalaren ALUs (respektive neun TCPs) mindestens auf Augenhöhe mit einer HD4870/1G. Es gibt daher keine pauschale Aussage wie viele "richtige Shader Einheiten" ein RV770 hat.

@ derderimmermuedeist

Mit F@H habe ich an sich nichts am Hut, aber vll erklärt sich Carsten bereit. Es kommt die Tage allerdings ein weitere Artikel, der sich mit SLI/CF beschäftigt, dort kann ich F@H gerne einbauen. Neben idle und Furmark+Prime95 wird es hier auch Messungen der Leistungsaufnahme in Spielen (kein 3DM *g*) geben. Und ich kann dir jetzt schon sagen, mit spannenden Ergebnissen – gerade wenn man den Faktor Fps/Watt betrachtet.

cYa
 
Würde mich auch gern mal interessieren, wieviel Leistung SLI-Combis in geringeren Auflösungen (1024x768, 1280x800, usw) bringen ...
 
@ lev666

Je geringer die Auflösung/Settings, desto stärker bremst die CPU die Karten, da die Synchronisation der GPUs Leistung schluckt - sieht man bei HL2 sehr schön. MGPU ist bei solchen Auflösungen/Settings schlicht fehl am Platz.

Anhang anzeigen 70502

cYa
 
Würde mich auch gern mal interessieren, wieviel Leistung SLI-Combis in geringeren Auflösungen (1024x768, 1280x800, usw) bringen ...

naja, eigentlich ist der Sinn eines MultiGPU - Systems in besonders hohen oder auch extremen Settings spielbare FPS zu liefern, wo eine einzelne Grafikkarte einfach überfordert ist.
Jede Single GPU liefert in in niedrigen Auflösungen ala 1024 x 768 mit AA und AF mehr als spielbare Werte.

Den einzigen Zweck sehe ich in der Nutzung von SLI AA und AF (extremste der extremen Settings; Performance bricht um über 60% ein), da dürfte dann auch wieder die starke CPU Limitierung aufgehoben sein.

mfg
 
Zuletzt bearbeitet:
Zurück