Grafikkarten-Test: Crossfire-X gegen Quad-SLI und 3-Way-SLI

:wow: Clear Sky ist aber übel :ugly:
Ansich sehr guter Test. Nur die Skalierung ist bei Warhead ercht besch...euert.
 
Na da bin ich aber nicht sicher ob du den Test richtig gelesen hast . Davon ab , vergleichst du gerade 3 Chips gegen 2 Chips , und vom Preis brauchen wir nicht reden . Abseits davon hat die NV kombo nocht mal alle Tests bestanden und hat den Dienst ganz versagt . Also blas nicht rum . Die 4870X2 ist schon ein Kraftpacket . Wobei ich eh diesen 4 GPU oder drei GPU Quatsch nicht nachvollziehen kann . 2 GPUs sind das Optiemum , für den rest ist die Zeit noch nicht reif .
Was dein letztes Beispiel angeht , dreht sich das Blatt in Crysis WH aber genau andersrum . :daumen: Also mach die Leute nicht dum an , nur weil sie anderer Meinung sind .
Ich glaube aber das du ein NV Fan bist :schief: :ugly::ugly:

2 GPU's?

Also eine 4870X2 (sind doch zwei 4870, oder?) gegen 2 GTX 285 als SLI ?

Die 4870X2 ist nur bei exorbitanten 2560x1600 in gaskranken AA's vorn - bei unspielbaren 4 bzw. 5 Fps. Entschuldigung, bei Warhead natürlich mit 4 bis 13,2 Fps ...

Ansonsten, immer hinten dran.
In Far Cry 2 ist sogar eine GTX 285 fast so schnell wie zwei 4870 (also eine 4870X2)

Ich finde Bucklew ist doch total sachlich mit seiner Argumentation.
Allerdings wirkst Du wie Beleidigt mit Deinen Aussagen.
 
Kann mir mal einer erklären wieso die das nich wie bei teuren Renderern machen? Da kann man ganze renderfarmen mit mehrkernsystemen zusammen eine einzelene Frames via Buckets rendern lassen - wieso können das grafikkarten in Anwendungen nicht auch?
 
netter Test, danke! :daumen:

Mal 'nen Vorschlag zu den Diagrammen:
wie wäre es, wenn ihr für die Reihenfolge der Karten nicht die "Average fps" sondern die "Minimum fps" zu Grunde legen würdet?
ob 35,4 oder 35,5 fps im Mittel ist doch Wurst, nicht aber ob dabei 18 oder 28 fps als "Minimum" erreicht werden.

Was denkt ihr?

greetz
Ich denke mal den Minimum FPS darf man nicht allzu viel Bedeutung beimessen, da sie mit Sicherheit bei jedem Durchlauf zu sehr schwanken.
 
Weil die bei Renderfarmen nicht soo zeitkritisch sind, bei PC Spielen muss alles in Realtime berechnet werden, auf Renderfarmen nicht.
 
Kann mir mal einer erklären wieso die das nich wie bei teuren Renderern machen? Da kann man ganze renderfarmen mit mehrkernsystemen zusammen eine einzelene Frames via Buckets rendern lassen - wieso können das grafikkarten in Anwendungen nicht auch?
du sagst es doch schon "teuer" ;)

das problem ist recht einfach: directx bietet keine möglichkeit das ganze besser zu machen als per AFR. die alte 3dfx-taktik mit der aufteilung der zeilen geht auch nimmer. höchstens die aufteilung von AA-stufen pro GPU ist sinnvoll, weiß aber nicht wie das bei DirectX läuft ;)

Ich denke mal den Minimum FPS darf man nicht allzu viel Bedeutung beimessen, da sie mit Sicherheit bei jedem Durchlauf zu sehr schwanken.
eigentlich dürften sowohl die min- als auch die max-fps niemals stark schwanken beim gleichen system. dennoch sind die min-fps viel entscheidender, durchgängig 50fps ist schlicht besser als dauerhaft 200fps und alle 10sekunden mal nur 10....
 
Wär toll, wenn ihr euer Benchmark-System mal komplett überdenken würdet, und nicht mehr die durchschnittliche framezeit, sondern zum Beispiel die durchschnittliche max. framezeit in einer sekunde (also was eher an den "gefühlten" fps liegt") messen bzw. aufschreiben würdet. Außerdem könntet ihr statt der min. fps die max. frametime schreiben. Das würde es ermöglichen, Grafiklösungen realistischer anhand der "echten" leistung zu vergleichen, und nicht daran, wieviele Bilder ind er Sekunde rausgehauen werden, was absolut realitätsfern ist, da mir das auch nichts nützt, wenn ich 30bilder kurz intereinander bekomme, die alle fast gleich aussehen, und dann für eine halbe Sekunde gar nichts. :)
 
@PCGH:

was mir gerade auffällt - warum brechen die ATI-Karten bei FarCry2 eigentlich beim sprung von 4 auf 8 MSAA unter 2560x1600 dermaßen ein? Vorallem wo doch 8xMSAA eigentlich die radeon-domäne ist?
 
eigentlich dürften sowohl die min- als auch die max-fps niemals stark schwanken beim gleichen system. dennoch sind die min-fps viel entscheidender, durchgängig 50fps ist schlicht besser als dauerhaft 200fps und alle 10sekunden mal nur 10....
Ohne Frage sind die Min. FPS wichtig. Ich meine sogar Computerbase hat sich darüber ausgelassen, dass die Minimum FPS z.T. sehr schwanken.
 
Absoluter Spitzenartikel von euch!:daumen: Schohnungslos den Spiegel vorgehalten, absolut klasse! (Leider für mich nen halbes Jahr zu spät:()
Ich hab zwei 4870X2er(gerade in Reperatur, weil die nen Buck haben) und bin damit überhaupt nicht zufrieden!:daumen2: Hab die damals gekauft um Crysis @max auf nem 22" flüssig spielen zu können.....das klappte nicht so ganz....:wall:
Na ja wie auch immer, in Warhead gehts besser aber perfekt auch noch nicht! :stupid:
Super laut sind die Teile auch(am Anfang war es nur mit Ohrenstöpsel zu ertragen).....Stromverbrauch ist dagegen erstaunlich niedrig(gemessen an den Benches aus dem Netz), bisheriger max Wert sind 678Watt!:ka:
Den Input-Lag hab ich noch nie bemerkt, trotz vier GPUs....Microruckler schon....aber erst so ab 30fps!
Wenn ich mir die Benches so ankucke, dann hab ich echt 950€ das Klo runter gespült, mist hätte ich mir mal drei GTX280 gehohlt....na ja shit happens!:crazy:

Ich hoffe das Geblubber von mir konnte noch unentschlossenden weiter helfen! Wenn ihr noch Fragen habt, könnt ihr mich gerne anschreiben!;)

Eine Frage zum Artikel hab ich noch:
Früher habt ihr doch immer die NV-Treiber auf ne höhre Quali stellen müssen und die ATIs auf Default?! Ihr habt das meine ich damit begründet, das die NVs auf Default schlechter aussehen als die ATIs!
Ist dem nicht mehr so, oder was war der Grund hier nicht mehr so zu fahren?:what:
 
wieso ist bei der single gpu karte eine avarage fps von 32 angegeben wo doch der graph einen durchgängigen verlauf bei unter 30 fps zeigt?
 
Man beachte die Achsenbeschriftungen :schief: Millisekunden ungleich Fps.

attachment.php


cYa
 
Was mich massiv wundert ist die schlechter Skalierung von 2 4870X2 im Vergleich zu einer 4870 X2 und einer 4870 1 Gb. Das lohnt sich ja garnicht. Und kann es sein, dass der neue Catalyst nochmal wirklich Power bringt?
 
da hat wieder jemand einen anderen test gelesen als ich :huh::huh:

also in dem hier oben verlinkten test liegt die Triple-SLI Lösung von Nvidia mit 285 in 7/10 tests vorne - und die 3 tests wo die ATI vorne liegt sind mit maximal 13fps völlig unspielbar.

und in den spielbaren bereichen liefern sogar zwei GT200-chips mehr Leistung als vier RV770-chips :daumen:

ich glaube nicht, dass du nvidia-fan bist :ugly::ugly:

Fakt ist doch, dass die ATI problemlos mithält, unspielbar oder nicht, die ATI liegt in einigen Benches vorne. Das ist Tatsache und bedarf überhaupt keiner weiteren Diskussion. Ich habe nicht gesagt, dass die ATI an Platz 1 ist.:schief:

Vielleicht kann mir mal bitte jemand erklären, warum es derzeit nicht möglich ist, zb. 3 GTX295 auf einem Tripple SLI Board zu betreiben.
Hat man das überhaupt mal probiert, ob was passiert.
Sicher, dass man keinen Zuwachs an Performance hat ? Auch wenn es nur 5 Frames wären.

Danke vorab für die Antworten.
 
Zuletzt bearbeitet von einem Moderator:
Fakt ist doch, dass die ATI problemlos mithält, unspielbar oder nicht, die ATI liegt in einigen Benches vorne. Das ist Tatsache und bedarf überhaupt keiner weiteren Diskussion. Ich habe nicht gesagt, dass die ATI an Platz 1 ist.:schief:

Hast Du einen anderen Test gelesen als wir?

Vielleicht kann mir mal bitte jemand erklären, warum es derzeit nicht möglich ist, zb. 3 GTX295 auf einem Tripple SLI Board zu betreiben.
Hat man das überhaupt mal probiert, ob was passiert.
Sicher, dass man keinen Zuwachs an Performance hat ? Auch wenn es nur 5 Frames wären.

Danke vorab für die Antworten.

Ist technisch nicht Möglich weil der erforderliche zweite SLI-Steckplatz pro Karte nicht da ist.
 
"Was mich massiv wundert ist die schlechter Skalierung von 2 4870X2 im Vergleich zu einer 4870 X2 und einer 4870 1 Gb. Das lohnt sich ja garnicht."

Du sagst es ! Es lohnt sich nicht und es wird sich auch nie lohnen !

Crossfire-X und SLI Lösungen sind einfach nur rausgeschmissenes Geld und mehr nicht ! Und das wissen wir alle ob nun NV oder ATI -Sympathisanten. :schief:

Einen schönen Tag noch an alle.
 
Zurück