Test Radeon HD 5970 (Hemlock): Die schnellste DirectX-11-Grafikkarte der Welt

Geile Karte nur wo ich mir das mit den Mikroruckeln duchgelesen habe bin ich doch zu dem Entschluss gekommen auf eine Single Karte von Nvidia zu warten.

Ganz sehrlich, ich verstehe das microruckler-problem nicht?! ich treffe meine grafikeinstellungen so, dass das jeweilige spiel gut spielbar ist. ich komme einfach nciht auf die idee, mit 10 oder 20 fps zu spielen!!! und über 30 fps ist das problem nicht real.

"Die Radeon HD 5970 bietet allerdings solch' eine brachiale Rohleistung, dass es bei aktuellen Spielen so gut wie nie zu Mikrorucklern kommen kann – die Frameraten liegen viel zu weit jenseits der kritischen Grenze." (CB)

Also was soll das Ganze? Ich kaufe mir auch keinen SLK und jammer dann über den viel zu kleinen Kofferraum! Man weiß was man kauft und man weiß, wie es zu nutzen ist. alle anderen sollten sich keine komponenten kaufen sondern eine bunte fertige dose...

Zum Thema: Die Karte ist Klasse und vor allem: Sie ist das beste was es zz gibt und ich denke, das wird noch einige zeit so bleiben. Zudem ist sie sehr gut für Übertaktungen ausgelegt.

Gründe:
1. Fermi könnte Gamer enttäuschen, denn die dafür benötigte Leistung steigt bei weiten nicht wie die für wissenschaftliche berechnugnen

http://brightsideofnews.com/news/20...mi-is-less-powerful-than-geforce-gtx-285.aspx

2. Die leistungsaufnahme der Geforce wird höher sein als die einer 5870. eine multi-gpu-karte also noch problermatischer unter die 300w - spezifikation zu bringen sein. das wiederum begrüße ich, da ich kein fan von multi-gpu-karten in deren jetziger form bin.
 
Zuletzt bearbeitet:
in der Tabelle steht das die 5970 2 6Pin Stromstecker hat, auf dem Foto sind aber ein 6Pin und ein 8Pin zu sehen...

Was stimmt nun?

oder kann ich nicht gucken?
 
@tm0975:
Wenn CB die sinnvollen BQ-Optionen von Ati außen vor lässt, mag das stimmen. Andererseits: Bei wievielen Spielen braucht man dann überhaupt 1,8xHD5870-Leistung, wenn man nur 8x MSAA und AF einsetzen mag? Crysis, vielleicht Stalker und dann lange nix. Insofern kannst du auch einem Porsche unterstellen, dass das Problem mit dem hohen Vollgas-Spritverbrauch von sagen wir mal 30 Litern sich in der Praxis nicht auswirkt, weil man das Ding eh nur auf der Rennstrecke ausfahren kann. Nur: Wofür dann das ganze?

@DOcean:
6+8 stimmt. Tabelle ist FU.
 
dort wird auch drauf hingewiesen, das mikroruckler so gut wie nie auftreten.
auch die unterschiedlichen ergebnisse in der gesamten spiele leistung ist schon interessant.
ist immerwieder interessant, wie unterschiedlich doch die selben tests auf unterschiedlichen hardwareseiten verlaufen...
Soweit mir bekannt ist, benutzt CB die Standardbenchszenarien, die meißt stark optimiert werden von den grakHerstellern (Auf beiden Seiten). PCGH dagegen sucht sich selber ein typisches Szenario, wo solch eine optimierung selten der Fall ist.
Was du jetzt als sinnvoller erachtest, ist deine angelegenheit ;)
 
Zuletzt bearbeitet:
Ganz sehrlich, ich verstehe das microruckler-problem nicht?! ich treffe meine grafikeinstellungen so, dass das jeweilige spiel gut spielbar ist. ich komme einfach nciht auf die idee, mit 10 oder 20 fps zu spielen!!! und über 30 fps ist das problem nicht real.

"Die Radeon HD 5970 bietet allerdings solch' eine brachiale Rohleistung, dass es bei aktuellen Spielen so gut wie nie zu Mikrorucklern kommen kann – die Frameraten liegen viel zu weit jenseits der kritischen Grenze." (CB)

Also was soll das Ganze? Ich kaufe mir auch keinen SLK und jammer dann über den viel zu kleinen Kofferraum! Man weiß was man kauft und man weiß, wie es zu nutzen ist. alle anderen sollten sich keine komponenten kaufen sondern eine bunte fertige dose...

Zum Thema: Die Karte ist Klasse und vor allem: Sie ist das beste was es zz gibt und ich denke, das wird noch einige zeit so bleiben. Zudem ist sie sehr gut für Übertaktungen ausgelegt.

Gründe:
1. Fermi könnte Gamer enttäuschen, denn die dafür benötigte Leistung steigt bei weiten nicht wie die für wissenschaftliche berechnugnen

UPDATE #2: nVidia NV100 [Fermi] is less powerful than GeForce GTX 285? - Bright Side Of News*

2. Die leistungsaufnahme der Geforce wird höher sein als die einer 5870. eine multi-gpu-karte also noch problermatischer unter die 300w - spezifikation zu bringen sein. das wiederum begrüße ich, da ich kein fan von multi-gpu-karten in deren jetziger form bin.

signed :daumen:
 
Soweit mir bekannt ist, benutzt CB die Standartbenchszenarien, die meißt stark optimiert werden von den grakHerstellern (Auf beiden Seiten). PCGH dagegen sucht sich selber ein typisches Szenario, wo solch eine optimierung selten der Fall ist.
Was du jetzt als sinnvoller erachtest, ist deine angelegenheit ;)


genau :D
 
Was ich jetzt aber wirklich beeindruckend finde ist, dass 2 unterschiedliche 5890-Modelle bei Alternate lieferbar sind!!!

http://www.alternate.de/html/summar...scription=Alle+ATI+Radeon+HD5970+Grafikkarten

@tm0975:
Wenn CB die sinnvollen BQ-Optionen von Ati außen vor lässt, mag das stimmen. Andererseits: Bei wievielen Spielen braucht man dann überhaupt 1,8xHD5870-Leistung, wenn man nur 8x MSAA und AF einsetzen mag? Crysis, vielleicht Stalker und dann lange nix. Insofern kannst du auch einem Porsche unterstellen, dass das Problem mit dem hohen Vollgas-Spritverbrauch von sagen wir mal 30 Litern sich in der Praxis nicht auswirkt, weil man das Ding eh nur auf der Rennstrecke ausfahren kann. Nur: Wofür dann das ganze?

Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
 
alles in allem ne Super-Karte... Mikroruckeln ist ein allgemeines Problem der Multi-GPU-Lösungen, an dem die Hersteller durch bessere Treiber oder andere Ideen schon etwas machen können denk ich.

und das die Karte bei Call of Duty 6 das 285er-SLI nicht schlägt, ist auch nicht so verwunderlich, Call of Duty war schon immer (ab dem 4er zumindest) ein Spiel, was auf NVidia besser lief...

achja, ihr könntet vielleicht noch ein 5870-CF-System mittesten, das hab ich in den Tabellen nicht gesehen
 
Thx, für den sachlichen Benchmark.

Für mich sind die specs. keine große Überraschung. Allerdings hätte ich doch ein wenig mehr fps in Crysis erwartet. Aber wegen der Microruckler kommt für mich keine x2 Karte in Frage.

Ich warte auf NV´s Fermi. mfg
 
Ich muss sagen, tolle Leistung für noch nicht ausgereifte Treiber.
Trotzdem hätte ich mit weit mehr Abstand zu z. B. einem GTX285-SLI-Gespann gerechnet.
Habe so langsam das Gefühl das Nvidea dann doch mit dem Fermi ein Wörtchen mitreden kann....
 
Ich muss sagen, tolle Leistung für noch nicht ausgereifte Treiber.
Trotzdem hätte ich mit weit mehr Abstand zu z. B. einem GTX285-SLI-Gespann gerechnet.
Habe so langsam das Gefühl das Nvidea dann doch mit dem Fermi ein Wörtchen mitreden kann....


Wenn eine 5850 auf höhe der GTX285 ist, wieso sollte dann eine 5970 schneller sein als ein SLI Gespann von 2 GTX285 :schief: Denk mal nach :what:
 
Sieht schon mal ganz "nett" aus. Bin mal gespannt was sich da in Zukunft noch mit besseren Treibern rausholen lässt.
 
Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.

Und wenn du zusätzliche 200-300 Euro nur für eine höhere Fps-Anzeige ausgeben möchtest, schick ich dir gern meine Bankverbindung und du kriegst eine Fraps-Version mit Fpsx2 ;)
 
Beeindruckende Leistung aber was bringts?

Insgesamt eine sehr interessante und verdammt schnelle Karte. Ansonsten in ca. 99% der Fälle überflüssig ;) Zumindest meiner Meinung nach. Aber schön, dass es sowas gibt :daumen:

Interessant wären noch zwei 5870 und/oder 5850 im Crossfire. Wie siehts eigentlich mit zwei 5970 bzw. drei oder vier 5870/5850 und Tripple-SLI aus? Kann man auch drei GTX295 zusammen betreiben? Wenn wir hier schon in die Extreme gehen, dürfen diese Konstelationen "natürlich nicht" fehlen :ugly: Man möchte ja schließlich wissen, was man für sein Geld bekommen würde, wenn man das Geld hätte und es dafür ausgeben würde :fresse:
 
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.

Und wenn du zusätzliche 200-300 Euro nur für eine höhere Fps-Anzeige ausgeben möchtest, schick ich dir gern meine Bankverbindung und du kriegst eine Fraps-Version mit Fpsx2 ;)

Zumal 30 Fps spielabhängig durchaus spielbar sind, sofern sie von einer einzelnen GPU kommen. Vermikroruckelte, schwammige 30 Fps auf einer 5970 sind definitiv kein Spaß. Crossfire-Nutzer, die das nicht glauben, schmeißen einfach mal Call of Duty 5/6 an und erhöhen die AA-Stufe solange, bis jene Fps-Gefilde erreicht werden. Anschließend gilt es Crossfire zu deaktivieren (z. B. indem A.I. im CCC abgeschaltet wird) und mit der verbleibenden Einzel-GPU den Gegentest zu machen. Das Ergebnis sollte selbst bei 20 Fps gefühlt vergleichbar sein.

MfG,
Raff
 
@BigBubby Standard
Danke schon korregiert
Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
Ich weiß, du hälst mich für grün verseucht und PCGH vorgeprägt, selbst wenn ich auch Atikarten besitze und andere Benchmarkes mir angucke undn ur die gewichtung anders sehe, aber dazu, wie Carsten sagt
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.
Ist das leider so.
Das liegt aber ganz stark an der Person. Es gibt leute die mit 20-30FPS durch spiele schleichen und es als flüssig/normal empfinden und andere die bei 50 noch ein unbehagen empfinden.
Deshalb ist das eine reine "gefühlssache".
ich z.B. merke je nach spiel bei 60fps das "unruhige" (Habe selber kein CF, aber ein Kollege, und habe selber schon mal Sli besessen -> nie wieder). Kollege dagegen hatte null probleme damit.

wenn man jetzt davon ausgeht, dass eine Person das CF bzw die x2 2 jahre und mehr behalten will, sollte man abraten, da bis dahin die Karte garantiert in Qualitätseinstellungen dahin abrutscht. Wenn jemand aber alle halbe bis jedes Jahr seine Graka tauscht, ist es eigentlich nicht erwähnenswert.
 
Zurück