• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Test Radeon HD 5970 (Hemlock): Die schnellste DirectX-11-Grafikkarte der Welt

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Test Radeon HD 5970 (Hemlock): Die schnellste DirectX-11-Grafikkarte der Welt gefragt. Beachten Sie dabei unsere Forenregeln.

Zurück zum Artikel: Test Radeon HD 5970 (Hemlock): Die schnellste DirectX-11-Grafikkarte der Welt
 

Wake

Freizeitschrauber(in)
Danke für das ausführliche Review, leider haben sich meine Befürchtungen bestätigt: Kein bisschen Fortschritt beim Punkt Mikroruckler+ATI... .
Kann man nur hoffen, dass mit der nächsten Architektur auch Crossfire überarbeitet wird. Bleibt die Schmerzgrenze wohl bei 3-way SLI oder 2-way CF (wobei letzteres anscheinend schon schlechter abschneidet).
 

Species0001

PCGH-Community-Veteran(in)
Der frühe Vogel fängt den Wurm. :ugly:
Schade, dass sich die Karte nicht besonders von einem 285er Gespann absetzen kann und teilweise (in CoD) sogar unterlegen ist.
Das die 5970 in Anno 1404 so abstürzt scheint wohl ein Bug zu sein, der sogar auf ihrer Vorgängerin auftritt. Da muss wohl ein Hotfix oder ein Spielepatch her...
 

Dude

Komplett-PC-Aufrüster(in)
Bedanke mich auch für den sehr schönen Test :daumen:
Das Ding ist verdammt schnell und verdammt groß.Bin mal gespannt wann Nvidia kontert ...
 

Kone

PCGHX-HWbot-Member (m/w)
Bedanke mich auch für den sehr schönen Test :daumen:
Das Ding ist verdammt schnell und verdammt groß.Bin mal gespannt wann Nvidia kontert ...

@pcgh
FEHLERTEUFEL:
euch ist da ein fehler bei den benchmarkwerten von cod modern warfare 2 unterlaufen...
wenn ich auf 1680ger auflösung klicke sehe ich die werte von den 1280ger benches und bei den 1920ger die von den 1680 usw ...



Man beachte dass das noch keine verlässlichen werte sind und dabei noch eine menge leistung brach liegt.
im world @ war benchmark kann es sich auch nur um einen bug handeln denn die 4870x2 skaliert um längen besser was rein physikalisch unlogisch ist.
außerdem glaube ich das wir bei manchen spielen schon wieder an die leistungsgrenzen des core i7 stoßen ...
auch wenn man dachte das sollte noch nicht so schnell passieren.

@pcgh
wäre schön wenn ihr nochmal 1 - 2 spiele wo es nach cpu limitierung aussieht einfach die core i7 noch auf 4ghz ocen könntet


@topic
allein durch treiberoptimierungen wird mit sicherheit noch eine mehrleistung von mind. 30% erreicht werden können.
beiworld at war werden mit sicherheit leistungsschübe im 3stelligen bereich zu sehen sein(einfach mal den nächsten catalyst treiber abwarten da wird ein bugfix drin sein).

zu beachten ist dass der gtx285/295 treiber mit sicherheit schon zu 100% maximum erreicht hat, und sollte es da noch sprünge geben dann maximal 2-3% mehr fps ...

also letzten endes sehr ausführlicher test und viele nützliche werte aber im detail entstehen da auch fragen wie es zum thema cpu limitierung aussieht.

MfG
kone
 

dungeon192

PC-Selbstbauer(in)
Geile Karte nur wo ich mir das mit den Mikroruckeln duchgelesen habe bin ich doch zu dem Entschluss gekommen auf eine Single Karte von Nvidia zu warten.
 

Adam West

Software-Overclocker(in)
Geile Karte nur wo ich mir das mit den Mikroruckeln duchgelesen habe bin ich doch zu dem Entschluss gekommen auf eine Single Karte von Nvidia zu warten.

Der Grund hierfür liegt erneut beim Mikroruckeln, welches unverändert auftritt, wenn die Bildrate deutlich unter 40 Fps liegt - wie bereits in der Einleitung beschrieben, müssen Sie dazu aber schon drastische Bildqualitäts-Geschütze in Form von Supersampling-FSAA auffahren
kurz: passiert bei aktuellen games so gut wie nie, das du mikroruckeln bemerkst. wo also liegt das problem? :huh:

wie man auch z.B bei gta 4 sieht, entfaltet sich die leistung erst bei hohen auflösungen. Ich denke auch, das die Karte immernoch zu stark durch die CPU limitiert wird, mit schnelleren cpu's wäre sicherlich ein größerer vorsprung zur Konkurrenz drin.
 
Zuletzt bearbeitet:

dungeon192

PC-Selbstbauer(in)
Wenn ich viel Geld für eine Karte ausgebe vertraue ich dem TEST der Redakteure und wenn diese schreiben das, dass Mikroruckeln Phänomen sich akut steigert sofern die Karte zu tun bekommt. Warte ich lieber noch ab.

kurz: passiert bei aktuellen games so gut wie nie, das du mikroruckeln bemerkst. wo also liegt das problem? :huh:
 

Bec00l

Software-Overclocker(in)
Mich würds ja mal brennend interessien wie zwei 5000er im crossfire hier in diesen benchmarks abschneiden würden.
und noch dazu sind das alles DirectX 10 features hier.. würde man die tests mit DX 11 machen lägen die unterschiede zwischen Nvidia und AMD ganz anders.
Deshalb warte ich auf die ersten DX11 benches und Nvidia mit ihrem Fermi chip unso=)
kann nur besser werden
 

Otep

PCGH-Community-Veteran(in)
Na das is ja mal kein schlechtes Ergebnis, man sollte allerdings nicht vergessen, das die GTX 295 schon fast ein Jahr aufm Buckel hat ^^

Allerdings is se doch schon sehr laut oO

Ich werd auf jeden Fall warten bis von Nvidia was neues kommt und mich dann für ne neue GraKa entscheiden.
 

Reigenspieler

PCGH-Community-Veteran(in)
Auch wenn ich mir nie so eine teure Karte kaufen würde, ich halte es für verschwendetes Geld für ein paar bunte Bilder (ok, bei der Preisklasse sinds mehr bunte Bilder ^^) muss ich sagen, dass ATI bei mir momentan die erste Wahl wär. Aber es wird meist der belohnt der fähig ist zu warten und ich warte auf Nvidia. Ich kann mir einfach nicht vorstellen, dass der grüne Zwerg keinen schnelleren Chip bauen kann. :)
 

kuer

BIOS-Overclocker(in)
Wenn ich viel Geld für eine Karte ausgebe vertraue ich dem TEST der Redakteure und wenn diese schreiben das, dass Mikroruckeln Phänomen sich akut steigert sofern die Karte zu tun bekommt. Warte ich lieber noch ab.

#
Du solltest den Text noch mal lesen. Du hast da was falsch interpretiert :schief:

@Top: Das Ergebnis entspricht dem was man erwarten konnte(5850 CF)Was ich aber schon enteuschend finde ist, das sich ATI nicht die mühe macht MR zu bekämpfen. Sie haben sich drauf verlassen, das die schiere Leistung ausreicht, um die MR's zu überspielen. Schade, sehr schade:-(
 
Zuletzt bearbeitet:

Adam West

Software-Overclocker(in)
Zuletzt bearbeitet:

bleedingme

PCGH-Community-Veteran(in)
kurz: passiert bei aktuellen games so gut wie nie, das du mikroruckeln bemerkst. wo also liegt das problem?
wie man auch z.B bei gta 4 sieht, entfaltet sich die leistung erst bei hohen auflösungen. Ich denke auch, das die Karte immernoch zu stark durch die CPU limitiert wird, mit schnelleren cpu's wäre sicherlich ein größerer vorsprung zur Konkurrenz drin.


Ich sehe das schon als Problem:
Sobald man mit entsprechenden Bildverbesserungen die Mehrleistung der Dual-GPU sinnvoll nutzen möchte, sind die im besten Falle doppelten FPS selten noch das wert, was die blanke Zahl sagt. Wenn's dumm läuft, sehen halt 40 FPS genauso aus wie 20 auf ner Single-GPU-Karte.
Dazu kommt weiterhin eine hohe Treiberabhängigkeit.
Für Enthusiasten dennoch mit Sicherheit ein schönes, interessantes Stück Technik.
 

Adam West

Software-Overclocker(in)
Ich sehe das schon als Problem:
Sobald man mit entsprechenden Bildverbesserungen die Mehrleistung der Dual-GPU sinnvoll nutzen möchte, sind die im besten Falle doppelten FPS selten noch das wert, was die blanke Zahl sagt. Wenn's dumm läuft, sehen halt 40 FPS genauso aus wie 20 auf ner Single-GPU-Karte.
Dazu kommt weiterhin eine hohe Treiberabhängigkeit.
Für Enthusiasten dennoch mit Sicherheit ein schönes, interessantes Stück Technik.

stimme ich dir auch volkommen zu! :daumen:
nur denke ich, gibt es noch keine "sinnvollen" einstellungen bei games, die jenes phänomen erzeugen würden. natürlich gibt es dieses mega super sampling ;) usw. jedoch reicht für mich persönlich schon eine hohe auflösung und AA/AF damit ein Spiel top für mich aussieht, und da wird die karte, denke ich, schon ihre leistung gut ausspielen.

jeder, der sich so eine karte holt, sollte warscheinlich auch gleich eine super cpu dazu kaufen mit dem nötigen trockeneis, zur übertaktung, damit auch diese nicht mehr limitiert!
dann kommen auch noch ein paar fps mehr raus :D
 

bleedingme

PCGH-Community-Veteran(in)
dort wird auch drauf hingewiesen, das mikroruckler so gut wie nie auftreten.
auch die unterschiedlichen ergebnisse in der gesamten spiele leistung ist schon interessant.
ist immerwieder interessant, wie unterschiedlich doch die selben tests auf unterschiedlichen hardwareseiten verlaufen...

Allerdings wird auch nicht SGSSAA erwähnt.
Wenn ich schon so ein Gerät in nen PC einbaue, wäre das auf jeden Fall etwas, was ich dann mal bei aktuellen Spielen in spielbaren FPS sehen möchte.
 

tm0975

Software-Overclocker(in)
Geile Karte nur wo ich mir das mit den Mikroruckeln duchgelesen habe bin ich doch zu dem Entschluss gekommen auf eine Single Karte von Nvidia zu warten.

Ganz sehrlich, ich verstehe das microruckler-problem nicht?! ich treffe meine grafikeinstellungen so, dass das jeweilige spiel gut spielbar ist. ich komme einfach nciht auf die idee, mit 10 oder 20 fps zu spielen!!! und über 30 fps ist das problem nicht real.

"Die Radeon HD 5970 bietet allerdings solch' eine brachiale Rohleistung, dass es bei aktuellen Spielen so gut wie nie zu Mikrorucklern kommen kann – die Frameraten liegen viel zu weit jenseits der kritischen Grenze." (CB)

Also was soll das Ganze? Ich kaufe mir auch keinen SLK und jammer dann über den viel zu kleinen Kofferraum! Man weiß was man kauft und man weiß, wie es zu nutzen ist. alle anderen sollten sich keine komponenten kaufen sondern eine bunte fertige dose...

Zum Thema: Die Karte ist Klasse und vor allem: Sie ist das beste was es zz gibt und ich denke, das wird noch einige zeit so bleiben. Zudem ist sie sehr gut für Übertaktungen ausgelegt.

Gründe:
1. Fermi könnte Gamer enttäuschen, denn die dafür benötigte Leistung steigt bei weiten nicht wie die für wissenschaftliche berechnugnen

http://brightsideofnews.com/news/20...mi-is-less-powerful-than-geforce-gtx-285.aspx

2. Die leistungsaufnahme der Geforce wird höher sein als die einer 5870. eine multi-gpu-karte also noch problermatischer unter die 300w - spezifikation zu bringen sein. das wiederum begrüße ich, da ich kein fan von multi-gpu-karten in deren jetziger form bin.
 
Zuletzt bearbeitet:

DOcean

PCGHX-HWbot-Member (m/w)
in der Tabelle steht das die 5970 2 6Pin Stromstecker hat, auf dem Foto sind aber ein 6Pin und ein 8Pin zu sehen...

Was stimmt nun?

oder kann ich nicht gucken?
 

PCGH_Carsten

Ex-Redakteur
@tm0975:
Wenn CB die sinnvollen BQ-Optionen von Ati außen vor lässt, mag das stimmen. Andererseits: Bei wievielen Spielen braucht man dann überhaupt 1,8xHD5870-Leistung, wenn man nur 8x MSAA und AF einsetzen mag? Crysis, vielleicht Stalker und dann lange nix. Insofern kannst du auch einem Porsche unterstellen, dass das Problem mit dem hohen Vollgas-Spritverbrauch von sagen wir mal 30 Litern sich in der Praxis nicht auswirkt, weil man das Ding eh nur auf der Rennstrecke ausfahren kann. Nur: Wofür dann das ganze?

@DOcean:
6+8 stimmt. Tabelle ist FU.
 

BigBubby

PCGH-Community-Veteran(in)
dort wird auch drauf hingewiesen, das mikroruckler so gut wie nie auftreten.
auch die unterschiedlichen ergebnisse in der gesamten spiele leistung ist schon interessant.
ist immerwieder interessant, wie unterschiedlich doch die selben tests auf unterschiedlichen hardwareseiten verlaufen...
Soweit mir bekannt ist, benutzt CB die Standardbenchszenarien, die meißt stark optimiert werden von den grakHerstellern (Auf beiden Seiten). PCGH dagegen sucht sich selber ein typisches Szenario, wo solch eine optimierung selten der Fall ist.
Was du jetzt als sinnvoller erachtest, ist deine angelegenheit ;)
 
Zuletzt bearbeitet:

Adam West

Software-Overclocker(in)
Ganz sehrlich, ich verstehe das microruckler-problem nicht?! ich treffe meine grafikeinstellungen so, dass das jeweilige spiel gut spielbar ist. ich komme einfach nciht auf die idee, mit 10 oder 20 fps zu spielen!!! und über 30 fps ist das problem nicht real.

"Die Radeon HD 5970 bietet allerdings solch' eine brachiale Rohleistung, dass es bei aktuellen Spielen so gut wie nie zu Mikrorucklern kommen kann – die Frameraten liegen viel zu weit jenseits der kritischen Grenze." (CB)

Also was soll das Ganze? Ich kaufe mir auch keinen SLK und jammer dann über den viel zu kleinen Kofferraum! Man weiß was man kauft und man weiß, wie es zu nutzen ist. alle anderen sollten sich keine komponenten kaufen sondern eine bunte fertige dose...

Zum Thema: Die Karte ist Klasse und vor allem: Sie ist das beste was es zz gibt und ich denke, das wird noch einige zeit so bleiben. Zudem ist sie sehr gut für Übertaktungen ausgelegt.

Gründe:
1. Fermi könnte Gamer enttäuschen, denn die dafür benötigte Leistung steigt bei weiten nicht wie die für wissenschaftliche berechnugnen

UPDATE #2: nVidia NV100 [Fermi] is less powerful than GeForce GTX 285? - Bright Side Of News*

2. Die leistungsaufnahme der Geforce wird höher sein als die einer 5870. eine multi-gpu-karte also noch problermatischer unter die 300w - spezifikation zu bringen sein. das wiederum begrüße ich, da ich kein fan von multi-gpu-karten in deren jetziger form bin.

signed :daumen:
 

Adam West

Software-Overclocker(in)
Soweit mir bekannt ist, benutzt CB die Standartbenchszenarien, die meißt stark optimiert werden von den grakHerstellern (Auf beiden Seiten). PCGH dagegen sucht sich selber ein typisches Szenario, wo solch eine optimierung selten der Fall ist.
Was du jetzt als sinnvoller erachtest, ist deine angelegenheit ;)


genau :D
 

tm0975

Software-Overclocker(in)
Was ich jetzt aber wirklich beeindruckend finde ist, dass 2 unterschiedliche 5890-Modelle bei Alternate lieferbar sind!!!

http://www.alternate.de/html/summar...scription=Alle+ATI+Radeon+HD5970+Grafikkarten

@tm0975:
Wenn CB die sinnvollen BQ-Optionen von Ati außen vor lässt, mag das stimmen. Andererseits: Bei wievielen Spielen braucht man dann überhaupt 1,8xHD5870-Leistung, wenn man nur 8x MSAA und AF einsetzen mag? Crysis, vielleicht Stalker und dann lange nix. Insofern kannst du auch einem Porsche unterstellen, dass das Problem mit dem hohen Vollgas-Spritverbrauch von sagen wir mal 30 Litern sich in der Praxis nicht auswirkt, weil man das Ding eh nur auf der Rennstrecke ausfahren kann. Nur: Wofür dann das ganze?

Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
 

Master451

Freizeitschrauber(in)
alles in allem ne Super-Karte... Mikroruckeln ist ein allgemeines Problem der Multi-GPU-Lösungen, an dem die Hersteller durch bessere Treiber oder andere Ideen schon etwas machen können denk ich.

und das die Karte bei Call of Duty 6 das 285er-SLI nicht schlägt, ist auch nicht so verwunderlich, Call of Duty war schon immer (ab dem 4er zumindest) ein Spiel, was auf NVidia besser lief...

achja, ihr könntet vielleicht noch ein 5870-CF-System mittesten, das hab ich in den Tabellen nicht gesehen
 

Mindfuck

Freizeitschrauber(in)
Thx, für den sachlichen Benchmark.

Für mich sind die specs. keine große Überraschung. Allerdings hätte ich doch ein wenig mehr fps in Crysis erwartet. Aber wegen der Microruckler kommt für mich keine x2 Karte in Frage.

Ich warte auf NV´s Fermi. mfg
 

schmimo62

Komplett-PC-Käufer(in)
Ich muss sagen, tolle Leistung für noch nicht ausgereifte Treiber.
Trotzdem hätte ich mit weit mehr Abstand zu z. B. einem GTX285-SLI-Gespann gerechnet.
Habe so langsam das Gefühl das Nvidea dann doch mit dem Fermi ein Wörtchen mitreden kann....
 

kuer

BIOS-Overclocker(in)
Ich muss sagen, tolle Leistung für noch nicht ausgereifte Treiber.
Trotzdem hätte ich mit weit mehr Abstand zu z. B. einem GTX285-SLI-Gespann gerechnet.
Habe so langsam das Gefühl das Nvidea dann doch mit dem Fermi ein Wörtchen mitreden kann....


Wenn eine 5850 auf höhe der GTX285 ist, wieso sollte dann eine 5970 schneller sein als ein SLI Gespann von 2 GTX285 :schief: Denk mal nach :what:
 

alm0st

PCGH-Community-Veteran(in)
Sieht schon mal ganz "nett" aus. Bin mal gespannt was sich da in Zukunft noch mit besseren Treibern rausholen lässt.
 

PCGH_Carsten

Ex-Redakteur
Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.

Und wenn du zusätzliche 200-300 Euro nur für eine höhere Fps-Anzeige ausgeben möchtest, schick ich dir gern meine Bankverbindung und du kriegst eine Fraps-Version mit Fpsx2 ;)
 

Adam West

Software-Overclocker(in)
Wenn eine 5850 auf höhe der GTX285 ist, wieso sollte dann eine 5970 schneller sein als ein SLI Gespann von 2 GTX285 :schief: Denk mal nach :what:

du meinst doch sicher "Wenn eine 5850 auf höhe der GTX285 ist, wieso sollte dann eine 5970 langsamer sein als ein SLI Gespann von 2 GTX285 :schief: Denk mal nach :what:"

oder?
 

frEnzy

Software-Overclocker(in)
Beeindruckende Leistung aber was bringts?

Insgesamt eine sehr interessante und verdammt schnelle Karte. Ansonsten in ca. 99% der Fälle überflüssig ;) Zumindest meiner Meinung nach. Aber schön, dass es sowas gibt :daumen:

Interessant wären noch zwei 5870 und/oder 5850 im Crossfire. Wie siehts eigentlich mit zwei 5970 bzw. drei oder vier 5870/5850 und Tripple-SLI aus? Kann man auch drei GTX295 zusammen betreiben? Wenn wir hier schon in die Extreme gehen, dürfen diese Konstelationen "natürlich nicht" fehlen :ugly: Man möchte ja schließlich wissen, was man für sein Geld bekommen würde, wenn man das Geld hätte und es dafür ausgeben würde :fresse:
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.

Und wenn du zusätzliche 200-300 Euro nur für eine höhere Fps-Anzeige ausgeben möchtest, schick ich dir gern meine Bankverbindung und du kriegst eine Fraps-Version mit Fpsx2 ;)

Zumal 30 Fps spielabhängig durchaus spielbar sind, sofern sie von einer einzelnen GPU kommen. Vermikroruckelte, schwammige 30 Fps auf einer 5970 sind definitiv kein Spaß. Crossfire-Nutzer, die das nicht glauben, schmeißen einfach mal Call of Duty 5/6 an und erhöhen die AA-Stufe solange, bis jene Fps-Gefilde erreicht werden. Anschließend gilt es Crossfire zu deaktivieren (z. B. indem A.I. im CCC abgeschaltet wird) und mit der verbleibenden Einzel-GPU den Gegentest zu machen. Das Ergebnis sollte selbst bei 20 Fps gefühlt vergleichbar sein.

MfG,
Raff
 

BigBubby

PCGH-Community-Veteran(in)
@BigBubby Standard
Danke schon korregiert
Mein Argument ist: Das unter 30 fps-scenario ist nicht praxistauglich, da es schon aus sicht der allgemeinen spielbarkeit wenig sinnvoll erscheint, zu geringe frameraten zu haben. man könnte lediglich darüber spekulieren, ob 25 fps für singlekarten durch 30fps für dualkarten ersetzt werden muß als minimale fps-zahl. mehr sehe ich da allerdings nicht.
Ich weiß, du hälst mich für grün verseucht und PCGH vorgeprägt, selbst wenn ich auch Atikarten besitze und andere Benchmarkes mir angucke undn ur die gewichtung anders sehe, aber dazu, wie Carsten sagt
Mein Argument ist: Siehe unser Multi-GPU-Special in der 10/2009 - samt dazugehöriger Videos. 30-40 Fps sind die Grenze ab der man Mikroruckeln sehen kann, fühlen kann man's schon viel früher. Du kriegst deine 60 Fps, sie sehen auch flüssig aus, fühlen sich aber nicht so an - sondern eben wie 30 oder 40 Fps.
Ist das leider so.
Das liegt aber ganz stark an der Person. Es gibt leute die mit 20-30FPS durch spiele schleichen und es als flüssig/normal empfinden und andere die bei 50 noch ein unbehagen empfinden.
Deshalb ist das eine reine "gefühlssache".
ich z.B. merke je nach spiel bei 60fps das "unruhige" (Habe selber kein CF, aber ein Kollege, und habe selber schon mal Sli besessen -> nie wieder). Kollege dagegen hatte null probleme damit.

wenn man jetzt davon ausgeht, dass eine Person das CF bzw die x2 2 jahre und mehr behalten will, sollte man abraten, da bis dahin die Karte garantiert in Qualitätseinstellungen dahin abrutscht. Wenn jemand aber alle halbe bis jedes Jahr seine Graka tauscht, ist es eigentlich nicht erwähnenswert.
 
Oben Unten