1.000-Euro-Karte im Test: Powercolor Radeon HD 7990 Devil 13 - die schnellste Grafikkarte der Welt?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 1.000-Euro-Karte im Test: Powercolor Radeon HD 7990 Devil 13 - die schnellste Grafikkarte der Welt?

Powercolor HD 7990 Devil 13 im Test: Die erste Dual-GPU-Radeon auf "Graphics Core Next"-Basis kommt nicht direkt von AMD, sondern vom Partnerhersteller Powercolor. Ob die ehrfurchtgebietende Konstruktion Nvidias Geforce GTX 690 entthront, klärt unser Test der Powercolor Radeon HD 7990 Devil 13.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: 1.000-Euro-Karte im Test: Powercolor Radeon HD 7990 Devil 13 - die schnellste Grafikkarte der Welt?
 
Soche Dual GPU Monster haben vielleicht eine daseinsberechtigung im Professionellem bereich bzw bei Extrembenchern, aber Otto-Normal User haben davon kaum was. Jedenfalls nicht solange man sich auf AFR behauptet, denn das Stuttering macht spürbar quasi jeden Geschwindigkeisgewinn zunichte. Gefühlt ist man in manchen Spielen sogar langsamer unterwegs als mit einer Non High-End Single GPU Graka.
 
Danke!

Dass ihr als erste deutsche Redaktion (und ich glaube neben HardOCP als einzige weltweit) konsequent in jedem gebenchten Spiel das Spielgefühl nicht nur mit fps beschreibt, sondern auch einen subjektiven Eindruck abgebt. Das verbessert eure MGPU-Tests gleich um mindestens 100% :daumen:

Soche Dual GPU Monster haben vielleicht eine daseinsberechtigung im Professionellem bereich bzw bei Extrembenchern, aber Otto-Normal User haben davon kaum was. Jedenfalls nicht solange man sich auf AFR behauptet, denn das Stuttering macht spürbar quasi jeden Geschwindigkeisgewinn zunichte. Gefühlt ist man in manchen Spielen sogar langsamer unterwegs als mit einer Non High-End Single GPU Graka.

Das stimmt nicht, jedenfalls nicht pauschal. Du hast sicher noch nie MGPU besessen. Ab 40-50fps kann ich mit meinem 580 SLI allermeistens völlig problemlos zocken. Jetzt halbiere das mal, dann machts mit Single-GPU nicht wirklich Spass.
 
Zuletzt bearbeitet:
Die Karte birgt null Überraschungen. Brutal schnell, brutal stromhungrig, brutal laut. Gewohnte Dual-GPU-Manier also, wobei man die GTX690 vielleicht noch ein wenig davon ausnehmen könnte.

Imo nur für kompromisslose Leistung in Verbindung mit einem Framelimiter zu empfehlen. Aber man könnte durchaus Spass mit der Karte haben :).

Ich würde da allerdings klar zwei HD7970 unter Wasser bevorzugen.

BTW: Ist es bei der HD7990 möglich, eine GPU zu deaktivieren, resp. interpretiere ich den Artikel dahingehend korrekt?
 
Das stimmt nicht, jedenfalls nicht pauschal. Du hast sicher noch nie MGPU besessen. Ab 40-50fps kann ich mit meinem 580 SLI allermeistens völlig problemlos zocken. Jetzt halbiere das mal, dann machts mit Single-GPU nicht wirklich Spass.

Ich hatte mal eine 3870X2, ist allerdings schon eine Weile her. Wenn die Microruckler nicht auftreten (nicht sichbar nerven), ist gut, stimmt, aber dann schafft das normalerweise auch eine Single GPU Graka (bei zugegeben viel weniger Frames). Ich geb aber zu dass ich eventuell zu empfindlich auf diese Microruckler reagiere, die sind für mich einfach ein No-go.

Halbieren bringt nix, denn die Frames werden ja nicht genau verdoppelt, das Post Processing sowie AA/AF verzögert afaik die Berechnung soweit dass dies meist nur eine Steigerung von etwa 70-90%. Wenn nicht die CPU vorher abbremst. Aber das dürfte wohl nur bei CPU-lastigen Programmen ein Problemfall sein denn diese dürfte bei Multi-GPU Käufern generell High-End und/oder übertaktet sein.
 
Zuletzt bearbeitet:
Naja für einen Fps Junkie mag es was sein nur beim halben Preis bekäme ich schon übelste Magenschmerzen. Der Verbrauch mag ja noch durchgehen aber die Lautstärke wäre ich niemals gewillt hinzunehmen bei solch einem Preis, da hätte man doch sicherlich noch was machen können ( 100 Taler mehr hätten den Kohl auch nicht fett gemacht ).
 
Ich hatte mal eine 3870X2, ist allerdings schon eine Weile her. Wenn die Microruckler nicht auftreten (nicht sichbar nerven), ist gut, stimmt, aber dann schafft das normalerweise auch eine Single GPU Graka. Ich geb aber zu dass ich eventuell zu empfindlich auf diese Microruckler reagiere, die sind für mich einfach ein No-go.

Die 3870X2 ist aber tatsächlich kein Vergleich mehr zu den heutigen M-GPU Lösungen. Diese Karte würde ich nicht als Maßstab nehmen.

Halbieren bringt nix, denn die Frames werden ja nicht genau verdoppelt, das Post Processing sowie AA/AF verzögert die Berechnung soweit dass dies meist nur eine Steigerung von etwa 50-70%.

Meiner Erfahrung nach, sind es 60-80%, aber ich will ja nicht kleinlich sein:D:D
Nichts desto weniger kann Multi-GPU auch für "normale" Gamer interessant und sinnvoll sein, und nicht nur für Bencher o.Ä.
 
Zuletzt bearbeitet:
Ich hatte mal eine 3870X2, ist allerdings schon eine Weile her. Wenn die Microruckler nicht auftreten (nicht sichbar nerven), ist gut, stimmt, aber dann schafft das normalerweise auch eine Single GPU Graka (bei zugegeben viel weniger Frames). Ich geb aber zu dass ich eventuell zu empfindlich auf diese Microruckler reagiere, die sind für mich einfach ein No-go.

Halbieren bringt nix, denn die Frames werden ja nicht genau verdoppelt, das Post Processing sowie AA/AF verzögert afaik die Berechnung soweit dass dies meist nur eine Steigerung von etwa 70-90%. Wenn nicht die CPU vorher abbremst. Aber das dürfte wohl nur bei CPU-lastigen Programmen ein Problemfall sein denn diese dürfte bei Multi-GPU Käufern generell High-End und/oder übertaktet sein.

Da muss man eben differenzieren - AFR ist nicht gleich AFR. SLI ist hier CF deutlich voraus, und das nicht erst seit Kepler. Ob man jetzt 90% oder 100% mehr fps hat, ist gehupft wie gesprungen. Was ich damit nur sagen wollte ist, dass wenn 50fps auf SLI/CF unspielbar wären, es die 25-30fps auf einer GPU dann ebenso sind. Jedenfalls für mich, das ist mir viel zu wenig. Da müsste ich eben mit den Details runtergehen - bei SLI/CF nicht.
 
ich finde die gtx 690 ist besser, leiser und vorallem performance pro watt stimmt. die powercolor 7990 ist auch schwer und muss zusätzlich gestützt werden.
 
Toller Test! Interessante Karte... für Sammler. Ansonsten sehe ich sie eher als Machbarkeitsstudie. Mit nem Pärchen aus 2 HD7970 fährt man schließlich deutlich günstiger. Außerdem ist es auch einfacher die ruhig zu bekommen ->Kühlerwechsel oder gleich WaKü.
 
Danke!

Dass ihr als erste deutsche Redaktion (und ich glaube neben HardOCP als einzige weltweit) konsequent in jedem gebenchten Spiel das Spielgefühl nicht nur mit fps beschreibt, sondern auch einen subjektiven Eindruck abgebt. Das verbessert eure MGPU-Tests gleich um mindestens 100% :daumen:

Nichts zu danken. Aber gut zu wissen, dass das ankommt. :-)

Ich glaube das Diagramm in 3.840 x 2.160, 8x MSAA/16:1 HQ-AF ist falsch...

Nein, wie kommst du darauf? Wie im Text darunter ausgeführt geht den Geforces der Grafikspeicher aus. Mit dem Launch-Treiber ist die GTX 690 da übrigens komplett abgestürzt. Bei 4x MSAA genügt der VRAM und alles ist paletti.

MfG,
Raff
 
Das Zubehör ist schon toll, Schraubenschlüssel liegen nicht jedem Modell bei.

525W sind aber einen Menge da braucht man zusammen mit einer passenden CPU mindestens 750W Netzteil nötig aber ich kenne keine Netzteile die 3 8pin Stecker haben.
 
Das Diagramm für 3840x2160 mit 8xMSAA in Crysis ist aber wirklich nicht ganz richtig. Schau dir mal die Werte an - mehr fps aber kürzerer Balken ;)
 
Toller Test :daumen: Die Karte an sich überzeugt mich aber nicht :( Schade, dass die Mikroruckler-Problematik nicht verbessert wurde.


Das OC-Potential der Karte hätte mich noch interessiert, oder sind Euch die Oropax ausgegangen? :D
 
Beim OC würde ich mich anschließen - wenn die Karte schon so brutal frisst und röhrt dann kommts auf dass Bisschen mehr ja auch nicht mehr an... vielleicht schafft die Karte wenn man 1100 oder 1200 MHz anlegt es ja, die GTX480 Referenzkühlung zu übertönen? :ugly:
 
Zurück