Grafikkarten-Dauertest Teil 2: Radeon R9 290X und GTX 1060 im Leistungsvergleich

Ist Herr Stöwer mal auf die Idee gekommen, dass die Mikroruckler zustande kommen könnten, weil die Karte auf 94 Grad geht und throttled? Asus hat ja praktisch nur Schrott-Hawaii Karten gebaut.

Die Verbrauchswerte sind auch... naja...: 30 Watt mehr Idle ist unrealistisch, da beide Karten unter 20 Watt liegen. Die 150 Watt Mehrverbrauch der 290X bedeuten, dass diese unter Last 270 Watt zieht, denn die 1060 dürfte bei 120 Watt liegen. Auch das ist für eine 290X ein sehr schlechter Wert, der wohl auch an den 94 Grad und evtl. an einer zu hohen Spannung liegt.

Alles in allem ist die Überschrift irreführend, denn die müsste lauten: "Schrott-Custom einer 290X und 1060 im Leistungsvergleich"

Ich geh mal eben meine undervoltete 390 streicheln, die maximal 190 Watt zieht, 1,5 Sone leise ist, 65 Grad kühl bleibt und 2 GiB mehr VRam als die 1060 hat.
 
@PCGH: danke für diese Rubrik. Mir ist dieses bloße Vergleiche nach der P*enis...erm Balkenlänge immer zu wenig. Die Technik machts halt. Etwa die Effizienz:

Bei der Asus Radeon R9 290X ROG Matrix Platinum schafften es die Lüfter nämlich kaum, den Chip so zu kühlen, dass er seinen Takt nicht senkte, und die Betriebslautstärke der Propeller war mit 4,9/5,6 Sone (frontal/45-Grad-Winkel) auch viel zu hoch.
Das ist einer der Gründe, warum diese Modelle nunmal nicht mehr zum Empfehlen waren: viel zu hoher Verbrauch führt nunmal zu lauter Kühlung. Sicher gehts irgendwie auch leise, aber der Aufwand ist zu groß.
Deshalb kauf' ich nur noch Modelle mit max 150-165W Verbrauch. Und falls es doch irgendwann eine 1080 hätte werden sollen, wäre diese runtergetaktet/gevoltet worden statt hoch.

Was mich auch interessiert:
Beim kurzzeitigen Testen einer 290X "über", die ja bei manchen Modellen die heiße Luft IN das Gehäuse bläst, stiegen bei mir auch die Umgebungstemperaturen auch an (trotz Scythe Mugen PCGH Edition etwa die CPU um 5-8Grad. Trotz halbwegs guter Entlüftung).
Hat der Tester etwas ähnliches festgestellt? Also in dem Fall einen Temperaturabfall?
 
Zuletzt bearbeitet:
Danke für den Artikel !
Am interessantesten war für mich zwischen den zeilen lesen zu können, das die Stromersparnis bei 6 std spielzeit pro tag im jahr ca 100 euro ausmacht und das im Vergleich zwischen "dem Primus Sparschwein" und dem mit 512 bit und 8 Gb verhältnismässig "Sehr grosszügig ausgestattetenSchlachtschiff",da kann ich mir so meinen reim darauf machen wann sich die Neuanschaffung eines nachfolgers für meine kleine Saphirre r9 280 oc stromverbrauchstechnisch lohnt.

Wenn man 6 Stunden am Tag spielt, ist der Stromverbrauch das kleinste Problem was man hat.
 
Netter Vergleich, AMD's 28nmHigh End von 2013 gegen Nvidia's 16nm Mittelklasse von 2016. Wisst ihr was sich noch mehr lohnt? Ein Umstieg von einer GTX 780Ti auf eine RX 480. Fast halbierter Verbrauch, gut 2,5x mehr Grafikspeicher und viel viel schneller. Als Spielebenchmarks empfehle ich Doom Vulkan und Deus Ex Mankind Divided.

PS: Euer Idle Verbrauch ist 3x höher als bei mir. Keine Ahnung wie das geht ^^

Damit ist schon alles dazu gesagt, danke.

mfg Ratha
 
Manche Leser verstehen diesen Test falsch und machen erneut eine Markendiskussion daraus. Thema des Dauertests ist nicht "Mit diesen Tipps ich meine alte Hardware möglichst dufte", sondern "Das bringt exemplarisches Aufrüsten". Berichte aus dem Alltag anstelle von durchweg normierten Messungen. Es folgen übrigens zwei weitere Tester, welche erfolgreich auf ein Radeon-Modell wechseln – das sei nur erwähnt, bevor uns jemand mal wieder eine Gesinnung vorwirft.

MfG,
Raff
 
Ich verstehe diesen Artikel so, dass es im eigentlichen Sinne kein "Test" sein soll (ist ja auch ziemlich witzlos alte Generation gegen neue Generation zu testen, klar wer da gewinnt).

Viel eher soll es den Eindruck einer Kaufentscheidung und wie man damit umgeht darstellen in einem spezifischen Anwendungsfall.

Während die Grafikkarten Tests zur vergleichbarkeit weitestgehend Standardisiert sind, ist hier das genaue Gegenteil der Fall: Ein spezifischer, individueller Anwendungsfall.

Ich lese auch keine Bewertung heraus, sondern allenfalls Eindrücke, die intressant zu lesen sind.
 
und jetzt geben wir dem guten mann mal eine RX 480 und lassen ihn das selbe nochmal testen, oh wunder! die ist ähnlich gut!
im ernst, der beigeschmack des firmen-marketings ist nicht weg zu kriegen und eine solche hitzköpfige karte in solch ein gehäuse zu bauen und sich dann zu wundern ist, sagen wir freundlich 'unklug'.......
meine 290 hab ich übrigens wassergekühlt(fullcover natürlich), da hört man dann auch nix von und die bleibt sehr sehr kühl zusammen mit einem mora 3, so ginge das auch in dem schlechtesten pc-gehäuse noch ohne wärmestau und trottelnder karte ;-) ...

mfg
robert
 
Wie kommt ihr auf diesen Idleverbauch?
Ich hab 3 SSDs, 2 HDDs und den PC meiner Sig, 80+ Bronze 625 Watt NT mit meinen Monitoren (UHD 30% Helligkeit, FHD 100% Helligkeit) und komme auf ~120 Watt
 
Auch wenn es sicher nicht so gewollt war, aber dieser witzlose Vergleich schürt natürlich wieder Disskusionen. Um zu zeigen, dass sich Aufrüsten von einer 2013 Karte auf eine 2016 Karte lohnt muss man keine 1200 Wörter verbrauchen. Das hätte man in einem Absatz geschafft. Sorry, aber es liest sich leider wirklich wie eine [Anzeige]...

PS: Wer Zeit hat 6 Stunden am Tag zu spielen, muss wahrscheinlich wirklich auf die Stromkosten achten.
 
Zuletzt bearbeitet:
Komm ich also noch einmal zu meiner 290: die ist ordentlich übertaktet (1100 MHz, also etwa 16%) und sie macht noch deutlich mehr mit, läuft sogar mit 1280 unter Luft (AC Extreme III) oder 1324 unter Wasser. Mit meiner Grundeinstellung ist sie zwar nicht unhörbar aber doch recht leise (leiser als alle Vorgänger, egal ob AMD/Ati oder nVidia) und verbraucht unter Voll-Last keine 180 Watt, im Schnitt bleibt sie in Spielen deutlich unter 160 Watt, mit Untertakten habe ich sie sogar dauerhaft unter 140 Watt drücken können. Undervolten hilft verdammt viel in der Generation und sicher auch der miesesten 290X, die je erschienen ist, der Asus Matrix. Irgendwie erstaunlich, dass jemand mit diesem Hintergrund dort zugegriffen hat (und noch mehr, dass die "lieben" Kollegen nicht abgeraten haben) ^^

Daher hab ich auch noch nicht aufgerüstet, es lohnt kaum in der für mich interessanten Preisklasse, die Leistung steigt zu wenig (RX 480 eigentlich nur durch mehr Speicher, 1060 nur bei über 2 GHz und damit auch deutlich erhöhtem Verbrauch, was den eingebildeten Verbrauchsvorteil negiert, um etwa 5%).
 
sorry, aber überteuertes fanatec Equipment, ein 4k Monitor (welcher aufgrund der hz-zahl für rennsimulation nicht gut geeignet ist) und dann an der graka sparen? für mich irgendwie unsinnig :ugly:
 
und jetzt geben wir dem guten mann mal eine RX 480 und lassen ihn das selbe nochmal testen, oh wunder! die ist ähnlich gut!
im ernst, der beigeschmack des firmen-marketings ist nicht weg zu kriegen und eine solche hitzköpfige karte in solch ein gehäuse zu bauen und sich dann zu wundern ist, sagen wir freundlich 'unklug'.......
Meine Güte, die Redaktion hat sich doch schon erklärt. Es ist abenteuerlich, wie sehr sich manche Leute auf den Schlips getreten fühlen, nur weil im Ausgangssystem zufällig eine AMD-Karte war. Und selbst wenn Dir das nicht passt, musst Du nicht den Sinn des Artikels mit der Brechstange umdeuten bzw. absichtlich missverstehen, sodass Du dem Redakteur Dummheit vorwerfen kannst. Sagen wir freundlich, dass Dein Beitrag das Thema verfehlt und nervt.
 
Zu GTX4XX hat es auch keinen interessiert das die 480 120W mehr gefressen hat als die 5870 bei 10% mehr Leistung.

Also wieso jetzt auf dem scheiß herum hacken?

Weil das Quatsch ist. Das war damals sehr wohl Thema, genau so wie die Lautheit der miesen FX 5800. Hier mal Auszüge aus dem PCGH-Test zur 480/470:

Im Vergleich zu AMDs Radeon HD ist dies jedoch deutlich lauter

Auch in Sachen Leistungsaufnahme ziehen die Geforce klar den .... längeren: Die 30 Watt der Geforce GTX 470 liegen verschmerzbar über den je nach Modell 20 bis 28 Watt der HD 5870. Die GTX 480 aber zeigt sich mit 50 Watt beim Nichtstun alles andere als sparsam. Woher dieser sehr hohe Verbrauch trotz 2D-Takraten von 50/101/135 MHz kommt, ist derzeit unklar.

Unter Spiele-Last dreht die Geforce GTX 470 auf und "überflügelt" mit 3,4 Sone die HD 5870 leicht, dafür liegt die Leistungsaufnahme aber auch oberhalb der Radeon. Unter Volllast messen wir bei der Geforce 231 Watt - mehr als die TDP von 215 Watt hergibt. Die GTX 480 nimmt bereits in Spielen 235 Watt auf, im Furmark knackt sie die 300-Watt-Marke. Die Lautheit fällt mit 6,7 (Spiel) bis knapp 12 Sone (Furmark) ebenfalls sehr hoch aus.

Hier Auszüge aus dem Fazit:
Die Schattenseite der Geforce GTX 480 ist zweifelsohne die hohe Leistungsaufnahme: 50 Watt im Leerlauf entsprechen etwa dem doppelten Verbrauch einer Radeon HD 5870/5850; fast 240 Watt unter typischer Spielelast sogar dem der Radeon HD 5970.

Ihre (Anm. Die GTX 480) extrem hohe Leistung scheint mit dem viel zitierten Holzhammer - viel Spannung für möglichst viel Takt - zu entstehen.

Die Geforce GTX 470 macht den runderen Eindruck. Zwar bietet sie weder weltbeste Frameraten noch konkurrenzlose Bildqualität, sie schafft es aber, der Radeon HD 5870 Paroli zu bieten.

Es kann also keine Rede davon sein, dass es nie jemanden interessiert hat das die Karte soviel Strom verbraten hat. Das liest man hier zwar öfter, aber wo das herkommt weiß ich nicht.
 
Manche Leser verstehen diesen Test falsch und machen erneut eine Markendiskussion daraus. Thema des Dauertests ist nicht "Mit diesen Tipps ich meine alte Hardware möglichst dufte", sondern "Das bringt exemplarisches Aufrüsten". Berichte aus dem Alltag anstelle von durchweg normierten Messungen. Es folgen übrigens zwei weitere Tester, welche erfolgreich auf ein Radeon-Modell wechseln – das sei nur erwähnt, bevor uns jemand mal wieder eine Gesinnung vorwirft.

MfG,
Raff

Naja dann ist dieser "Test" ziemlich sinnlos. Jeder kann doch schauen, welche GPU was in den Spielen leistet, die man spielen möchte oder spielt. Lautstärke-, Temperatur- und Leistungsaufnahmetests gibts auch genug. Da kann man also auch ohne diesen Artikel entscheiden, ob sich ein solches Upgrade lohnt.
 
Zeedy
Ist doch nur ein Erfahrungsbericht, diesmal von den Redakteuren. Nicht mehr und nicht weniger.
Wenns für Einzelne uninteressant ist, kann man nach der Einleitung wo das klargestellt wird, doch einfach auf den Zuück-button klicken. Man muss doch nicht aus allem ein Anti-AMD Ding machen. ;)
 
Im Prinzip hast du recht, aber so ein Bericht ist halt griffiger. Man könnte ja auch jeden Film in 5 Minuten erzählen, aber ich schaue mir trotzdem gerne die ~1,5h an.

Netter Vergleich, AMD's 28nmHigh End von 2013 gegen Nvidia's 16nm Mittelklasse von 2016. Wisst ihr was sich noch mehr lohnt? Ein Umstieg von einer GTX 780Ti auf eine RX 480. Fast halbierter Verbrauch, gut 2,5x mehr Grafikspeicher und viel viel schneller. Als Spielebenchmarks empfehle ich Doom Vulkan und Deus Ex Mankind Divided.

Damit hast du recht, aber ich verstehe nicht warum hier so viele darauf herum hacken das eine AMD Karte durch eine Nvidia ersetzt wird. Bei deinem Beispiel würde exakt das gleiche rauskommen und keiner würde sich beschweren. Irgendwie verstehe ich das nicht.
 
Hab ja nun auch 2 x Asus 290x verbaut und der Grund warum ich auf Wasserkühlung umgestiegen bin brauch ich wohl nicht zu erleutern . Dieser Asus kühler ist wirklich absolute Grütze. Das hier aufrüsten einen Sinn machen soll zur 1060 oder von mir aus auch rx 480 erschließt sich mir nicht denn wenn man hier in einen gescheiten Luftkühler investiert hat man ne menge Geld gespart. Und vor allem darf man diese Generation Karten dann auch getrost überspringen.

Ich spiele ab und zu wenn ich in Deutschland bin auf dem großen Burschen (5930k) bf1 und muss momentan das Crossfire im Treiber deaktivieren weil es nicht sauber läuft. In full HD auf ultra hab ich immer mindestens 70 fps und die Grafikkarte hat nicht mehr wie 43°C bei 1100 MHz. Microruckler kenn ich nur im Crossfire.
 
Wie kann man nur einen 8350 und eine 290X in so einen kleinen schlecht belüfteten Tower zwängen? Die arme AMD Hardware .... :confused:
 
Zurück