Grafikkarten-Dauertest Teil 4: Asus RX 480 Strix versus GTX 980 Matrix Platinum

1; Wie soll denn dann die ganze Argumentation passen?:ugly:

2; Ist die GTX 980 aus dem Jahre 2014 und nicht 2015 und die R9 290X hat auch keine 380.-€ zu Release gekostet sondern knappe 500.-€.

Aber da ein wenig mehr und da weniger und schon sind 50% Preisunterschied zusammen:daumen:
Was ihr da immer alles hinein interpretieren müsst...
Ich habe einfach genau die beiden Modelle aus dem von Schaffe verlinkten Test bei Geizhals eingegeben und die Preise aus dem Test übernommen. Da liegt nunmal ein halbes Jahr zwischen dem Release dieser Modelle, das ist Geschichte und fix.
Durch den tollen Lüfter der 290X damals (im uebermode) hat die ja schon nach knapp einem Monat deutlich weniger gekostet. Dagegen hatte Nvidia die 770 4GB aufgestellt. Theoretisch ja, wäre es die 780 gewesen, aber bei dem Preisunterschied wäre das wohl ein schlechter Witz als Gegenüberstellung. Also bitte, nicht einfach irgendetwas interpretieren, oder gar unterstellen. Das ist schlich unnötig.

Wenn man Preise ausser acht lassen würde, dann würden wir keine Vergleiche brauchen, Da eh jeder für alles immer nur die aktuellste Titan empfehlen könnte. Ich denke wir sind uns aber alle einig dass dem nicht so ist.

Gesendet von meinem HTC 10 mit Tapatalk
 
Was den Benchmark angeht, was willst du mir damit sagen? Dass es diesen overhead gibt bestreitet doch keiner, das hatten wir ja auch hier schon. Das ist doch fix. Wozu die Wiederholung? Willst du nur hören, dass der Vergleich 560Eur gtx von 2015 zu 380Eur r9 von 2014 (Also eine Generation weiter und fast 50% teurer) mir fraglich vorkommt? Warum hast du z.B. nicht den eigentlichen Gegner, die 770 genommen, die dort ebenfalls aufgeführt wird?

Und sofort versuchst du wieder den Benchmark nicht zu akzeptieren, erwähnst eine GTX 770 die niemals Konkurrent der 290x war, sondern der 280x. Und verteifst dich jetzt auf die Preise, anstatt das Ergebnis anzusehen.
Wie viel schneller ist eine GTX 980 üblicherweise als eine 290x? Aktuell 10% etwa. Sie spuckt aber dort doppelt so viele FPS aus, weil sämtliche AMD Karten in einen Treiveroverhead gehen.
Und so etwas passiert dir sehr häufig in Early Access Spielen wenn AMD mal sogar keinen Grund sieht für Spiel XY Optimierungen zu bringen, daher kaufe ich derzeit Nvidia.

Jetzt könnte ich natürlich trotzdem noch anmerken dass jemand der einen 200 EUR Prozessor von 2010 mit einer gtx für bald 600 Euro von 2015 kombiniert etwas selten erscheint und dass man ja noch immer die Wahl hat sich seine Hardware den Spielen entsprechend zusammen zu stellen,

Es ist doch egal welchen Prozessor du kombinierst, es ging wie schon oft gesagt nur darum dass der Overhead teilweise nur die halbe Leistung der AMD Karten ermöglicht, als der die Nvidia liefern kann.
Ich kenne mittlerweile mindestens 20 Beispiele wo das so ist und 6 Spiele die ich persönlich gerne Spiele, x mal schon aufgezählt und da muss man keine Ausreden erfinden, das ist einfach so.w

Auch dass die r9 mit aktuellem Prozessor auf 126 fps kommt und ihr Gegenpart in Form der gtx770 nur auf 111 entgeht dir, stimmts?

Der Benchmark soll einfach nur den Treiberoverhead zeigen der Realität ist und du machst wieder ne ewiglange Diskussion daraus und greifst mich an und wirfst mir Unsachlichkeit vor.
Unsachlich ist es Geschichten zu erfinden und ständig um den heißen Brei zu reden, nur weil einem die Ergebnisse nicht passen.
 
Wieder! Wieder tust du so als wenn ich da irgendetwas wegreden will. Eben nicht. Mir geht es schlicht um die Verhältnismäßigkeit der Werte. Du behauptest dass es egal ist welche CPU man kombiniert? Okay! Dann sage ich dir, dass das Spiel mit der 980 genau 0 fps liefert, wenn du es mit einem Core i3 der ersten Generation kombinierst. So wie ich dich einschätze, ist es dann plötzlich nicht mehr egal, oder? Auf einmal macht das doch keiner. Richtig. AMD hat Probleme mit dem overhead, Das wissen wir jetzt seit mindestens zwei bis drei Jahren. Genau hier spielt der Preis einer GPU nämlich eine sehr große Rolle. Denn die 160 Euro die man bei der GPU weniger zahlt, kann man (denn man weiß ja von dem overhead) In einen besseren Prozessor stecken. Dann ist der overhead zwar noch immer ausschlaggebend, aber schlägt eben nicht mehr mit 50% sondern nur noch mit 10 zubuche.
Ich wiederhole nochmal: dieses Problem ist existent (auch wenn du noch so oft versuchst mir andere Worte in den Mund zu legen), aber im Verhältnis von Preis und Leistung längst nicht so problematisch wie es gern dargestellt wird. Das hat nichts mit irgendwas ausdenken zu tun, sondern ist schlicht so. Allein schon die Tatsache dass man künstlich ein CPU Limit erzeugen muss indem man die Auflösung gering hält ist spricht doch für sich. In höheren Auflösungen liegen die Karten nämlich wieder wie gewohnt. Jetzt kann man zwar sagen das interessiert mich nicht, aber es ist schlicht nicht so einfach. AMDs Gedanken hinter GCN kennen wir nicht. Wir wissen aber seit der ersten Generation, dass diese erst mit höheren Auflösungen gut ausgelastet werden. Wer also in der zweiten Generation bewusst so ein Produkt kauft, um dann mit einem schwachen Prozessor, einer geringen Auflösung und deutlich geringeren Budget zu vergleichen, der darf sich nicht beschweren, denn er hat es selbst so gewählt.

Hast du dir schonmal Gummistiefel gekauft um dann festzustellen dass sie überhaupt nichts taugen beim Hürdenlauf? Ich wette die Antwort lauter Nein. Genau so eine Kritik ist das hier.
Guck mal in die threads zu CS Systemen. Wie viele wirst du da finden die mit UHD Monitor samt Reaktionszeit und Eingabeverzögerung aus der Hölle unterwegs sind? Keinen. Warum? Weil man die Komponenten entsprechend wählt und nicht blind irgendetwas kauft.
Wären die Preise identisch, genau wie die Gen der Karten und die Leistung durch alle Auflösungen, wäre ich einhundertprozentig deiner Meinung. Dem ist aber nicht so. Man hat fast immer ein fixes Budget und weiß welche Anforderungen man hat und dann kauft man entsprechend dafür ein. Wer dann alles genau entgegen der Produkteigenschaften wählt, darf einfach nicht meckern. Du tust so als würden beide Hersteller das identische Produkte herstellen und einer hätte plötzlich weniger Leistung. Genau das ist aber nicht so. Die bauen unterschiedliche Produkte, mit unterschiedlichen Eigenschaften zu unterschiedlichen Preisen. Genau das ist doch unser (Kunde) großer Vorteil. Wir kaufen das was wir brauchen. Bei mir gab's seit etlichen Jahren kein 1080p mehr. Das gehört mMn (ganz wichtig, meiner!) nur noch auf Handys, Wenn überhaupt. Entsprechend würde ich nie auf die Idee kommen erst 160 Euro mehr für die gtx auszugeben und dann zu meckern, dass in 1080p die Leistung nicht stimmt. Ist das wirklich so schwer zu begreifen?

Gesendet von meinem HTC 10 mit Tapatalk
 
Du behauptest dass es egal ist welche CPU man kombiniert? Okay!

Egal wenn du sehen willst wie hoch der Overhead ist.

Dann ist der overhead zwar noch immer ausschlaggebend, aber schlägt eben nicht mehr mit 50% sondern nur noch mit 10 zubuche.

Nö denn auch mit einer schnelleren CPU macht Nvidia die doppelten FPS, der Overhead ist der Selbe, das sieht man doch an dem Benchmark.
Nur haste halt dann 90 FPS gegen 175.

aber im Verhältnis von Preis und Leistung längst nicht so problematisch wie es gern dargestellt wird.

In den Spielen die betroffen sind ist das P/L der AMD dann halt nur halb so hoch.:rollen:

Allein schon die Tatsache dass man künstlich ein CPU Limit erzeugen muss indem man die Auflösung gering hält ist spricht doch für sich.

In den relevanten CPU limitierten Titeln musst du das gar nicht, aber das verstehst du ja auch nicht.
In höheren Auflösungen liegen die Karten nämlich wieder wie gewohnt.
Nein, das ist nur bei Grid so weil es ein uraltes Game ist.
Außerdem wenn du die Diskussion weiteführen willst, dann mach es doch per P/N.
 
Zuletzt bearbeitet:
Du meinst die Diskussion in der du "hunderte Beispiele" belegen kannst? Hunderte im Sinne von Mehrzahl. Mehrere hunderte Spiele die mit 50% zu Leistungverlust seitens AMD zuschlagen? Ich muss schon zugeben, dass mich diese Liste reizt...

Gesendet von meinem HTC 10 mit Tapatalk
 
Du meinst die Diskussion in der du "hunderte Beispiele" belegen kannst? Hunderte im Sinne von Mehrzahl. Mehrere hunderte Spiele die mit 50% zu Leistungverlust seitens AMD zuschlagen? Ich muss schon zugeben, dass mich diese Liste reizt...

Gesendet von meinem HTC 10 mit Tapatalk

Zeig mir bitte mal den Beitrag mit Zitat wo ich das behauptet habe!! Ich habe geschrieben es gibt hunderte Beispiele wo die AMD Karte durch den Overhead gebremst wird! Siehe HWL Thread.
Die Beispiele wo man die halbe Leistung teilweise hat, sind etwa 6 Games die ich aktuell spiele. Unter anderem ARK, Rust, Arma3, Exiles im Gefecht.
Ansonsten bitte ich doch aufzuhören mit Aussagen in den Mund zu legen, die ich nie getätigt habe, oder entsprechende Zitat zu verlinken. Furchtbar mit dir zu diskutieren. Jedesmal versucht du nachzutreten, Geschichten zu erfinden oder mit nem Strohmann zu argumentieren. Lass es einfach sein.
 
Beleg du mir doch bitte einmal was ich erfunden habe. Nur weil dir was nicht passt, ist es nicht wahr? DAS ist schwach! Ich habe meine Meinung, weil ich bestimmte Erfahrungen gemacht habe und nicht andersherum.
Soviel also zum Dinge in den Mund legen...
"Furchtbar mit dir zu diskutieren".

Gesendet von meinem HTC 10 mit Tapatalk
 
Overheat existiert . Ich bin grade erst von einer GTX 970 auf eine Rx480 gewechselt. Und muss feststellen, dass ich in manchen Benchmarks schlechtere Werte erziele als vorher, grade bei Kombinierten Tests.
Das liegt aber hauptsächlich am Fx-6300.

ABER das sind Benchmarks. In Realität sind die spielte deutliche flüssiger, grade in punkto Frametimes , erzog welche für mich persönlich wichtiger sind als reine fps.
Und dabei war meine 970 mit 1600 mhz nicht die langsamste.

Wie immer gesagt wird , die Karte ist moderer und zukunftssicherer.

Es wurde oben Arma 3 als Beispiel genannt. Mit der 970 war ultra preset einfach nur augenkrebs.

Jetzt ist alles butter sich trotz lahmer Cpu
 
Also ich weiß ja nicht wo ihr eure Benchmarks hernehmt, aber bei jedem mir bekannten Spiel liegt die rx480 doch mit einer 1060 auf einer Höhe?! :O
 
Sie zieht mittlerweile sogar an der 1060 vorbei in vielen Spielen. Was daran liget, das AMD bei den Treibern zimlich Gas gibt.

Das ist auch ein Grund, warum ich zur 480 gegriffen habe , der Hauptgrund ist aber auch der Preis, bei Mindfactory beispielsweise kostete die MSI 1060 Gaming X rund 80 € mehr als ihr AMD konkurent.

Und das bei nahezu identischer Leistung. Und jetzt kann man sagen "Die 1060 ist aber auch Effizienter und verträgt mehr OC" Richtig, aber ist das 80 € wert ? Nicht wirklich.

Ich war eigentlich Team grün, aber als die Rx 480 8 gb auf unter 240 € gesunken sind, und meine GTX 970 noch immer für 180 verkaufen konnte war die entscheidung schnell klar zumal die 970 mit ihrem 3.5 + 0.5 krüppel Speicher jetzt schon bei manchen Titeln ans Limit geht geschweige denn Textur Mods ect.
 
Sie zieht mittlerweile sogar an der 1060 vorbei in vielen Spielen. Was daran liget, das AMD bei den Treibern zimlich Gas gibt.

Das ist auch ein Grund, warum ich zur 480 gegriffen habe , der Hauptgrund ist aber auch der Preis, bei Mindfactory beispielsweise kostete die MSI 1060 Gaming X rund 80 € mehr als ihr AMD konkurent.

Und das bei nahezu identischer Leistung. Und jetzt kann man sagen "Die 1060 ist aber auch Effizienter und verträgt mehr OC" Richtig, aber ist das 80 € wert ? Nicht wirklich.

Ich war eigentlich Team grün, aber als die Rx 480 8 gb auf unter 240 € gesunken sind, und meine GTX 970 noch immer für 180 verkaufen konnte war die entscheidung schnell klar zumal die 970 mit ihrem 3.5 + 0.5 krüppel Speicher jetzt schon bei manchen Titeln ans Limit geht geschweige denn Textur Mods ect.

dazu wuerd ich noch sagen , nachdem RE7 erschienen ist , bin ich auch noch froh 2 Gb mehr Vram zu haben , egal was alle sagen ;)
die 2 gb verbrauchen auch etwas an Saft und wenn es nur 5 watt sind , nur kann man sie eben nicht mal schnell drantackern wenn man sie denn doch mal braucht ...

PS: die meisten 1060 wie die MSI agieren doch schon im bereich von 1,9 Ghz , also ehrlich so viel mehr geht da erstens auchnicht mehr und zweitens skalieren die 1060 weit schlechter mit Takt , also was bei der GTX 50 mhz bringen schaffen oft schon 30 mhz bei der RX , wo es aber wirklich ans eingemachte geht ist der verbrauch , wenn man mal ueber 2 Ghz geht ist auch eine 1060 nicht mehr die spartanischte ;)
dazu kommt die meiste Performance bei beiden durch OC beim Speicher , aber ich muss gestehen da hab ich eher Bauchweh , denn mit effektiven 8000 mhz ist der GDDR5 schon sehr am Limit auch ohne OC , viele Karten machen bei 8600/8800 schon die graetsche ;)
 
dazu kommt die meiste Performance bei beiden durch OC beim Speicher , aber ich muss gestehen da hab ich eher Bauchweh , denn mit effektiven 8000 mhz ist der GDDR5 schon sehr am Limit auch ohne OC , viele Karten machen bei 8600/8800 schon die graetsche ;)

Meine läuft mit 9080 noch stabil, bei 9100 fangen dann die macken ab, ich lauf im Allrag mit 9000 beim Speicher und 1340 an der Gpu mit Standard Spannungen. Und mit gutem stabilitäts puffer.

Was ich nicht ganz verstehe sind die Asic werte bei den Karten. Bei meiner Nvidia war es so, das mehr in der regel stabiler war bei gleicher Spannung.
Jetzt hab ich laut Internet einen miserablen Wert von 68% und die Karte skaliert besser als manch andere mit wesentlich höherem wert.
Was mich darauf schließen lässt, das der Wert kaum eine aussagekraft hat.
Zumindest was Stabilität angeht. Denke nur die hitze ist hier ein Faktor
 
Meine läuft mit 9080 noch stabil, bei 9100 fangen dann die macken ab, ich lauf im Allrag mit 9000 beim Speicher und 1340 an der Gpu mit Standard Spannungen. Und mit gutem stabilitäts puffer.

Was ich nicht ganz verstehe sind die Asic werte bei den Karten. Bei meiner Nvidia war es so, das mehr in der regel stabiler war bei gleicher Spannung.
Jetzt hab ich laut Internet einen miserablen Wert von 68% und die Karte skaliert besser als manch andere mit wesentlich höherem wert.
Was mich darauf schließen lässt, das der Wert kaum eine aussagekraft hat.
Zumindest was Stabilität angeht. Denke nur die hitze ist hier ein Faktor

ohne Spannung zu erhoehen hab ich schon ab udn an gelesen das manche nicht mal ueber 8400 Mhz kommen und wie gut das ist einen Speicher der am Limit ist noch mal weiter zu pruegeln ? k.a
Man muss im grenzbereich aber immer benches , es kann sein das der Speicher mit OC wieder langsamer wird auch wenn er nicht die Karte zum absturtz bringt , zumindest hab ich das mal gelesen und bei meiner R9 380 konnte ich wirklich beobachten das die Karte wirklich bei 1650 mhz langsamer wurde ! Peak war 1625 und ich hab mich dann mit 1600 zufrieden gegeben ;)

zum ASIC , meine 380 hatte nen richtig guten der OC war auch OK 1100 mhz kann man nicht klagen denk ich ohne spannung anheben versteht sich ;)
meine 480 hat keinen soooo tollen geht aber mit Stock spannung Bench stabil auf 1400 mhz , mehr hab ich garnicht mehr getestet weil ich irgendwie denke bei 1350 ist der Peak aus Hitze Verbrauch und Leistung eh schon erreicht ;)
Allgemein ist es aber wohl so das der ASIC wert keine Garantie fuer was auch immer ist , jeder Chip ist anders und das ist nur ne Zahl ...

PS: bringts denn noch was beim Speicher ab 8800 mhz ? weil die standard Spannung bei multi TFT der vom Speicher gleicht wollte ich erst mal eher untervolten als OCen , bei 8000 vs 8400 merkt man noch denn groesten schub zz hab ich untervolt mit 8300 laufen ;)
 

Du scheinst noch die alten vergleiche im Kopf zu haben, heute ist die RX 480 in der Regel die schnellere dank neuster Treiber.

Hier zeigt sich das schön. : GTX 1060 vs. RX 480 - An Updated Review - Page 3

Für die Faulen : unter DX11 : RX vs GTX = 7:5
unter DX 12 : RX vs GTX = 6:2

Klar ist das nicht hundertprozent Aussagekräftig, aber was es besagt ist, dass sich in dem halben Jahr einiges getan hat bei AMD.
Grade wenn man die Preis differenz betrachtet.
Vor einem halben Jahr hätte ich auch niemald die 970 gegen die 480 einetaucht. Wenn dann gegen eine 1060 da mehr Speicher.

Was der Bench auch zeigt und das ist bei vielen anderen auch, das die Frametimes bei der AMD stabiler sind. Ich persöhlich habe lieber 10 fps weniger aber dafür eine Stabile framerate.


ohne Spannung zu erhoehen hab ich schon ab udn an gelesen das manche nicht mal ueber 8400 Mhz kommen und wie gut das ist einen Speicher der am Limit ist noch mal weiter zu pruegeln ? k.a
Man muss im grenzbereich aber immer benches , es kann sein das der Speicher mit OC wieder langsamer wird auch wenn er nicht die Karte zum absturtz bringt , zumindest hab ich das mal gelesen und bei meiner R9 380 konnte ich wirklich beobachten das die Karte wirklich bei 1650 mhz langsamer wurde ! Peak war 1625 und ich hab mich dann mit 1600 zufrieden gegeben ;)

zum ASIC , meine 380 hatte nen richtig guten der OC war auch OK 1100 mhz kann man nicht klagen denk ich ohne spannung anheben versteht sich ;)
meine 480 hat keinen soooo tollen geht aber mit Stock spannung Bench stabil auf 1400 mhz , mehr hab ich garnicht mehr getestet weil ich irgendwie denke bei 1350 ist der Peak aus Hitze Verbrauch und Leistung eh schon erreicht ;)
Allgemein ist es aber wohl so das der ASIC wert keine Garantie fuer was auch immer ist , jeder Chip ist anders und das ist nur ne Zahl ...

PS: bringts denn noch was beim Speicher ab 8800 mhz ? weil die standard Spannung bei multi TFT der vom Speicher gleicht wollte ich erst mal eher untervolten als OCen , bei 8000 vs 8400 merkt man noch denn groesten schub zz hab ich untervolt mit 8300 laufen ;)


Was es bringt ist ne gute Frage, da ich in recht großen Schritten gearbeitet habe und erst gegen schluss verlangsamt habe. In Time spy hat es jedenfalls es jedenfalls stätig bessere ergebnisse gegeben mit höhrem Takt. Und wie gesagt ich hab es in mehreren Stresstests + Spiele mit 9080 laufen gehabt. Um absolut sicher zu gehen bin ich auf 9000 runter.
Denke da hab ich wohl mal Glück gehabt beim Speicher :)
Die 1400 an der GPU dagegen kann ich vergessen ohne Spannung zu erhöhen. Stabil mit 1,22 Volt lief sie mit 1410 aber das war die läufter wurden deutlich hörbar, das ists mir dann doch nicht wert.
 
Was es bringt ist ne gute Frage, da ich in recht großen Schritten gearbeitet habe und erst gegen schluss verlangsamt habe. In Time spy hat es jedenfalls es jedenfalls stätig bessere ergebnisse gegeben mit höhrem Takt. Und wie gesagt ich hab es in mehreren Stresstests + Spiele mit 9080 laufen gehabt. Um absolut sicher zu gehen bin ich auf 9000 runter.
Denke da hab ich wohl mal Glück gehabt beim Speicher :)
Die 1400 an der GPU dagegen kann ich vergessen ohne Spannung zu erhöhen. Stabil mit 1,22 Volt lief sie mit 1410 aber das war die läufter wurden deutlich hörbar, das ists mir dann doch nicht wert.

Ab 1475 mhz ist die 480 ja Bench Technisch an der Fury dran , aber das wird man ohne Wasser kaum schaffen ;)
Wobei wenn man in die vollen geht lohnt sich so ne Wasserkuehlung shcon , der verbrauch geht da kaum nach oben trotz OC einfachnur weil die Temps immer Gut sind und die Spawas und SPeicher werden immer gut gekuehlt .
Aporpo was fuer eine Karte hast du ? manche oder besser gesagt alle RX kuehlen ja 1 oder 2 Speicher Chips nicht oder nur zum Teil !
die ASUS ist da wohl ziemlich schlimm , bei meiner MSI sind die letzten 2 Chips gerade noch so 50 % abgedeckt vom Cooler , einer der gruende wies ich bei meiner Nitro 380 keine Probleme mit 1600 mhz Ram hatte bei der MSI jetzt aber eher vorsichtig bin ...
 
Aporpo was fuer eine Karte hast du ? .

Ich hab auch die MSI Gaming X 8G

Was mir schon aufgefallen ist, dass bei gleicher Spannung die Karte Stabiler läuft wenn sie Kühler ist.
Ob sich Wakü lohnt ist dann so eine Sache. Der Block kostet auch wieder nen 100er , wenn man das restliche equitment noch nicht hat kann man sich für das Geld schnell mal ne 2. 480 zulegen oder sich ne 1070 kaufen.
 
Zuletzt bearbeitet:
ja bei der 480 lohnt es kaum , vielleicht wenn man schon ne Wakue laufen hat gerade so ...
aber wie gesagt ich hab schon RX 480 mit Wakue laufen sehen bei 1475 mhz stabil mit einem verbrauch denn andere zum Teil bei 1300 mzh schon erreichen und da bist dann ohne scheiss auf einem Level mit der kleinen Fury :)

PS: jetzt wo ich wieder Far Cry 4 spiele merk ich nach jedem Spielen ist der Mauspfeil verbugt , ich dachte das haetten die endlch gefixt !
und da trauen die sich Manpower vom Polaris Treiber abzuziehen ? wirklich Mutig AMD , multi Monitor zieht noch saft wie Sau was nicht sein muss der Mauspfeil bug noch immer vorhanden aber sind ja nur Peanuts oder wie ?
Also wenn ich ehrlich bin mit meiner R9 380 hatte ich es besser damals , aktuell kann ichnicht sagen das ich zu 100 % Happy bin mit der 480 ...
 
Zurück