Geforce GTX 980 @ 1.500/4.000 MHz vs. GTX Titan @ 1.200/3.600 MHz: Wer macht das Rennen?

Mal schauen was AMD als nächstes rausbringt um die 980 zu kontern. Bin ja schon gespannt ob es tatsächlich ein "Monsterchip" wird oder es vllt. doch ein sparsamerer Chip wird.

Eigentlich ist die 980er und 970er gar nicht die Speerspitze der Architektur ,sondern nüchtern betrachtet die früheren Midrange Modelle.Nvidia hat aber seit Kepler ne andere Strategie zu früher mal.Es werden nicht zuerst ,wie bei Fermi noch üblich ,die großen Chips verramscht,sondern man führt zuerst die kleineren Chips ins Felde ,um der Architektur und den Yield Raten der Wafer Zeit zum reifen zu geben.

Wenn AMD da jetzt also mit einem 550mm??? Chip kommt, dann ist das die Gegenüberstellung mit Nvidias GM200 Derivaten, und keinesfalls ein GM204 Gegner

Vollausbau gegen Vollausbau wenn man so will

AMDs 20nm 390x muss also nicht "nur" besser werden wie 980/970, sondern auf dem Level eines ebenfalls in 20nm gefertigten GM200 Titan 2/980ti/970ti liegen,ansonsten wird's ein großer Rückstand
 
Die Übertaktung der 290x ist doch wertlos wenn man dafür doppelt soviel Strom benötigt.
Wer seine Hardware so stark übertaktet, und sich auch sonst als echten Enthusiasten sieht, dem ist ein etwas höherer Stromverbrauch wohl eher nicht so wichtig :D Mal ehrlich, es geht hier (wenn es extrem hoch kommt und der Rechner sehr viel an ist) um einen einstelligen Euro-Betrag pro Monat - ungefähr soviel wie ein Bier in der Kneipe ^^ Wenn man sich anguckt, was die Komponenten kosten, sollte man da mal die Kirche im Dorf lassen :)

Edit: Um das mal etwas mit Zahlen zu untermauern: Gehen wir mal von 200 Watt Mehrverbrauch aus (was sicher über dem realen Mehrverbrauch liegt). Und sagen wir außerdem, dass der Rechner an allen 30 Tagen des Monats je 4 Stunden pro Tag voll mit Zocken ausgelastet wird. Das ergibt pro Monat einen Mehrverbrauch von 0,2 kW*4 h*30 = 24 kWh. Bei einem Preis von 25 Cent pro Kilowattstunde sind das dann 24 kWh * 0.25 €/kWh = 6 Euro pro Monat :) Und das ist wirklich eine Extrem-Rechnung...
 
Zuletzt bearbeitet:
Wer seine Hardware so stark übertaktet, und sich auch sonst als echten Enthusiasten sieht, dem ist ein etwas höherer Stromverbrauch wohl eher nicht so wichtig :D Mal ehrlich, es geht hier (wenn es extrem hoch kommt und der Rechner sehr viel an ist) um einen einstelligen Euro-Betrag pro Monat - ungefähr soviel wie ein Bier in der Kneipe ^^ Wenn man sich anguckt, was die Komponenten kosten, sollte man da mal die Kirche im Dorf lassen :)

Edit: Um das mal etwas mit Zahlen zu untermauern: Gehen wir mal von 200 Watt Mehrverbrauch aus (was sicher über dem realen Mehrverbrauch liegt). Und sagen wir außerdem, dass der Rechner an allen 30 Tagen des Monats je 4 Stunden pro Tag voll mit Zocken ausgelastet wird. Das ergibt pro Monat einen Mehrverbrauch von 0,2 kWh*4 h*30 = 24 kWh. Bei einem Preis von 25 Cent pro Kilowattstunde sind das dann 24 kWh * 0.25 €/kWh = 6 Euro pro Monat :) Und das ist wirklich eine Extrem-Rechnung...

Danke! Endlich mal jemand der es den Effizienzfanatikern vorrechnet.
Ich persönlich glaube ja das viele die hier über 100W Mehrverbrauch lästern zu Hause noch 100W Glühbirnen und alte Kühlschränke, Trockner, Waschmaschinen, Staubsauger etc. betreiben.
 
Ich persönlich glaube ja das viele die hier über 100W Mehrverbrauch lästern

Mehrverbrauch schön und gut von mir aus kann die Karte 500Watt verballern wenn sie dann auch entsprechend Leistung abliefert, aber genau da hackt es nämlich zum Gegenüber

Das Ding verballert 200Watt mehr mit Max OC ,und stinkt dann auch noch ab im Leistungsspektrum,zudem sorgt der erhöhte Verbrauch auch noch für einen "dezenten" Lautstärkepegel,wenn man nicht gerade in der Lage ist H2O Kühlungen zu verbauen

Du siehst es gibt also nicht nur den "save the Planet" Effekt, sondern hier spielen noch ganz andere Faktoren mit rein
 
Wer seine Hardware so stark übertaktet, und sich auch sonst als echten Enthusiasten sieht, dem ist ein etwas höherer Stromverbrauch wohl eher nicht so wichtig :D Mal ehrlich, es geht hier (wenn es extrem hoch kommt und der Rechner sehr viel an ist) um einen einstelligen Euro-Betrag pro Monat - ungefähr soviel wie ein Bier in der Kneipe ^^ Wenn man sich anguckt, was die Komponenten kosten, sollte man da mal die Kirche im Dorf lassen :)

Edit: Um das mal etwas mit Zahlen zu untermauern: Gehen wir mal von 200 Watt Mehrverbrauch aus (was sicher über dem realen Mehrverbrauch liegt). Und sagen wir außerdem, dass der Rechner an allen 30 Tagen des Monats je 4 Stunden pro Tag voll mit Zocken ausgelastet wird. Das ergibt pro Monat einen Mehrverbrauch von 0,2 kW*4 h*30 = 24 kWh. Bei einem Preis von 25 Cent pro Kilowattstunde sind das dann 24 kWh * 0.25 €/kWh = 6 Euro pro Monat :) Und das ist wirklich eine Extrem-Rechnung...

Rechne mal für mich vor 6 Stunden am Tag und Samstag Sonntag ca. 12 :devil:
 
Kleiner Vertipper. Sollte der Catalyst Betatreiber nicht 14.300 sein anstatt 13.300? Und war der nicht offiziell für die R9 285 only bzw. nur gemodded nutzbar. Ok, es ist der selbe D3D-treiber wie 14.9, was aber wohl eher glücklicher Zufall aus (zugegeben) Erfahrung ist, als beabsichtigt. ;) Der neuste Beta-Treiber ist 14.410 und seit 26.9. ebenfalls gemodded erhältlich und "neuer" wie der 14.9'er. Trotzdem danke für den Test und die reingesteckte Arbeitszeit. Die Werte bei Standardtaktraten sind das worauf es ankommt. Nvidia hat, wie schon in anderen Tests gezeigt, mal wieder ganz knapp drübergetaktet und der Vollausbau kommt erst noch. Da werden sich einige ärgern jetzt vorschnell die 970 genommen zu haben aber das sehen wir dann, wenn es soweit ist. Das sehr gute Übertaktungspotenzial der "kleinen" könnte der Planung einen Strich duch die Rechnung machen, den man ggf. mit mehr verbautem Grafikspeicher wieder wett machen kann. Im Prinzip gut für uns alle. :daumen:
 
Rechne mal für mich vor 6 Stunden am Tag und Samstag Sonntag ca. 12 :devil:
Dafür ist die Auslastung der GPU beim Zocken nicht die ganze Zeit 100% (wie in meiner Rechnung angenommen), und meine sehr pessimistisch geschätzten 200 Watt Mehrverbrauch im Vergleich zur (ebenfalls übertakteten) Nvidia-Karte sind auch zu hoch. Auch mit deinen Daten wird man also trotzdem definitiv weniger als 10 Euro pro Monat an Zusatzausgaben durch den Mehrverbrauch haben. Bei über 400 Euro für die Karte (die bei einem echten Enthusiasten wohl auch höchstens 12 Monate im Rechner bleiben wird, dann gibt es deutlich besseres) also nicht so entscheidend :)

P.S.: Ich beneide dich darum, dass du scheinbar dermaßen viel Freizeit hast :D
 
P.S.: Ich beneide dich darum, dass du scheinbar dermaßen viel Freizeit hast :D

Meine Auslastung ist immer 100% da ich immer ohne Vsync spiele da ich sogar bei 60 Fps eine Mausverzögerung wahrnehme aber mein Bildschirm nur 60 Hz hat.

Wenn man keine Zeit hat wird Zeit gemacht :ugly: (Daumen gebrochen im Fussball :hmm: :wall:)

Jetzt sind es gut und gerne 15-18 Stunden am Tag zurzeit :ugly:
 
Ich verstehe auch nicht wieso die 290X nicht auch mit einem Custom Kühler ausgestattet wurde und auch nochmal Kräftig weiter OCed wurde um einen Vergleich für Enthusiasten zu haben denn so eine Grafikkarte kaufen und dann nicht zumindest mit Standard Voltage OCen ist doch irgendwie Verschwendung.:devil:

Klar würde Sie wohl immer noch zurück liegen aber der Vergleich wäre etwas fairer und bei aktuellem Preisgefüge wäre die R9 290X eher zwischen 970 und 980 zu sehen der richtige Gegenspieler kommt ja erst.

Trotzdem beeindruckend was die 980 leistet mit hohem Takt.
Ich verstehe aber nicht wieso die 780Ti allgemein in den Tests mit Standard Takt betrieben wird und nicht zumindest auf das Maß normaler Custom Karten OCed wurde.

Ja , die GTX 780 Ti ,da darfst du gerne einmal raten warum diese Karte nicht in ihrem Boost gezeigt wird.
 
Top hab meine GTx 980 auch eben aufn AC4 xtreme umgebaut. Mit 1,48ghz und +0,87mv kommt die Karte net über 62 Grad. Endlich so kann man bf4 in 1440p genießen!
 
In der Praxis sieht 4k nativ & 4xSSAA deutlich besser aus als 2K nativ und 16xSSAA; trotz fast identischen Performancekosten!

Ja natürlich ist das so, da das 4K Display eine viel höhere Auflösung nativ darstellen kann. Aber darum ging es doch garnicht...
Bezogen auf den oben zitierten Satz, wo du die beiden Fälle verglichen hast: Bei welchem der beiden Fälle hätte ich theoretisch mehr sichtbares Aliasing und Flimmern?
 
Eben, wo ist die übertaktete 290X (1250+)? Ich glaube, wenn die 780ti und die 290X übertaktet am start wären, würde die 980 gar nicht mehr so toll sein..
 
Zurück