GTX Titan X im Test: Top aber teuer

Auf dem Datenblatt, was ich mir eben bei EVGA angeschaut habe, steht DX12. Alles andere würde mich aber auch wundern...

Und trotzdem können maxwellbasierte Chips maximal TIER_2 hardwaremäßig unterstützen.
o4wOYxm.png

Lass dich davon nicht täuschen.
 
Da ist aber jemand mal fleißig. ^^

1080p
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


1440p
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


2160p
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Sind eigentlich 12x 1 gb GDDR 5 Blocks draufgebaut oder 24x 512 mb? :huh:


Ca. 35% Mehrtakt mit ganz normalen Boardmitteln sind also unvernünftig? ^^
So viel ich in Erinnerung hab verbrät die R9 290X ca. 300 Watt in Game. ^^
Wo ist also der Kritikpunkt bei 250 Watt der Karte, die dabei gleichzeitig ca. 30-45 % fixer unterwegs ist?

Die 290X verbraucht aber auch keine 300W sondern eher so 270W da ist also kein großer Unterschied. Und im Text steht halt, dass man den Chip noch wesentlich höher takten könnte, wenn man eben das Powertarget ausschalten könnte. Ich habe kein Problem mit 250+ Watt Karten, aber ich finde es höchst befremdlich, dass man das maximale Ausnutzen des Chips durch Hürden wie keine Custom Kühler und Powertarget effektiv verhindert - insbesondere Letzteres wirkt für mich wie Bevormundung, die Dingen wie "Titan X 1400Mhz" Edition in einiger Zeit Tür und Tor öffnen könnte.
 
Starke Karte. Bin gespannt, was mittels Mod-Bios und unlimitiertem OC rauskommt. Der Verbrauch dürfte bei dem Gewalts-Chip dann aber auch jenseits von gut und böse sein.
 
Ein paar Tests in UHD aber ohne AA vor allem ohne Supersampling was ich für total überflüssig erachte (durch die eh schon hohe Auflösung) wären echt Top. Ansonsten schöner Test.
 
Möchte nicht wissen, wie viele die Titan X für DOTA 2 oder andere FreeToPlay Spiele nutzen werden ... :ugly:

"Hmm mal Watch Dogs installieren...jo krass 1440p flüssig mit allen Details...aber Spiel is öde, daher wieder deinstalliert und ab zu meinen Spielen die auch ne 350 Euro Grafikkarte schafft"

Das Schlimme ist du hast vollkommen Recht. Ich würde so eine Leistung für vielleicht 2-3 Spiele im Jahr brauchen. Die meiste Zeit wird sowieso CS:GO, War Thunder oder ähnliches gespielt, wofür ne 300€ Karte auch reicht...
 
Meh, also von der Titan X hatte ich schon mehr erwartet - vorallem für wieder einmal saftige 1200 €. Eventuell wird ja die GTX980ti wieder interessant. Taktbeschnitten knapp unter der Titan plaziert mit 6 Gb VRAM für 500-600 €. Your move, AMD.

Ps.: EK Waterblocks hat die Titan X Wasserkühler schon parat!
 
25-30 % Schneller als meine Karte und dass für den mehr als doppelten Preis (von meinen gezahlten 557 € ausgehend)... Mein Geldbeutel ist nicht mal in Gefahr in die Nähe dieser Karte zu kommen. Er hat sich in eine warme und weiche Ecke zurückgezogen und schläft ruhig. Wahrscheinlich noch so 1-2 Jahre, wenn dann mal eine Komplettumrüstung ansteht.

Da die 390x laut Leak auch nicht viel schneller sein soll, werde ich wie üblich mal wieder 1-2 Generationen Grafikkarten aussitzen bis ich wieder was neues verbaue.

Trotzdem bin ich aus technischem Interesse sehr auf den Launch der 390x gespannt.
Schlapplachen würde ich mich, wenn AMD den leisteren und besseren Kühler hätte ... Dann würden hier einige in Erklärungsnot kommen. :D
 
Ich gebs gerne zu, eine nette Karte, mit der mich ein großzügiger nVidiaFan sogar von seiner Marke überzeugen könnte. Adresse bei Interesse gibt es gegen eine PM ^^

Das sie die unverschämten Preise der Titan mit der potentiellen Profianwendung rechtfertigten, war schon ziemlich daneben, jetzt haben sie den selben Preis ohne DP? Das ist schon nicht mehr grenzwertig, das geht weit darüber hinweg. Der akteuelle Highend-Chip sollte keine 4stelligen Beträge kosten. Dadurch wird das Spielen zu einem Hobby wie Tennis oder gar Golf -.-

Miese Mittelklasse kostet über 500 Euro, Highend über 1000,- Unterklasse nahezu 300,-. Man kann eigentlich nur beten, dass nVidia damit richtig aufs Maul fällt, dass die nächste Generation hoffentlich wieder angemessene Preise bietet...
 
Die 290X verbraucht aber auch keine 300W sondern eher so 270W da ist also kein großer Unterschied. Und im Text steht halt, dass man den Chip noch wesentlich höher takten könnte, wenn man eben das Powertarget ausschalten könnte. Ich habe kein Problem mit 250+ Watt Karten, aber ich finde es höchst befremdlich, dass man das maximale Ausnutzen des Chips durch Hürden wie keine Custom Kühler und Powertarget effektiv verhindert - insbesondere Letzteres wirkt für mich wie Bevormundung, die Dingen wie "Titan X 1400Mhz" Edition in einiger Zeit Tür und Tor öffnen könnte.

Da sagt aber die PCGH etwas ganz anderes. ^^
Da ist beispielsweise in deren Tests bloß die Sapphire R9 290X Tri-X und HIS R9 290X IceQ X2 Karte bei ca. 270 Watt. Die anderen die weit mehr als 300 Watt verbrauchen hab ich noch gar nicht mal benannt. Deshalb bin ich schon fair wenn ich von ca. 300 Watt bei meinem Vergleich ausgehe. ;)

Aber nu gut so kleinlich will ich jetzt auch nicht sein. Trotzdem hat die Titan da ein wesentlich bessere fps/watt Verhältnis.
Trotz Speere, was natürlich! ärgerlich ist, sind ca. 30-35% nicht übel. ;)
 
Hm Speichermenge super, Leistung enttäuscht mich bei dem ganzen Trara jetzt irgendwie etwas.
Im SLI ist die sicher genial in UHD/Multimonitor. Leistung satt und Speicher auch mal genug.
Aber das wäre dann schon ziemlich teuer :ugly:

Ich denke allerdings auch nicht, dass die 390x in anderen Bereichen liegen wird. Der entscheidende Unterschied wird evtl. der Preis sein.
Technisch wird sie zwar auch interessanter sein, aber deswegen kauf ich mir nix ^^.


Es ist DX12.1 Tier 2 :D
 
Hm, macht mich jetz auch nich so an.

Evtl. die gleiche Karte nur mit 6GB Speicher und Herstellerdesigns (Platine, Stromversorgung, Kühlung) dann für ~700 und ich wär dabei; so leider net
 
Schönes Stück Technik, leider etwas zu Teuer für meinen Nutzen. Test :daumen: wie immer!

Dann werf ich zum Release Day gleich mal den neuen Treiber mit rein.

DL Nvidia: NVIDIA DRIVERS GeForce Game Ready Driver WHQL 347.88 WHQL ab GF400 - TX

Game Ready
Best gaming experience for Battlefield Hardline, including support for SLI Technology and GeForce Experience 1-click optimizations

SLI Profil

-Battlefield Hardline - Updated SLI profile
-Life Is Strange - Added SLI profile
-Medieval Engineers - Added SLI profile
-Trine 3 - Added SLI profile
-Zombie Army Trilogy - Added SLI profile

New GeForce GPUs
Supports the new GeForce GTX Titan X; based upon the second-generation Maxwell architecture
 
Grad den Test von CB gelesen, deren Karte macht schon kurz vor 1300MHz ende gelände was Sauberes arbeiten anbelangt. Dort sind es übrigens ca 45% die die Titan X schneller ist als ne R9 290X (über).

Und die von Hardwareluxx schaft anscheinend 1414MHz.

Alle sin allem dürften also ca 20% mehr Leistung durch OC drin liegen, ohne mod Bios und Wakü. Die Lautstärke so einer Karte möchte ich dann aber nicht im Gehäuse haben.

EDIT:
Techpowerup kommt auchauf nur rund 1300 MHz.
Und Anandtech auf gute 1452
hardwarecanucks gibt 1290 an.
techspot hat im Bosst wohl 1326 MHz.

Im schnitt komme Ich über die Reviews auf nen Maximalen Boosttakt von ca. 1350MHz, was durchaus weniger ist als die GTX 980 schaft. Dort scheinen viele Modelle auch mit 1500MHz noch kein Problem zu haben und fast alle packen wohl die 1400er Marke.
 
Zuletzt bearbeitet:
Da sagt aber die PCGH etwas ganz anderes. ^^
Da ist beispielsweise in deren Tests bloß die Sapphire R9 290X Tri-X und HIS R9 290X IceQ X2 Karte bei ca. 270 Watt. Die anderen die weit mehr als 300 Watt verbrauchen hab ich noch gar nicht mal benannt. Deshalb bin ich schon fair wenn ich von ca. 300 Watt bei meinem Vergleich ausgehe. ;)

Aber nu gut so kleinlich will ich jetzt auch nicht sein. Trotzdem hat die Titan da ein wesentlich bessere fps/watt Verhältnis.
Trotz Speere, was natürlich! ärgerlich ist, sind ca. 30-35% nicht übel. ;)

Nee Majin! Wie einseitig ist das denn bitte! und zwar alle deine Posts in diesem Fred.
Echt unglaublich. Die R9 290x wurde released, grottiger (weil viel zu lauter Lüfter) Kühler, so unglaublich hoher Stromverbrauch! Ist ja schier untragbar diese Heizplatte!

So war der Grundtenor aller Grünen hier. Und jetzt sind all diese Faktoren wieder irrelevant?!?!?!?

Auch wenn hier ein wesentlich besseres Fps/Watt-Verhältnis entsteht, welches vermutlich mit der R9 390x auf gleichem Level liegt, tut das an der grundsätzlichen Kritik nichts ändern. Die 290x ging ins Rennen um die Titan (erfolgreich) vom Thron zu stoßen. Jetzt wird hier Titan X gegen 290x verglichen (1 Generation und 1,5 Jahre Zeitdifferenz) und auf einmal ists gar nicht mehr so schlimm?! Boah diese Scheinheiligkeit kotzt mich an!

Die Leistungsfähigkeit dieser Karte will ich nicht in Abrede stellen.
 
Nee Majin! Wie einseitig ist das denn bitte! und zwar alle deine Posts in diesem Fred.
Echt unglaublich. Die R9 290x wurde released, grottiger (weil viel zu lauter Lüfter) Kühler, so unglaublich hoher Stromverbrauch! Ist ja schier untragbar diese Heizplatte!

So war der Grundtenor aller Grünen hier. Und jetzt sind all diese Faktoren wieder irrelevant?!?!?!?

Auch wenn hier ein wesentlich besseres Fps/Watt-Verhältnis entsteht, welches vermutlich mit der R9 390x auf gleichem Level liegt, tut das an der grundsätzlichen Kritik nichts ändern. Die 290x ging ins Rennen um die Titan (erfolgreich) vom Thron zu stoßen. Jetzt wird hier Titan X gegen 290x verglichen (1 Generation und 1,5 Jahre Zeitdifferenz) und auf einmal ists gar nicht mehr so schlimm?! Boah diese Scheinheiligkeit kotzt mich an!

Die Leistungsfähigkeit dieser Karte will ich nicht in Abrede stellen.

Wohl weniger mit Scheinheiligkeit als eher dem aktuellen IST-Stand gewidmet. Es ist sehr wohl davon auszugehen, dass sich die Titan mit dem Top-Modell von AMD messen lassen muss, wenn es denn verfügbar wird. Abwarten und Tee trinken, vierstellige Beträge wäre mir die Titan eh net wert
 
Zurück