Nvidia Titan XP: Erster Benchmark und Kundenbilder gesichtet

Das kann NVIDIA im Highend noch Jahre so weiter treiben, die Ti beschnitten und die Titanen als Vollausbau.
Das Konzept funktioniert genial super einfach.

Um genau zu sein ist das falsch. Die allererste Titan war z.B. auch ein teildeaktivierter Chip.

Bisher war es halt immer so, dass zumindestens die erste Titan die Leistung des Big-Chips 8 Monate vor Release der passenden Ti Karte anbot. Die Ausnahmen sind die die Titanen, die nicht die ersten Titanen in ihrer Chipgeneration waren. Die Titan Black war durch ihren verdoppelten VRAM und der DP-Leistung gegenüber der 780 Ti noch halbwegs zu rechtfertigen, die neue Titan Xp scheint mir dagegen einfach nur nutzlos.

Hätte die neue Titan Xp 24 GB VRAM würde ich ihr die Semiprofessionalität noch abkaufen. Und dann gäbe es auch für einige gute Gründe, diese Karte der 1080 Ti vorzuziehen. Beim Rendern oder bei Compute-Aufgaben, die keine doppelte Genauigkeit oder Fehlerkorrektur brauchen könnte sich so eine Karte lohnen. Aber ich bezweifle, dass es sonderlich viele Szenarien gibt, in denen 12 GB VRAM noch reichen, 11 GB aber zu wenig sind....
 
Um genau zu sein ist das falsch. Die allererste Titan war z.B. auch ein teildeaktivierter Chip.

Bisher war es halt immer so, dass zumindestens die erste Titan die Leistung des Big-Chips 8 Monate vor Release der passenden Ti Karte anbot. Die Ausnahmen sind die die Titanen, die nicht die ersten Titanen in ihrer Chipgeneration waren. Die Titan Black war durch ihren verdoppelten VRAM und der DP-Leistung gegenüber der 780 Ti noch halbwegs zu rechtfertigen, die neue Titan Xp scheint mir dagegen einfach nur nutzlos.

Hätte die neue Titan Xp 24 GB VRAM würde ich ihr die Semiprofessionalität noch abkaufen. Und dann gäbe es auch für einige gute Gründe, diese Karte der 1080 Ti vorzuziehen. Beim Rendern oder bei Compute-Aufgaben, die keine doppelte Genauigkeit oder Fehlerkorrektur brauchen könnte sich so eine Karte lohnen. Aber ich bezweifle, dass es sonderlich viele Szenarien gibt, in denen 12 GB VRAM noch reichen, 11 GB aber zu wenig sind....

Hatte ich nicht mehr daran gedacht, damals hatte ich meine erste Ti also GTX 780Ti. Ich meinte auch , dass diese Konzept zukünftig weiter von Erfolg gekrönt ist.
Die neue Xp, da sind wir uns ja alle einig, ist für den Mond. Für diesen Preis ist fast ein SLI System drin und das ist schon zu überlegen, wie Sinnvoll ...... Hm, wäre auch cool :D
 
Beim GTX970-Fall waren Leute sehr kreativ um genau die Fälle zu finden, wo 4 GB reichen und 3,5 GB ruckeln. :ugly:

Das lag aber daran, dass diese unsehligen 0,5 GByte überhaupt angebunden wurden .... Wäre es eine reine 3,5 GByte-Karte gewesen, dann hätte man in diesen Spezialfällen kein Problem mit dem Ruckeln gehabt. Sonst würde eine schwächere 3 GByte Karte (GTX780) nicht in diesen Fällen besser laufen.

Eigentlich würde/müsste die Titan Xp ja GTX1080 heißen, und ca. 600€ kosten. Aber da man die GTX1080 auch mit ca. 33% weniger Shader problemlos für 600€-700€ verkaufen kann/konnte... Siehe GTX1080Ti, die Leute haben sich ja schon darüber gefreut, dass diese kastrierte GPU "nur" 800€ (und damit noch so viel/wenig wie der Vorgänger) kostet. Und wenn Nvidia die Titan XV/Xv demnächst für 1799€ anbietet (und damit mit Intels Flaggschiff-Preisklasse gleichzieht), dann werden sich die Leute schon freuen, dass die kastrierte GTX1180Ti nur 1350€ kostet. (und man schon für 800€ eine GTX1170 bekommt)

:ugly:

Dieses Spielchen funktioniert aber nur so lange, solange die Leistungssteigerung entsprechend ist. Wenn deine spekulierte GTX1170 die GTX1080Ti in der Leistung um 50% übertrifft, dann würde ich auch 750 € zahlen. Wenn sie nur gleichzieht, kann sie gerne im Regal bleiben.

Mir ist es zum Beispiel ziemlich egal was draußen auf der Karte draufsteht und welche Codebezeichnung sich nVidia für den Chip ausgedacht hat. Wo es drauf ankommt, ist die Leistung die das Teil in Games auf das Paket bringt.

Übrigens an all diejenigen, die eine Titan Xp kaufen: Vorsicht ihr habt hier auch nicht den HighEnd Chip der Pascal-Generation ... Ist ja nur ein poppliger GP102 ... Der Top Dog war bei nVidia aber immer der mit der 0 am Ende .... Also in diesem Fall der GP100 ... Viel Spaß beim zusammenkratzen von 8099 € ... Oh NVidia hat den Preis gesenkt, er kostet jetzt nur noch 7699,93 €. Ein wahres Schnäppchen: 16GB PNY Quadro GP100 PCIe 4xDP/DVI Retail Hat zwar nur 16 Gbyte RAM, aber irgendwas ist ja immer. :D
 
[...] Ein wahres Schnäppchen: 16GB PNY Quadro GP100 PCIe 4xDP/DVI Retail Hat zwar nur 16 Gbyte RAM [...]

16 GB HBM RAM!

Das ist der Vollausbau und den gibt es offenbar nicht mehr für Gamer. Die sollen sich mit dem zweitklassigen Zeug abfinden. Früher waren die teuren Profi-Grafikkarten ganz normale (high end) Radeons oder GeForces, eventuell mit doppeltem Speicher, heute zahlen "die Leute" dreifache Preise für abgespeckte Mittelklassekarten.

Ich habe drüben drei GTX 480 liegen, sowas würde heute 4000 Euro kosten. Falls es den GP100 für günstige 2000 Euro zu kaufen gäbe, 6000+Kühler. Läuft...
 
Fun Fact: Den Vollausbau von GP100 gibt es auf keiner Karte.

Ein voll aktivierter GP100 hätte (wie beim GP102) 3840 Cuda Cores. Maximal werden auf kaufbaren Produkten aber nur 3584 geboten.
 
Wieso sollte ein Besitzer einer 1080 Ti neidig auf eine XP werden wegen ein paar Punkten wo das Teil ja fast doppelt so viel kostet :ugly:
Titankäufer sind meiner Ansicht nach keine Ti Käufer. Die warten doch in der Regel auf den Vollausbau und Geld spielt da noch weniger Rolle wie bei den Ti Käufern. Wenn überhaupt...
 
hab mit meiner Ti 31600 und die Xp is auch fast auf 2Ghz lol also der Unterschied is so gering das hätte ich nicht gedacht

haha

NVIDIA GeForce GTX 1080 Ti video card benchmark result - Intel Core i5-3570K Processor,Gigabyte Technology Co., Ltd. Z77X-D3H

hab mal mit dem gleichen Takt auf 2076 Mhz durchlaufen lassen,und wie man sieht kann man immer noch etwas drauflegen,wenn die Karte richtig einstellt ist.

Wenn man die richtigen Einstellungen für die jeweilige Karte macht, geht viel mehr als die Tester mit Ihren Offset Einstellungen erreichen.
Blind max Power bringt nämlich nichts.

Power-Limit = 104%
Core Clock = Curve = 2063mhz bei 1.025v fix
Memory Clock = +250

Und schon ist eine Titan X schneller


NVIDIA Titan X (Pascal) video card benchmark result - Intel Core i7-6700K,ASUSTeK COMPUTER INC. MAXIMUS VIII RANGER
 
Ich finde eben, dass es Zeit wird, dass der Wind aus einer anderen Richtung weht. :D
Und wenn AMD jetzt gefühlt 3 Jahre an Vega herumbastelt, muss da auch was bei rüber kommen, das alle in Erstaunen versetzt.
Alles andere wäre ja nun mehr als armselig.

Eine RX Vega @ 1500 MHz wäre ~16% langsamer als eine 1080 Ti @ 2000 MHz. Also müssten ~16% durch die neue Architektur erreicht werden um gleich schnell zu sein.

Eine RX Vega @ 1750 MHz wäre genauso schnell wie eine 1080 Ti @ 2000 MHz. Sagen wir ein + von 15% durch die Architektur sind möglich, dazu noch 16GB HBM2 und wir hätten das rote Wunder :-).

Aber wie immer gilt es halt abzuwarten :kaffee:

Bitte den GPU-Score vergleichen - dass deine Gesamtpunktzahl sehr hoch ist (vermutlich höher als hier, ne 1080Ti@2,1 GHz ist ja auch ne Granate)

Da würde ich nicht viel drauf geben. Seine Karte hat mit 2101 / 6100 MHz einen 100 Punkte niedrigeren GPU Score, als Snowhacks 2040 MHz Ti. Der Speicher ist wahrscheinlich so weit überdreht, das sich die Performance ins negative entwickelt hat. War ja in den Reviews zu hauf zu lesen, wie sich zu hoher Speichertakt negativ auf die Performance auswirkt. Hauptsache den längsten :-).
 
Zuletzt bearbeitet:
Eine RX Vega @ 1500 MHz wäre ~16% langsamer als eine 1080 Ti @ 2000 MHz.

Eine RX Vega @ 1750 MHz wäre genauso schnell wie eine 1080 Ti @ 2000 MHz.

Worauf basieren diese Aussagen? Wobei ich das Gefühl habe, statt RX Vega wolltest du was anderes schreiben. Aber ich finde grad keine Karte, die passen würde. :huh:
 
Worauf basieren diese Aussagen? Wobei ich das Gefühl habe, statt RX Vega wolltest du was anderes schreiben. Aber ich finde grad keine Karte, die passen würde. :huh:

Ich hätte es ein bisschen anderes formulieren müssen. Eine RX Vega @ 1750 MHz hätte die gleiche Singleprecision Leistung wie eine 1080 Ti @ 2000 MHz. Eine RX Vega @ 1500 MHz hätte 16% weniger. Jetzt ist es an GCN 5.0 das ganze auch auf die Straße zu bringen (was mit GCN 4.0 nicht gelungen ist). Theoretisch ist es "locker" möglich, seitens AMD, mit einer 1080 Ti gleichzuziehen, oder sogar daran vorbei. Die Praxis bleibt halt abzuwarten.
 
Achso, ok.

Ja es bleibt spannend. Ich würde gern mal wieder ein paar Leak Fetzen sehen. Es ist irgendwie zu ruhig, so "kurz" vorm Release. Aber AMD hält heutzutage die Tore ziemlich dicht.
 
Zumindest scheinen sich bei Vega 10 viele einig zu sein, daß die Leistung unter der 1080Ti liegen wird. Das glaube ich zumindest auch.
Ja, es fehlen einfach Informationen, vielleicht muß man bei AMD auf Knien betteln gehen?
:D
 
Zurück