Test: GTX 1080 Ti vs. Titan X Pascal vs. Titan X Maxwell OC

1080Ti... Pascal Chip, der gleiche wie auf der Titan, genauso schnell, 500€ billiger? Ich weiß schon warum den Schrott von denen nicht mehr kaufe!

Das ist mehr als Kundenverarsche! Wieso bringen die eine Titan raus, wenn die GLEICHE Generation genauso schnell ist für weniger Geld?

Ich weiß schon warum ich mir von dem Laden nichts mehr kaufe!



4096x2160 meint er wohl! Denn alles darunter ist kein 4K!

Hier gehts um langweilige Grafikkarten nicht um das Ende Welt... Was ist los euch ?
 
4096x2160 meint er wohl! Denn alles darunter ist kein 4K!
Unsinn. Vor 5 Jahren (2012) hat die CEA schon beschlossen, dass 4K = UHD und 3840x2160 somit als 4K gelten darf. Die 4 bezieht sich dabei eben nicht auf die Pxelzahl in Tausend, sondern auf die 4-fache FullHD Auflösung.

Das was du meinst ist als 4K2K (Cinema 4K) geläufig, interessiert im Consumerbereich aber keine Sau.
 
schaffe mit einem takt von knapp 1,9ghz 7180gpu score im fire strike ultra mit der founders ohne overvoltage und 350mhz+ speicher. wollte fragen wer die karte hat ob diese werte normal sind? lg
 
Ja, das ist ganz normal.

Mit besserer Kühlung (Kryographics-Wasserkühler) geht auch noch mehr. ;)
GTX 1080 Ti +180 Core +450 VRAM.png
 
Sehr interessanter Vergleich, vielen Dank Raff! :daumen:

Ich nutze ja die scheinbar 'perverse' Kombi aus TitanXP und Accelero Xtreme IV (weil ich für den xten WaKü Build wohl zu alt/faul geworden bin :ugly:)und mit angepasster Lüfterkurve, 120% PT, 100%vcore läuft die Karte sämig bei 2065MhzGPU und 11.000 Mhz (5.500) VRAM und max 68C. Bin sehr sehr happy damit, das SS in Rift und Vive ist ein Traum.
 
schaffe mit einem takt von knapp 1,9ghz 7180gpu score im fire strike ultra mit der founders ohne overvoltage und 350mhz+ speicher. wollte fragen wer die karte hat ob diese werte normal sind? lg

Hab sie noch nicht unter wasser.
Mit hohem Lüfter...

13000 Im Firestrike extreme (ultra hab ich noch nicht getestet)
2398 im Unigine 4.0 (1440p ultra)
9450 im Time Spye

3h GRWildlands auf 3440x1140p Ultra läuft sie mit 2000-2012 (nie unter 2k)
2h WoT .... 2012-2038
Witcher3 bringt sie auf zwischendurch auf 1987 runter....nirgends geht die Temp so hoch

Naja die woche kommt endlich die Wakü
 
Zuletzt bearbeitet:
ich hoffe der ein oder andere wirft seine Titan X M nach dem Artikel kostenguenstig in die Bucht. Ich will meinen Sony GDM FW900 einfach noch nicht in Rente schicken ;D
 
also Pascal Titan is schneller als Maxwell Titan und wir alle warten brav auf Vega. ja, Mensch, hätt ich so gar nicht gedacht.
 
Unsinn. Vor 5 Jahren (2012) hat die CEA schon beschlossen, dass 4K = UHD und 3840x2160 somit als 4K gelten darf. Die 4 bezieht sich dabei eben nicht auf die Pxelzahl in Tausend, sondern auf die 4-fache FullHD Auflösung.

Das was du meinst ist als 4K2K (Cinema 4K) geläufig, interessiert im Consumerbereich aber keine Sau.

Das ergibt aber relativ wenig Sinn. das "K" steht für den Faktor 1000. "4K" zur Bezeichnung der 4 fachen pixelmenge haut also irgendwie nicht hin...
4K kommt halt von 4K2K und heißt 4000x2000. Soweit ich das verstehe sind damit eigentlich nur Auflösungen gemeint, die ungefähr in dieser Region sind.
Das sind aktuell eben zwei Stück, nämlich 4096×2160 und 3840x2160. Beides darf anscheinend als 4K oder 4K2K bezeichnet werden, weil es wohl keine offizelle Spezifikation ist, sondern einfach nur ein technischer Begriff.
4K2K – Wikipedia

3840x2160 sind dagegen offiziell als UHD spezifiziert. Mit Logos und allem drum und dran.

Aber so wie ich das sehe, sind die Leute, die schreien, dass UHD kein 4K ist im Unrecht, da 4K offensichtlich ja gar nicht fest definiert ist.




Ach ja, der Ausschnitt hat mich gerade köstlich amüsiert
Die Stiftung Warentest riet Mitte 2014 noch dazu, Kaufentscheidungen für Fernseher nicht auf die stark beworbene ultra*hohe Auflösung zu stützen, denn für das menschliche Auge sei der Unterschied zwischen UHD und dem geläufigen Full HD nur schwer zu erkennen, und es gebe kaum Bildmaterial in UHD-Auflösung.[1] Nachdem 2016 die ersten Filme im UHD-Format ausgeliefert wurden, kam die Stiftung Warentest im August 2016 zu dem neuen Ergebnis, dass UHD im Zusammenhang mit der Bildverbesserungstechnik HDR sichtbare Vorteile aufweise, wenn auch auf Kosten eines höheren Stromverbrauchs.

Nein, UHD kann das auge fast gar nicht wahrnehmen, Lohnt sich nicht..... Öööhm ja, wir sehen den Unterschied jetzt auf einmal doch. Gott hat uns bessere Augen gegeben. Kauft UHD TVs!!! :lol:
Sorry, aber ich kann den Verein nicht ernst nehmen.
 
Das ergibt aber relativ wenig Sinn. das "K" steht für den Faktor 1000. "4K" zur Bezeichnung der 4 fachen pixelmenge haut also irgendwie nicht hin...
4K kommt halt von 4K2K und heißt 4000x2000. Soweit ich das verstehe sind damit eigentlich nur Auflösungen gemeint, die ungefähr in dieser Region sind.
Das sind aktuell eben zwei Stück, nämlich 4096×2160 und 3840x2160. Beides darf anscheinend als 4K oder 4K2K bezeichnet werden, weil es wohl keine offizelle Spezifikation ist, sondern einfach nur ein technischer Begriff.
4K2K – Wikipedia

3840x2160 sind dagegen offiziell als UHD spezifiziert. Mit Logos und allem drum und dran.

Aber so wie ich das sehe, sind die Leute, die schreien, dass UHD kein 4K ist im Unrecht, da 4K offensichtlich ja gar nicht fest definiert ist.




Ach ja, der Ausschnitt hat mich gerade köstlich amüsiert


Nein, UHD kann das auge fast gar nicht wahrnehmen, Lohnt sich nicht..... Öööhm ja, wir sehen den Unterschied jetzt auf einmal doch. Gott hat uns bessere Augen gegeben. Kauft UHD TVs!!! :lol:
Sorry, aber ich kann den Verein nicht ernst nehmen.

also sehe 4k schon. aber von 2880x1620p dsr auf 4k ists eher gering aber dennoch sichtbar
 
Hm,
ich warte noch auf AMD und, oder komme nächstes Jahr wieder. Ich gehe nächtes Jahr von einer Kartengeneration aus, die ca. eeendlich genügend " Rechenleistung " und genug HBM2-Speicher hat. Die 300 OC-Watt Verbrauch, die immer wieder aufwendig gekühlt werden müssen, werden wir bei NVIDIA vermutlich so schnell nicht los.

Gruss
 
Bestimmt Fake das ganze aber ähnlich könnte das ganz trotzdem sein.

Eine 1080ti hat 11GB Vram die Nachfolger Karten hatten immer mehr Vram wie die.
Als Beispiel 780ti 3GB, 980ti 6GB die XX70er Karten hatten immer mehr Vram wie die High-End Karten
dieser Gen.
Auf 16Gb kann ich mir kaum Vorstellen bei 1170 und 1180 ganz einfach weil es Overkill wäre
zur Leistung dieser GPUs. Ich Tipe auf 12Gb deshalb das würde super passen und wäre ebenfalls echt viel VRAM.
Es kann sogar sein das dass der größte Unterschied zwischen 1180 und 1170 wird das die 1170 nur 8GB hat.
Nur 8GB VRAM hat kein Spiel in 4K angekratz und der nutzen von 16GB sind äußerst fragwürdig beim Gaming.

Ich Tippe daher auf maximal 12Gb, weil Nvidia bestückungen nach GPU Leistung macht und Overkill nur in Profikarten zu sehen ist.
Solange die Kompremierung genauso gut ist wie jetzt oder sogar besser wären sogar 8GB Ok.
 
Zurück