Test der Titan Xp: Schneller als die Geforce GTX 1080 Ti

warum is in den test keine Rx 580 8gb ? steht dann die gtx 1060 nicht mehr so gut da?

die titan xp is ja mal eine lol karte total 4% schnelle wie ne ti hätte man sich sparen können .
 
ganz ehrlich, auch wenn ich sehr viel geld übrig hätte, würde ich mir diesen müll nicht zulegen. spätestens nach 2 jahren ist es dermaßen schrott
Genau so sehe ich das auch. 12GB im high End gehen in 2 Jahren in die Knie. Meine Titan XM wird auch in 2 Jahren VRam mäßig an ihre Grenzen kommen. 24GB Titan Xp wäre für 4 Jahre gut aufgestellt gewesen. Maximum fail seitens NV. Oder doch so gewollt. Stichwort: Versteckte geplante Obsoleszenz.
 
Und wieder findet ein AMD Hate Kommentar den Weg in einen NV Artikel.... *gähn*
Wer den eher harmlosen Seitenhieb auf eine eventuell lange Wartezeit gepaart mit einer eigentlich witzigen Werbemetapher als "Hate" versteht, reagiert schon sehr empfindlich wenn nicht gar übertrieben.
Sorry, aber zur Jahresfeier von Pascal (1080 Release am 17.05.2016!) muss man mMn schlicht mit dem Spott leben, die Welt bleibt nicht für AMD stehen.

Gesendet von meinem HTC 10 mit Tapatalk
 
Genau so sehe ich das auch. 12GB im high End gehen in 2 Jahren in die Knie. Meine Titan XM wird auch in 2 Jahren VRam mäßig an ihre Grenzen kommen. 24GB Titan Xp wäre für 4 Jahre gut aufgestellt gewesen. Maximum fail seitens NV. Oder doch so gewollt. Stichwort: Versteckte geplante Obsoleszenz.

Wer sollte dann noch die Quadro-Karten kaufen ... Die unterscheiden sich Specsmäßig nur noch durch die 24 GByte VRAM von den Titan Xp.
Und was den VRAM angeht. Deine Titan XM stößt jetzt schon an ihre Grenzen und das in der Performance nicht im VRAM. Meine GTX1080 ist rund 10-15% schneller als die Titan XM und trotz 8 Gbyte VRAM habe ich eher FPS den VRAM-Probleme in 4K:
WatchDogs2_2017_05_22_09_02_53_446.jpg
WatchDogs2_2017_05_22_09_00_25_175.jpg
MassEffectAndromeda_2017_05_22_08_48_36_054.jpg
MassEffectAndromeda_2017_05_22_08_48_15_453.jpg

ACS_2017_05_22_08_35_19_902.jpg
ACS_2017_05_22_08_34_49_980.jpg
20170522082919_1.jpg
20170522082540_1.jpg
 
Ich finde jetzt nicht das die Titan XP soviel besser als ne 1080ti ist. In UHD sind es teilweise nichtmal 1 FPS unterschied und darunter auch nicht so arg viel. Zwischen der 1080ti und der Titan xp hat meiner Ansicht nach die 1080ti das bessere gesamtpaket.
 
Du machst den klassischen Fehler die komplette Rohleistung mit der Auflösung zu verballern, dann bleibt nichts mehr übrig. Zukünftige Games(die wir noch nicht kennen), die man nicht auf 4k einstellt eher 1080p vernichten dir den VRam, aber trotzdem werden die FPS gut spielbar sein. So war es und so wird es immer sein. Selbst so erlebt bei meiner 8800GTX und 580 3GB. Am Ende(nach 3-4 Jahren) ist dann die Rohleistung und VRam am absoluten Limit. Rohleistung aus Tradition etwas mehr, aber der VRam auch.

Ich stelle meinen neuen 4k Monitor, der im Herbst aufschlagen sollte, dann auf 1080p zurück wenn die Rohleistung knapp wird. Der CRT Trick den ich seit Jahren schmerzlich vermisste habe, bevor es DSR gegeben hat.

Für die Leute die zwanghaft 4k fahren wollen immer und überall, empfehle ich schon immer den 2 Jahres Rhythmus mit weniger VRam. Du hättest dir keine Titan XM kaufen sollen sondern eine 980TI und jetzt eine 1080TI. Somit hast du immer ausreichend VRam und Rohleistung für den 4k Wahnsinn. Mir ist ein 2 Jahres Rhythmus aber zu kurz, ich fahre 4 Jahre. (siehe Signatur)

"Zwischen der 1080ti und der Titan xp hat meiner Ansicht nach die 1080ti das bessere gesamtpaket. "
Vor allem weil es diesmal ja nichtmal mehr Versionen der Hersteller wie EVGA gibt. Absolut lächerlich das ganze. So können die ihren Schrott behalten. VRam beschneiden, Preis hoch, keine Herstellerdesigns(EVGA Hybrids!) und somit lächerlich niedrige Garantiezeiten. Mit mir nicht...
 
Zuletzt bearbeitet:
Immer das gemeckere.
Ja die Titan ist teuer, warscheinlich zu teuer. Aber es ist aktuell die schnellste Grafikkarte die man kaufen kann. Jeder der auf der Jagd nach jedem fps ist wird damit glücklich.

Ich gebe meine nicht mehr her (so lange es keine Titan Vega oder was auch immer da kommen wird) gibt :D
 
High end GPU s gibt es schon ewig, dieses Jahrtausend jedenfalls, seit der Geforce 5950 auch schon mit Wasserkühlung ,kein Neid aber Verwunderung meinerseits :Was ist an V Ram so Kostbar geworden das er wie Goldstaub zugeteilt wird ? Z.b die AMD 7950 war sehr grosszugig (zum damaligen Erscheinungdatum )mit 384 bit speicherinterface + 3 gb Vram ausgestattet worden ,wobei der kleine Bruder meines Kenntnisstandes" Noverclocked" ohne Spulenfiepen dafürmoderater BetriebsTemperatur etwa200 watt + sowie gefühlt hochwertigen zutaten in das belüftete Wunderkästchen kam und recht lange gute gehobene Durschnittsdienste leistete und das bei manch einem bis heute manchmal auch noch tut . Kernfrage Frage also wo ist jetz bitte die bezahlbare standard Amd /Geforce Karte mit 16 gb Vram für Video (spielchen) oder ist die PC GPU zur Abm Massnahme für kleine Trickser geworden ?
 
"Was ist an V Ram so Kostbar geworden das er wie Goldstaub zugeteilt wird ?"
Ich schätze mal es ist so wie beim RAM, dadurch das sich alle auf 3D Nand/Flash konzentrieren, die Smartphones auch massig an RAM und Flash fressen jedes Jahr, sind die Fertigungskosten für RAM und VRam explodiert. NV gibt das mit VRam knausereien an uns weiter. Bei AMD sind es technische Limitierungen durch HBM, der ja mit Abstand der teuerste VRam weit und breit ist. Hut ab wenn der High End Vega 16GB VRam bekommt.

"die AMD 7950 war sehr grosszugig (zum damaligen Erscheinungdatum )mit 384 bit speicherinterface + 3 gb Vram ausgestattet worden"
Und dank diesem Vram Polster für 4 Jahre ist sie eine extrem langlebige Karte geworden, die sehr gute Rohleistung hat natürlich auch mit geholfen. Aber die war 100% im VRam soll, hätte beinahe meine 580 3GB verkauft und die AMD gekauft nach nur einem Jahr, weil ich das damals schon gewusst habe das diese Karte für die Zukunft so gut aufgestellt ist. Hab mein inneres Konsumvieh aber gerade noch zurückhalten können. (;
 
Zuletzt bearbeitet:
Nividia findet immer einen weg seinen Titan X Käufern ins Gesicht zu treten :D:lol:
Da kauft man sich schon eine Titan X und legt extra Geld drauf um die schnellste Karte zu haben und schwapp kommt die 1080Ti raus. Jetzt kommt wieder eine neue Titan X die schneller ist :D

Und warum sollte mich das jetzt "treten"? :hmm:

Seit dem ich die TitanX habe (Herbst 2016) kann ich alles was ich spiele in UHD/Ultra in fast immer 60+ fps spielen. Dazu ist es in den meisten Fällen nicht mal nötig die 2 GHz auszupacken.
Daran ändert weder die 1080Ti oder die TitanXP irgendwas... ich meine meine Karte wird doch nicht langsamer nur weils jetzt eine gibt dien bisschen schneller ist? :huh:

Ich lass die jetzt so lange rennen bis sie mir wieder zu langsam ist - bis dahin dürfte es Karten im 200-300€-Bereich geben die schneller als meine TitanX sind. Das ist nunmal der Lauf der Dinge im Hardwaremarkt - nur ist der Lauf heutzutage so langsam geworden dass man als alter nerd drüber lachen kann. Ich meine bis ne 250€-Karte kaufbar ist die meine TitanX deutlich schlägt dürften wir im Jahre 2020 angekommen sein (so GTX3060(Ti) oder sowas...)... als ich angefangen habe Hardware zu kaufen hat sowas oft nicht mal 12 Monate gedauert. :D
 
Ich stelle meinen neuen 4k Monitor, der im Herbst aufschlagen sollte, dann auf 1080p zurück wenn die Rohleistung knapp wird. Der CRT Trick den ich seit Jahren schmerzlich vermisste habe, bevor es DSR gegeben hat.

Für die Leute die zwanghaft 4k fahren wollen immer und überall, empfehle ich schon immer den 2 Jahres Rhythmus mit weniger VRam. Du hättest dir keine Titan XM kaufen sollen sondern eine 980TI und jetzt eine 1080TI. Somit hast du immer ausreichend VRam und Rohleistung für den 4k Wahnsinn. Mir ist ein 2 Jahres Rhythmus aber zu kurz, ich fahre 4 Jahre. (siehe Signatur)

1. DSR ist nichts anderes als ein berechnen in Hoher Auflösung und dann runterrechnen auf die Zielauflösung. Es frisst genau die gleiche Leistung/Resourcen wie die Hohe Auflösung + ein paar Prozent für das downsampeln. Meine Bilder sind mittels DSR entstanden, da ich selbst einen WQHD-Monitor fahre. Das ganze nur um den VRAM-Bedarf zu simulieren.
2. Ich habe eine Palit GTX1080 Gamerock, keine GTX Titan XM oder ähnliches. Die GTX980Ti habe ich schon gehabt. Ich fahre mit der Karte auch nicht zwanghaft 4K sondern die WQHD-Auflösung mit angepassten Einstellungen. Selbst hier schraube ich nicht alles bis zum Maximum, sonder ermittel meine Einstellungen selbst für meinen persönlichen Sweetspot.
3. In der Regel tausche ich so alle 2 Jahre die Karten aus und dann meist in der GTXxx80 Klasse. Ti oder Titans benötige ich nicht.
 
Genau so sehe ich das auch. 12GB im high End gehen in 2 Jahren in die Knie. Meine Titan XM wird auch in 2 Jahren VRam mäßig an ihre Grenzen kommen. 24GB Titan Xp wäre für 4 Jahre gut aufgestellt gewesen. Maximum fail seitens NV. Oder doch so gewollt. Stichwort: Versteckte geplante Obsoleszenz.

aha. ich hab von 2013-2017-April problemlos mit 3gb und ner GTX780 zocken können auf 1080p.
am ende hat mir die rohleistung nicht mehr gereicht + ich bin auf 1440p zusätzlich umgestiegen.
ich hatte aber nie nachladeruckler aufgrund des rams (obwohl einige games wie bf1,gta5, wildlands ~4gb brauchten @ultra texturen!)

von daher ist dieses vram gejammer lächerlich. eine 8gb karte wird ihre 4 jahre halten.
außerdem soll es sowas wie regler geben, wenn man die bedienen kann dann sieht es auch kaum schlechter aus.

... und wddm2.0 unter windows 10 hilft auch deutlich bei wenig vram, während bei win7 das geruckel vorhanden ist wenn der vram ausgeht ;)
viele wollen das halt nicht wahr haben dass windows10 das deutlich bessere OS ist.
 
"DSR ist nichts anderes als ein berechnen in Hoher Auflösung und dann runterrechnen auf die Zielauflösung. Es frisst genau die gleiche Leistung/Resourcen wie die Hohe Auflösung + ein paar Prozent für das downsampeln. Meine Bilder sind mittels DSR entstanden, da ich selbst einen WQHD-Monitor fahre. Das ganze nur um den VRAM-Bedarf zu simulieren."
Das ist schon klar, ich meine von einem 1080p Monitor der wenig Leistung braucht, dann die ersten 2 Jahre wo eine high End immer zu viel Leistung hat diese dann zu verballern und dann dynamisch wenn die Rohleistung nicht mehr ausreicht runter stellen, typisch CRT Monitor eben. Das hat nun mein 4k wieder, da ich dann auf 1080p stellen kann ohne DSR.

Was ich damit sagen will, gute CRT Monitore hatten quasi Standardmäßig eingebautes DSR. Zb. von 1600x1200p auf 2048x1536p hoch um zb. überschüssige Rohleistung in Witcher 2 zu verballern. Das haben nun alle 4k Monitore wieder und zwar von 1080p auf 2160p.

Ansonsten ja, dank dem genialen DSR(danke PCGH für den Push bei NV dafür) sind quasi alle 1080p Monitore, 4k Monitore. Ich halte viel von DSR(Faktor 4) und behaupte das es fast so gut ist wie ein nativer 4k Monitor.

"WQHD-Auflösung"
Da brauchst dich nicht wundern, genau so eine GPU Killer Auflösung. 2 Jahres Rhythmus von mir auch empfohlen dafür. Nur eben von TI auf TI und nicht Minischritte auf 1080. (hätte ich dir niemals abgesegnet)

"von daher ist dieses vram gejammer lächerlich. eine 8gb karte wird ihre 4 jahre halten. "
Wenn man die Texturen runter stellt schon, ansonsten never. 6GB laufen ja heute schon über. So viel Fantasie braucht man ja dann nicht was mit 8GB bald passiert. 8GB sind das absolute Minimum schreibt ja auch PCGH im Artikel. Das ist wohl eher Wunschdenken der Vega Jünger das 8GB auch noch irgend wie zu gebrauchen sind nach so langer Zeit...

"außerdem soll es sowas wie regler geben, wenn man die bedienen kann dann sieht es auch kaum schlechter aus."
Ich kauf mir keine teuren Karten um dann die Texturen runter zu schrauben, das hab ich bei der legendären 8800GTX nicht machen müssen und diesen Standard will ich immer haben, bei jeder neuen GPU bei mir, bis zum Schluss, das ganze GPU Leben lang.
Müsste ich das machen hätte ich gleich eine Nummer kleiner kaufen können, wäre billiger gewesen und die Rohleistung wäre nicht sinnlos verpufft.

"viele wollen das halt nicht wahr haben dass windows10 das deutlich bessere OS ist. "
Vista auf Win 7 wars das gleiche, solche Schübe kompensieren aber nie GB weise Vram, guggst du hier, alter Hut für mich: [Sammelthread] Grafikkarten mit mehr als 1GB Vram - ComputerBase Forum
 
Zuletzt bearbeitet:
Das Preis-/Leistungsverhältnis der Titan Xp stimmt halt mal überhaupt nicht. Zwei GTX 1080 Ti im SLI pulverisieren, für annährend den gleichen Preis, eine einzelne Titan Xp in Spielen und Benchmarks, für eine jedoch fast doppelt so hohe Stromaufnahme.
 
Zurück