Nvidia Titan X im Test: Der GP102, der keine (rasend schnelle) Geforce sein darf

1300€ und nur 12GB VRam..., so wenig VRam ist doch net mehr Zeitgemäß in dem Budget.

bei dem preis und generation hätte man 16gb drauf löten können. 12gb sind keine besonderheit mehr. so hätte man den preis besser rechtfertigen können. dann besser 2x1080 für defintiv mehrleistung und auch billiger.
 
16GB passen aber nicht zum Speicher-Interface. Das hätten dann 18GB sein müssen.

Und ganz ehrlich ... dieses "lieber zwei kleine als eine große und teure" ... das kommt seit 10 Jahren ständig. Und es hat sich nicht durchgesetzt. Warum nur? Eventuell weil es keine so gute Idee ist.

Klar, von den FPS geht sich das eventuell aus.

Aber die Nachteile überwiegen die Vorteile, sonst hätte es jeder.
Man schaue sich doch nur den Unterschied an.

Sekunde 18-24 die Makro-Ruckler bei der Drehung (nicht auf Gerald achten, sondern mehr auf den Hintergrund), währen es bei der X eine ganz glatte Drehung ist.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ja, sicher. Aber auch bei der aktuellen (Mist-)Kühlung wären wenn man HBM statt GDDR5X hätte nutzen können wahrscheinlich 200 MHz Boost mehr die Regel gewesen.

Im Gegenteil, was HBM an Stromeinsparung gegenüber GDDRX5 bringt wird zum erheblichen Teilen durch den notwendigen Interposer wieder aufgebraucht. Dazu kommt noch, dass der VRAM nah den die GPU heranrückt um die Größe des Interposer möglichst gering zu halten. Von den VRMs abgesehen konzentrieren sich damit die Wärmequellen rund um die GPU. Fury X hatte nocht ohne Grund ne Wakü und auch Fury non-X ist ja nicht einfach zu kühlen.
 
Die Fury(X) mit einem derart großen Chip ist bei der stromfressenden Architektur/Fertigung dieser AMD-Gernation nur genau deswegen überhaupt möglich gewesen weil HBM insgesamt weit weniger Energie benötigt als GDDR5. Bei HBM verbrauchen GPU-Interface und Speicherchips zusammen ca. 50-80 Watt weniger als bei GDDR5 (Quelle: 3DCenter). :schief:
Eine FuryX mit GDDR5 hätte wohl mindestens 300W weggehauen.

Dass die Wärmequellen da dichter zusammen rücken stimmt natürlich, ist aber wurscht da die GPU sowieso den allergrößten Teil der Wärme punktuell abgibt.
 
Im Gegenteil, was HBM an Stromeinsparung gegenüber GDDRX5 bringt wird zum erheblichen Teilen durch den notwendigen Interposer wieder aufgebraucht. Dazu kommt noch, dass der VRAM nah den die GPU heranrückt um die Größe des Interposer möglichst gering zu halten. Von den VRMs abgesehen konzentrieren sich damit die Wärmequellen rund um die GPU. Fury X hatte nocht ohne Grund ne Wakü und auch Fury non-X ist ja nicht einfach zu kühlen.

Hast du eine Quelle zum Stromverbrauch des Interposers ?
Normalerweise wird der beim Stromverbrauch der HBM Speicherchips mit eingerechnet.
Außerdem war die Fury non X sogar ziemlich leicht zu kühlen.
Die Tri-X war extrem leise.
Die HBM Chips und der Interposer verbrauchen einfach nicht genug um die Kühlung großartig zu erschweren.
 
Ich habe auch mit SLI abgeschlossen hatte es lang genug versucht mit 2x 7950 GT, 2x 8800 GT und einer 9800 GX2. Es war wirklich grauenhaft mit den microrucklern ob wohl ich immer genügend FPS hatte. Und seit dem ich auf Single GPU umgestiegen bin, ist das Bild sehr viel flüssiger geworden.
 
Hast du eine Quelle zum Stromverbrauch des Interposers ?
Normalerweise wird der beim Stromverbrauch der HBM Speicherchips mit eingerechnet.
Außerdem war die Fury non X sogar ziemlich leicht zu kühlen.
Die Tri-X war extrem leise.
Die HBM Chips und der Interposer verbrauchen einfach nicht genug um die Kühlung großartig zu erschweren.

Find es auch immer wieder krass wie einige behaubten die Fury war so schlecht zu kühlen, die Furys non X gehören zu den leisesten Grafikkarten mit Luftkühlung die es gibt, selbst die Nano war mit ihrem Minikühler noch relativ leise...

Ist der Interposer nicht einfach nur eine art Platine ? Verbraucht der überhaubt selbst Strom?
 
Ich habe auch mit SLI abgeschlossen hatte es lang genug versucht mit 2x 7950 GT, 2x 8800 GT und einer 9800 GX2. Es war wirklich grauenhaft mit den microrucklern ob wohl ich immer genügend FPS hatte. Und seit dem ich auf Single GPU umgestiegen bin, ist das Bild sehr viel flüssiger geworden.

Ich hab seit der GTX 8800 Ultra SLI gehabt. Zuletzt zwei GTX 780 Ti.
Immer in der Hoffnung, dass die Technik verbessert und weiter entwickelt wird. Aber Pustekuchen. Da kam ja nie wirklich mal was Neues.
Und jetzt -- seit Nvidia SLI nur noch auf zwei Karten begrenzt -- ist das aus meiner Sicht sowieso ein absteigender Ast.

Ich hoffe ja, dass nächstes Jahr die Titan als GTX 1080 Ti neu vermarktet wird -- dann kauf ich mir eine. :D
 
Find es auch immer wieder krass wie einige behaubten die Fury war so schlecht zu kühlen, die Furys non X gehören zu den leisesten Grafikkarten mit Luftkühlung die es gibt, selbst die Nano war mit ihrem Minikühler noch relativ leise...

Ist der Interposer nicht einfach nur eine art Platine ? Verbraucht der überhaubt selbst Strom?

Vor allem wen man sich angeht wie gut die Nano mit orginalem Mini Kühler und einem Anständigen Lüfter Performt.
Gab da auf Thomshardware einen Test zu.
 
Und um wie viel ist eine TitanX Pascal schneller als eine HD4870? Ist der ach so alte Speicher folglich eine böse Bremse? ;)

Natürlich ist in dem Bereich recht wenig passiert da hast du ja Recht - aber es musste auch nicht viel passieren weil es einfach kein besonders großer Flaschenhals ist. Ob eine Karte mit 5 oder 6 GHz-Speichertakt läuft macht nicht viel Unterschied, genau wie es kaum Unterschied macht ob du DDR4-2133 oder 3200er Speicher verwendest als RAM.
Bei der Verwendung von HBM wird die Karte auch NICHT deswegen schneller weil HBM eine höhere Bandbreite hätte, sondern deswegen weil HBM weniger Strom verbraucht den dann die GPU mehr verbrauchen darf und höher boosten kann. :ka:
Da muss eine ganze Menge passieren, technologisch ist die Bandbreitenversorgung ein großes Problemfeld.
Alle bisherigen Pascal GPUs (1080 GTX ~10% mehr Bandbreite = 6% mehr Leistung) sind ein wenig limitiert, ebenso die RX480 (~13% mehr Bandbreite = ~ 6% mehr Leistung):
Nvidia GeForce GTX 1080 im Test (Seite 12) - ComputerBase
Nvidia GeForce GTX 1060 im Test (Seite 7) - ComputerBase
AMD Radeon RX 480 im Test (Seite 12) - ComputerBase

Mit HBM und etwas mehr Bandbreite würden auch direkt mehr Prozent-Leistung herausspringen.
Gerade bei Spielen kann man ein wenig "blind" werden, da die neusten Kompressionstechniken hier besonders wirken, aber bei reinen Rechenaufgaben gibt es hier keine Hilfe, weswegen die Skalierung beim Computing auch wesentlich schlechter ausfallen kann.

Natürlich wird dann auch besonders der die-verbrauch, die interface-breite und der höhere Takt zu einem allgemeinen Problem von GDDR5.

[...]
Ist der Interposer nicht einfach nur eine art Platine ? Verbraucht der überhaubt selbst Strom?
Richtig, dass ist nur eine Siliziumfläche die keine Schaltungslogik enthält, nur das physische Interface läuft da durch und das verbraucht bei HBM wesentlich weniger Energie als GDDR5.
 
Im Gegenteil, was HBM an Stromeinsparung gegenüber GDDRX5 bringt wird zum erheblichen Teilen durch den notwendigen Interposer wieder aufgebraucht. Dazu kommt noch, dass der VRAM nah den die GPU heranrückt um die Größe des Interposer möglichst gering zu halten. Von den VRMs abgesehen konzentrieren sich damit die Wärmequellen rund um die GPU. Fury X hatte nocht ohne Grund ne Wakü und auch Fury non-X ist ja nicht einfach zu kühlen.
Im Gegenteil, die Fijis sind ausgezeichnet zu kühlen! Haben halt einfach eine riesige Chipfläche...
...dass die HBM-Stacks nahe dran liegen ist auch kein Problem. Im Endeffekt kann man die Kühlung so sogar leichter aufbauen.

Und um wie viel ist eine TitanX Pascal schneller als eine HD4870? Ist der ach so alte Speicher folglich eine böse Bremse? ;)

Natürlich ist in dem Bereich recht wenig passiert da hast du ja Recht - aber es musste auch nicht viel passieren weil es einfach kein besonders großer Flaschenhals ist. Ob eine Karte mit 5 oder 6 GHz-Speichertakt läuft macht nicht viel Unterschied, genau wie es kaum Unterschied macht ob du DDR4-2133 oder 3200er Speicher verwendest als RAM.
Bei der Verwendung von HBM wird die Karte auch NICHT deswegen schneller weil HBM eine höhere Bandbreite hätte, sondern deswegen weil HBM weniger Strom verbraucht den dann die GPU mehr verbrauchen darf und höher boosten kann. :ka:
Du hast völlig vergessen, was seit dem mit den Caches passiert ist. Der Level 2-Cache der 4870 hatte bloß eine Bandbreite von 384GiB/s. Ja, das ist weniger Bandbreite als die Titan X zum GDDR5X hat...
...natürlich, wenn du eine Titan X hernimmst und dieser HBM verpasst oder der 4870 aktuellen GDDR5 draufknallen würdest, dann würde sich dadurch nicht die Welt verändern. Was sich aber verändert, das sind die Design-Optionen.
Ein Design, das auf WENIG, aber schnellen Cache setzt bietet sich dann beispielsweise sehr an.

(natürlich vernachlässigt auch dieser Post gewisse Dinge, allen voran Latenzen. Und natürlich auch Kompressionstechniken. Und, und, und. Eigentlich ist eh nur festzuhalten, dass das alles nicht so simpel ist...)

Schon klar. Nur finde ich die 12Gb Vram etwas mager.
Die erste Titan hatte 3x soviel Vram wie die Performance Karte -- Titan 6Gb, GTX 680 2GB.
Die Maxwell Titan hatte 3x so viel Vram wie die Performance Karte -- Titan 12GB, GTX 980 4GB.
Jetzt hat die Titan nur noch 1,5x so viel RAM wie die Performance Karte und kostet trotzdem deutlich mehr als die vorherigen Titans.
Der Punkt ist halt einfach, dass es noch keinen GDDR5X gibt/gab mit 2GiB pro Chip, sondern bloß welche mit 1GiB pro Chip. Und die sind so oder so schon in zu knappen Stückzahlen verfügbar, weshalb es durchaus verständlich ist, dass Nvidia sich die aufspart und nicht gleich zwei Chips pro Interface verbaut.
 
Zuletzt bearbeitet von einem Moderator:
Bei anderen Titans und der aktuellen Quadro ist das auch kein problem gewesen noch ne Latte Chiups auf die Platinenrückseite zu löten. Dass hier nur 12 und keine 24GB vRAM drauf sind ist schlichtweg Gewinnmaximierung sonst gar nichts.
Mir wäre nicht bekannt, dass es schon ein Bild der Platinenrückseite der Quadro P 6000 gab. Und ja, in den früheren Gens hat das Nvidia gemacht, was ich ja auch schon selber gesagt habe. Dass sie das diesmal nochmal machen halte ich aber für unwahrscheinlich wegen der angesprochenen Knappheit von GDDR5X. Eher glaube ich, dass dort drauf die ersten 2GiB-Chips verbaut werden, Release ist ja auch eh erst in einem Monat.

Ja, die früheren Titanen hatten alle zwei Chips pro Interface. Zu der Zeit war das aber auch jedesmal ziemlicher Standard-Ram... (0,5GiB-6000er wie auf der Titan gab es ab der 650Ti, 0,5GiB-7000er wie auf der Titan Black ab der 770 und ab der 960 wurde der auf Titan X eingesetzte 1GiB-7000er verbaut)
 
Zuletzt bearbeitet:
Das was danach kommt ist ja auch egal. Aber das was davor kommt.
Dieser "Steile Sprung" soll sich ja teilweise negativ auf die reale Performance auswirken, obwohl laut allen Tools der Takt gehalten wird und es zu keinen schwankungen kommt.

nachdem die user also die punkte LINKS vor der Kurve ebenfalls angepasst haben (damit die kurve nach links hin sanfter abfällt), soll die Performance dann höher sein.

Und wieviele Punkte muss man drangeben links vom Fixpunkt? De facto würde das bedeuten, dass ab diesem Punkt kein Undervolting mehr möglich ist.
 
Hmm interessantes Teil die Titan X Pascal. Würde sie mir am liebsten kaufen nur der Preis und die Tatsache, dass sie für den saftigen Preis nicht im Vollausbau (!!!) daherkommt sowie nur im Referenzdesign zu kaufen ist schrecken mich ab.
Ist schon iwas bekannt ob es eine Black geben wird (muss es ja fast oder warum wurde der Vollausbau eingespart?)?
Eine 1080 Ti wird denke ich eher "schlechter" werden :S
 
Der Vollausbau ist die Quadro P6000. Ob eine Endkundenkarte auf Basis des GP102 erscheint weiß niemand. Eine 1080Ti (oder TitanBlack) könnte nächste Woche kommen. Oder an Weihnachten. Oder nie (warum auch - ab GTX1070 aufwärts ist NV ja konkurrenzlos).
 
Und wieviele Punkte muss man drangeben links vom Fixpunkt? De facto würde das bedeuten, dass ab diesem Punkt kein Undervolting mehr möglich ist.

Ich möchte da auch mehr wissen. Ich hab Dir gestern Nacht noch ne Mail dazu geschrieben. Ich habe die Linie komplett vertikal mit 1709 mhz ab 800 mV und danach keine Erhöhung mehr. Takt wird astrein gehalten. Wattzahl sinkt. Aber die Leistung ist trotz bombenfestem Takt + vRAM oc nur so hoch wie mit Standartspannung allerdins mit bis zu 30 Watt Ersparnis.

Grüße

phila

Edit: Ich habe mein Taktmaximum nun bei 850 gesetzt. Die 5 Punkte links davon habe ich auf je eine Taktstufe niedriger gestellt. Damit bekomme ich einerseits so viele FPS wie möglich und andererseits keinen Overshoot in Szenen mit leichter Last und spare so etliche Watt.
 
Zuletzt bearbeitet:
Also ich weiss nicht WAS mit den Leuten los ist wo so denken:

980 Ti 4k Gaming single Karte geht nicht : Stimmt 100% nicht :what:

MSI Gaming GTX 980Ti
Asus ROG 28" 4k Screen 60hz
MSI Ark Board
16GB DDR4 Ram
1TB SSD

Witcher 3 = 4k alles high ausser AA habe um die 45FPS

Tomb Raider = 4k alles high ausser AA habe ich um die 40FPS

Warhammer Total War = 4k alles high ohne AA 50FPS

Tera MMORPG = 4k alles high ohne AA 55-60FPS

GTA V = 4k alles high Sicht auf 90% ohne AA 45-50FPS

Verstehe echt nicht warum leute so was schreiben wegen der 980ti und 4k. Evt. habt ihr dieses Setup gar nicht und behauptet einfach was ? :daumen:

Naja ich musste das einfach Schreiben.....

Gruss
Devjam

Ich kann Dich voll und ganz verstehen.

Hab nen 1080 und spiel alles in 4K mit quasi allen Details. Klar, 80 FPS hab ich da nicht, aber das fehlt mir auch nicht :)
Witcher, GTA, Doom... alles bestens! Und Diablo 3 mit 300 FPS oder so :D ;)
 
Das Lied singe ich seit ich einen 4k-Monitor habe (gute 2 Jahre)^^
Aber wer halt nur Ultra kennt, und wer noch Grafik-Demos zockt, und wer unter 120FPS nicht als "geht" bezeichnet. Der wird wohl mit seinem Standpunkt recht haben.
Denn alleine das ist es .. ein Standpunkt. Und der sieht halt bei jedem (etwas) anders aus.
 
Eine Frage. Pcgameshardware benutzt bei den Pascal-Grafikkarten die sogenannte Beyond 3D Suite, die übrigens fast gar nicht im Text kommentiert ist. Interessant ist sie dennoch (und scheint auf den ersten Blick nützlicher als mancher synthetische Benchmark). Dort wird unter anderem der Polygon-Durchsatz getestet.

Edit:
Okay, sorry, mein Fehler. Im Test der 1080 und Titan X schien es ganz verschiedene Ergebnisse der Beyond 3D Suite im Polygon-Durchsatz zu geben, dabei gibt es drei verschiedene Graphen zur Auswahl. Sie sind letztendlich doch dieselben. Auffällig ist auf der einen Seite der große Abstand zu allen AMD-Karten, aber das schien im Titan X-Test wieder anders auszusehen, wo lediglich ein anderer Graph ausgewählt war. Damit hat das eigentlich keine Relevanz für den Test selbst mehr.

(In die Mitte scrollen für die Benchmarks, ist jetzt aber egal.)
Geforce GTX 1080 im Test: Benchmarks und Fazit

Nvidia Titan X im Test: Der GP102, der keine (rasend schnelle) Geforce sein darf
 
Zuletzt bearbeitet von einem Moderator:
Zurück