Nvidia Pascal: GP104-200-A1 der Geforce GTX 1070 angeblich abgelichtet

Bei der ersten Titan war das Hauptunterscheidungsmerkmal unbeschnittene DP-Performance. Da das bei Maxwell ziemlich unnötig ist weil das ein DP-Krüppel ist wars bei der TitanX dann nur noch der vRAM, stimmt.

Mittlerweile ist der Name Titan aber so gefestigt da brauchts am Ende fast nur noch den Namen und den Preis als Alleinstellungsmerkmal :ugly:

Der Name Titan alleine reicht mittlerweile :D Damals benannt nach: NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective - YouTube

Ich hoffe die Projekt-Gruppe im Marketing hat einen ordentlichen Bonus dafür erhalten. Marketing wie es besser nicht sein könnte.

Es ist mit die Umsatzstärkste nVidia Gaming-GPU ( Ich glaube Platz drei ??? ), ich finde den Link leider nicht mehr.
 
Dir ist aber klar, dass die 980Ti genauso schnell ist wie vorher?! Diese Art von rumjammern ist sowas von dämlich... :wall:
Wenn sich jeder über Fortschritt beschwert, wären wir immer noch mit 64kb RAM und 386er CPUs unterwegs... manche Leute.

Man hat ja bei Kepler schon gesehen, dass die neuen Treiber nur auf Maxwell optimiert wurden. ;)
 
Dir ist aber klar, dass die 980Ti genauso schnell ist wie vorher?! Diese Art von rumjammern ist sowas von dämlich... :wall:
Wenn sich jeder über Fortschritt beschwert, wären wir immer noch mit 64kb RAM und 386er CPUs unterwegs... manche Leute.

Ich habe mich nicht beschwert, ich würde mich nur ärgern und bei den Preisen habe ich auch das Recht dazu. Ist ja schließlich mein Geld.
Das ist immer noch besser als hier die Leute dumm anzupöbeln.
 
Zuletzt bearbeitet:
Aber ich hoffe das Gleiche wie du. Wenn man sich die Vergangenheit anschaut, so wäre der Sprung von Fermi auf Kepler dem jetzigen am ähnlichsten (neue Architektur + neue Fertigung). Und da kamen auch gut 50% raus.

bye
Spinal
Wurde aber schon 100-fach diskutiert warum das so einfach nicht geht, bzw nicht im ersten Schritt.
Weil bei diesem Wechsel der Fertigung nicht gleich wieder genauso in die Vollen gegangen werden kannwie früher, sondern hauptsächlich mal shrinked von 600mm² auf 350. Da werden nicht gleich 50% mehr draus, erst wenn man richtung 450mm² geht, die Architektur entscheidend verändert.

Bei AMD ist das realistischer, da deren GCN Architektur recht ineffizient war bislang, und recht schlecht ausgelastet. Entfernt man die Flaschenhälse, kann durchas einiges an Steigerung drin sein, obwohl man ordentlich shrinkt.
 
Die Hersteller werden schnell merken bei den effizienteren kühleren Karten, kaum noch anspruchvollere Kühler entwickeln zu müssen. Spart auch Geld um evt auch einen höheren Gewinn erzielen zu können.
Bei GDDR5X ist durch die doppelte Bandbreite nichts gespart worden u sind weiterhin so warm aber beim HBM2 ist es sehr viel vorteilhafter und man spart wieder Abwärme. Finde das ganz interessant. Wenn das so weiter geht könnte ich mit eine Highendkarte inklusve OC unter 200 Watt u weniger vorstellen .
 
Zuletzt bearbeitet:
Zwischenfrage:
Macht es wirklich soviel aus wenn jetzt die GTX 1070 nur mit 8gb GDDR 5 kommt, aber dafür schon ab 300 Euro angepriesen wird. Im Idealfall auf Höhe einer GTX 980 Ti.

Weiß nicht ob es sich lohnt, wenn am Ende die GTX 1080 nur 10-20% schneller ist und zwar GDDR5X Speicher bietet aber dafür auch 500-600 € kostet. O.o

Falls es so kommen sollte, seh ich da die GTX 1070 als verführerischer an.

Derselbe Gedanke ist mir auch schon gekommen. Ich tendiere bisher eher zur 1070, solange der Preis natürlich stimmt. Käme eine 8Gb Karte mit Leistungsniveau ungefähr auf 980 Ti Niveau für 300-350€, würde ich zuschlagen.

Ein 980 Nachfolger mit 980 Ti+ Leistung wäre mir z.B. keine 499-599€ wert. Da würde ich eher noch ein halbes Jahr länger auf die HBM2-Monsterkarte warten und bis dahin noch länger sparen. Naja, alternativ auch garnichts kaufen wäre sicher auch eine Lösung :nicken:

Oder muss mann künftig mit Abstrichen durch den normalen GDDR 5 rechnen?
Wo wäre denn schnellerer VRAM von Vorteil?

Wahrscheinlich werden die höheren Auflösungen mit GDDR5X besser skalieren als normaler GDDR5. In normalen Auflösungen bis 1440p sollte der Unterschied nicht so groß sein. Ich rechne so mit ~15-20% Differenz wie bei GTX970 vs GTX980. Falls das stimmt muss jeder für sich entscheiden, ob sich die Mehrleistung lohnt ein Drittel bis die Hälfte mehr für die Karte auszugeben.

Mir ist die Art des Speichers mittlerweile so dermaßen egal geworden. Mein Plan ist jetzt eine Pascal zuzulegen und dann frühestens mit Volta wieder aufzurüsten. Bis dahin sind die neuen Speichertechnologien sicher ausgereifter und die Programmierer wissen hoffentlich damit umzugehen.
 
Bei GDDR5X ist durch die doppelte Bandbreite nichts gespart worden u sind weiterhin so warm aber beim HBM2 ist es sehr viel vorteilhafter und man spart wieder Abwärme. Finde das ganz interessant. Wenn das so weiter geht könnte ich mit eine Highendkarte inklusve OC unter 200 Watt u weniger vorstellen .
GDDR5X hat schon eine gewisse Stromersparnis, wenn man bedenkt, dass es für die gleiche Bandbreite wie GDDR5 nur die halbe Taktfrequenz braucht. Die Chips sind auch kleiner, insgesamt wird in Zukunft GDDR5X also günstiger zu produzieren sein wie GDDR5, wird es also völlig ablösen können.
Der große Vorteil von HBM2 ist das (von der Chipfläche her betrachtet) kleinere Speicherinterface (und somit bleibt mehr Platz für Logik) und der geringere Energieverbrauch. Das kauft man sich aber über einen extra Interposer und einen gehörig höheren Preis. Die zusätzliche Bandbreite muss erst zeigen, dass sie genutzt wird bzw werden kann.

Vermutlich wird HBM2 also auch noch in den nächsten Jahren für den Highend-Markt bleiben. Zwar gäbe es interessante, andere Verwendungsmöglichkeiten (L4 Cache oder gänzlicher RAM Verzicht bei APU Systemen oder Notebooks), aber es ist wohl zu teuer.
Wenn man sich denkt, dass es HBM2 in 16GB Stufen gibt, wäre es ja im Zusammenhang mit einer APU oder auch nur CPU schon fein sowas zu haben. Würde auch die Bandbreitenprobleme von diversen iGPUs lösen.

Aber was wir noch sehen werden von HBM2 oder später, hängt weniger von seinen technischen Möglichkeiten ab, sondern, ob die Hersteller gewillt sind uns solche Produkte zu geben.
Ein AMD APU Notebook mit integriertem HBM2 oder meinetwegen auch Intel mit deren iGPUs und die daraus resultierende Leistung wie auch Stromersparnis/verlängerte Akkudauer und ich kauf mir nach über 10 Jahren mal wieder ein Notebook mit höchst interessanter Technologie.
Derselbe Gedanke ist mir auch schon gekommen. Ich tendiere bisher eher zur 1070, solange der Preis natürlich stimmt. Käme eine 8Gb Karte mit Leistungsniveau ungefähr auf 980 Ti Niveau für 300-350€, würde ich zuschlagen.
Hmm weil wir das gestern diskutiert haben: warum ist AMD keine genannte Option?
Wir wissen ja noch nix über die Geforces und Radeon, aber dein Beitrag hört sich so an als müsse es Nvidia sein.

Mir ist die Art des Speichers mittlerweile so dermaßen egal geworden.
Letzten Endes zählt die Leistung. Wie das erreicht wird ist egal. Hoffentlich halt auf eine effiziente Art und Weise.

Mein Plan ist jetzt eine Pascal zuzulegen und dann frühestens mit Volta wieder aufzurüsten.
Also jetzt mal die nächste Karte/Generation die kommt und dann ERST gleich wieder die nächste ;) ?
 
Hmm weil wir das gestern diskutiert haben: warum ist AMD keine genannte Option?
Wir wissen ja noch nix über die Geforces und Radeon, aber dein Beitrag hört sich so an als müsse es Nvidia sein.

Ich glaube, ich hatte an dieser Diskussion nicht teilgenommen. AMD ist für aufgrund viele negativer Erfahrung vorläufig erst mal keine Option. Das ist allerdings nur meine persönliche Entscheidung. Andere können gerne zu AMD greifen.

Leider hatte AMD seit der HD7770 kein vernünftiges Angebot für HTPC mehr. Hoffentlich ändert Polaris wenigstens das. Falls ja, rüste ich vielleicht irgendwann einen meiner Zweit- oder Dritt-PCs mit einer Radeon aus.


Letzten Endes zählt die Leistung. Wie das erreicht wird ist egal. Hoffentlich halt auf eine effiziente Art und Weise.

Volle Zustimmung! Sehe das genau so!


Also jetzt mal die nächste Karte/Generation die kommt und dann ERST gleich wieder die nächste ;) ?

Ich hatte schon seit 2-3 Jahren nicht mehr aufgerüstet. Mir ist das warten auf alle Karten leider zu bunt geworden. Hätte ich mir bei Release eine GTX970 oder später eine GTX960 geholt und wäre sicher zufrieden gewesen. Brauche die Leistung jetzt und dann wohl wieder im gleichen Zeitraum danach.

Stattdessen habe ich den Versprechungen besserer Karten geglaubt und ewig gewartet. Es kamen nur entweder enttäuschende oder überteuerte Modelle. Mein Aufrüstplan sieh ein Upgrade auf Volta in 2018 vor. Dann hat TSMC wohl den 10nm Prozess halbwegs im Griff und die jetztigen "next-gen Speichertechnologien" sind ausgereift.

Habe keine Lust jetzt auf neue exotische Speicher zu greifen und dann als Early-Adopter auf die Nase zu fallen.
 
Stattdessen habe ich den Versprechungen besserer Karten geglaubt und ewig gewartet. Es kamen nur entweder enttäuschende oder überteuerte Modelle. Mein Aufrüstplan sieh ein Upgrade auf Volta in 2018 vor. Dann hat TSMC wohl den 10nm Prozess halbwegs im Griff und die jetztigen "next-gen Speichertechnologien" sind ausgereift.

Habe keine Lust jetzt auf neue exotische Speicher zu greifen und dann als Early-Adopter auf die Nase zu fallen.
Verstehe ich. 2018 würde ich übrigens noch keinen 10nm Grafikchip erwarten. Eher erst ende 19/20.

AMD selbst geht davon aus, dass 14nm ebensolange wie 28nm der Vorherrschende Prozess ist. Das wären fast 5 Jahre. Ist halt worst case, weil eigentlich ein Prozess (20nm) übersprungen wurde. Aber das Rad dreht sich langsamer. 2016 kommt erstmal 14/16nm in kleineren Chips, 2017 in größeren und 2018 in den ganz großen. 2019 dann vielleicht neue Architekturen und Speichertechnologien - auch eventuell nochmal in 14nm und 2020 dann der Wechsel.
 
Ich erwarte eigentlich dass die GTX1070 auf dem Niveau der ~GTX980ti sein wird, die GTX970 ist auch auf dem Niveau der ~GTX780ti und oft auch drüber.
 
GDDR5X hat schon eine gewisse Stromersparnis, wenn man bedenkt, dass es für die gleiche Bandbreite wie GDDR5 nur die halbe Taktfrequenz braucht. Die Chips sind auch kleiner, insgesamt wird in Zukunft GDDR5X also günstiger zu produzieren sein wie GDDR5, wird es also völlig ablösen können.
Der große Vorteil von HBM2 ist das (von der Chipfläche her betrachtet) kleinere Speicherinterface (und somit bleibt mehr Platz für Logik) und der geringere Energieverbrauch. Das kauft man sich aber über einen extra Interposer und einen gehörig höheren Preis. Die zusätzliche Bandbreite muss erst zeigen, dass sie genutzt wird bzw werden kann.

Vermutlich wird HBM2 also auch noch in den nächsten Jahren für den Highend-Markt bleiben. Zwar gäbe es interessante, andere Verwendungsmöglichkeiten (L4 Cache oder gänzlicher RAM Verzicht bei APU Systemen oder Notebooks), aber es ist wohl zu teuer.
Wenn man sich denkt, dass es HBM2 in 16GB Stufen gibt, wäre es ja im Zusammenhang mit einer APU oder auch nur CPU schon fein sowas zu haben. Würde auch die Bandbreitenprobleme von diversen iGPUs lösen.

Aber was wir noch sehen werden von HBM2 oder später, hängt weniger von seinen technischen Möglichkeiten ab, sondern, ob die Hersteller gewillt sind uns solche Produkte zu geben.
Ein AMD APU Notebook mit integriertem HBM2 oder meinetwegen auch Intel mit deren iGPUs und die daraus resultierende Leistung wie auch Stromersparnis/verlängerte Akkudauer und ich kauf mir nach über 10 Jahren mal wieder ein Notebook mit höchst interessanter Technologie.
Hmm weil wir das gestern diskutiert haben: warum ist AMD keine genannte Option?
Wir wissen ja noch nix über die Geforces und Radeon, aber dein Beitrag hört sich so an als müsse es Nvidia sein.

Letzten Endes zählt die Leistung. Wie das erreicht wird ist egal. Hoffentlich halt auf eine effiziente Art und Weise.


Also jetzt mal die nächste Karte/Generation die kommt und dann ERST gleich wieder die nächste ;) ?

Ich hatte das gelesen, vorletzter Absatz:
GDDR5X ist standardisiert - News Hartware.net

Interressant fand ich auch das mit GDDR5X bis zu 16Gb. und 448 Gb/s möglich sind. Das finde ich wirklich beeindruckend und würde mir auch genügen. Man könnte vermuten das alle, für 2 Jahre damit zufrieden sein müssten und das HBM2 eigentlich noch geschoben werden könnte. Nvidia passt das bestimmt nicht das AMD mit HBM aufgezeigt hat was technisch jetzt schon möglich ist. Dadurch können die uns nicht wirklich zwingen 6Jahre lang "nur" mit GDDR5X abzuspeisen. Da gebe ich dir recht, HBM2 ist auch dann noch teuer und wird nur in der Ti Version oder, und TitanXY verbaut werden, ist logisch und steht überall zu lesen. Da wird eine Ti/Titan wohl nicht mehr für 650-850€/1200-1300€ zu bekommen sein, zumindest nicht am Anfang.
Das wird auch den Nerds wie mich ziemlich im Geldbeutel sehr wehtun ;)
Die Möglichkeiten sind einfach nur phantastisch mit dem Wissen, dass der Limitierende Faktor nicht mehr die Bandbreite ist sondern nur noch die GPU bzw. die Architektur ist.
Edit:
Die Architektur- Entwicklung Nvidia u AMD werden vermutlich immer mehr auseinander gehen, fragt sich wie immer wer an die Spitze kommt.
Gruss
 
Zuletzt bearbeitet:
Daher sage ich dass zumindest die Fury nicht allzuteuer ist und mit HBM das Neueste aufgezeigt wird.
Auch wenn dies nur unter 4K richtig zum tragen kommt und unter Full HD die Fury suckt!
 
Wurde aber schon 100-fach diskutiert warum das so einfach nicht geht, bzw nicht im ersten Schritt.
Weil bei diesem Wechsel der Fertigung nicht gleich wieder genauso in die Vollen gegangen werden kannwie früher, sondern hauptsächlich mal shrinked von 600mm² auf 350. Da werden nicht gleich 50% mehr draus, erst wenn man richtung 450mm² geht, die Architektur entscheidend verändert.

Bei AMD ist das realistischer, da deren GCN Architektur recht ineffizient war bislang, und recht schlecht ausgelastet. Entfernt man die Flaschenhälse, kann durchas einiges an Steigerung drin sein, obwohl man ordentlich shrinkt.

Deswegen habe ich ja extra den Sprung von Fermi auf Kepler als Beispiel herangezogen, dort wurde ja eben NICHT der große Chip zu Beginn rausgebracht. Der GF100 auf der GTX 580 hatte über 520mm² Die Fläche, der GK104 auf der GTX 680 nicht mal 300mm². Trotzdem war sie selbst bei skeptischer Betrachtung mindestens 30% schneller als die GTX 580. Ich rechne bei den neuen Grafikkarten persönlich aber auch eher mit 20% gegenüber einer 980 TI, die mir für einen Kauf bis max 600€ auch reichen würden. Aber mehr wäre auch schön (und sicher machbar) :)

bye
Spinal
 
Ich hatte das gelesen, vorletzter Absatz:
GDDR5X ist standardisiert - News Hartware.net

Interressant fand ich auch das mit GDDR5X bis zu 16Gb. und 448 Gb/s möglich sind. Das finde ich wirklich beeindruckend und würde mir auch genügen. Man könnte vermuten das alle, für 2 Jahre damit zufrieden sein müssten und das HBM2 eigentlich noch geschoben werden könnte. Nvidia passt das bestimmt nicht das AMD mit HBM aufgezeigt hat was technisch jetzt schon möglich ist. Dadurch können die uns nicht wirklich zwingen 6Jahre lang "nur" mit GDDR5X abzuspeisen. Da gebe ich dir recht, HBM2 ist auch dann noch teuer und wird nur in der Ti Version oder, und TitanXY verbaut werden, ist logisch und steht überall zu lesen. Da wird eine Ti/Titan wohl nicht mehr für 650-850€/1200-1300€ zu bekommen sein, zumindest nicht am Anfang.
Das wird auch den Nerds wie mich ziemlich im Geldbeutel sehr wehtun ;)
Die Möglichkeiten sind einfach nur phantastisch mit dem Wissen, dass der Limitierende Faktor nicht mehr die Bandbreite ist sondern nur noch die GPU bzw. die Architektur ist.
Edit:
Die Architektur- Entwicklung Nvidia u AMD werden vermutlich immer mehr auseinander gehen, fragt sich wie immer wer an die Spitze kommt.
Gruss
Ja GDDR5X macht HBM1 quasi obsolet was die Bandbreite und Kosten betrifft.
Eine Bandbreite wie diese führt im Moment noch zu keinem Vorteil, mal sehen wie das in Zukunft aussieht. Eigentlich eh interessant, wie langsam sich die Bandbreite weiterentwickelt hat, vielleicht tut sich mit GDDR5X und HBM2 ja jetzt wieder mal was in dem Bezug. Habe noch eine uralte (2009er) GDDR5 Karte und die hat auch 150 Gb/s Bandbreite. Das wir 7 Jahre später noch nicht weiter sind, ist schon verwunderlich. Es könnte damit zu tun haben, dass man nicht besonders viel mehr Bandbreite BRAUCHT. Außer halt für 4K vielleicht
Daher sage ich dass zumindest die Fury nicht allzuteuer ist und mit HBM das Neueste aufgezeigt wird.
Auch wenn dies nur unter 4K richtig zum tragen kommt und unter Full HD die Fury suckt!

Die Fury ist keine schlechte Karte. Aber mit ihren 4GB Ram von Anfang an unterdimensioniert.
Erst die HBM2 Generation wird dies richten, mit GPUs die knapp 2x so schnell sind, einer Bandbreite die knapp 2x so hoch ist und eben auch min. 2x so viel Speicher.

Die Fury wird mal ein Exot werden, vielleicht kriegt sie einen Sammlerwert wie die Volari Duo, die ATI Rage Fury Maxx, diverse 3dfx Karten...
 
Ich wäre für GTX 1000000970 und wenn die auch wieder Krüppelspeicher bietet dann sollte die GTX 0,970 als Bezeichnung tragen. Ich bin ja mal auf die Tests gespannt ob die Karte dann noch zum Objekt der Begierde taugt
 
Das wir 7 Jahre später noch nicht weiter sind, ist schon verwunderlich. Es könnte damit zu tun haben, dass man nicht besonders viel mehr Bandbreite BRAUCHT. Außer halt für 4K vielleicht
Beim GDDR5 Speicher sind wir auf jeden Fall von 3,2 Gbps (4870) auf bald 8 Gbps gekommen.
Das sorgt dafür das wir weiterhin mit einem schmalen Interface auskommen und so die Kosten in Rahmen halten.
Die Bandbreite selber ist nicht so stark gestiegen, aber mit Kompressionstechniken und Änderungen am internen Aufbau sind moderne GPUs auch wesentlich effizienter was das anbelangt.
Die 7970 fing mit 264 GB/s an, die 280X wurde mit 288 GB/s bestückt, die 290X mit 320 GB/s, die 390X hochgerüstet auf 384 GB/s und die Fury X bietet 512 GB/s, getan hat sich schon etwas.
 
Beim GDDR5 Speicher sind wir auf jeden Fall von 3,2 Gbps (4870) auf bald 8 Gbps gekommen.
Das sorgt dafür das wir weiterhin mit einem schmalen Interface auskommen und so die Kosten in Rahmen halten.
Die Bandbreite selber ist nicht so stark gestiegen, aber mit Kompressionstechniken und Änderungen am internen Aufbau sind moderne GPUs auch wesentlich effizienter was das anbelangt.
Die 7970 fing mit 264 GB/s an, die 280X wurde mit 288 GB/s bestückt, die 290X mit 320 GB/s, die 390X hochgerüstet auf 384 GB/s und die Fury X bietet 512 GB/s, getan hat sich schon etwas.
Stimmt auch wieder.
Wo du es grade auflistest zeigt es mir, dass zumindest HBM wegen der Bandbreite selbst noch nicht DER Sprung war. Von fast 400 auf 500.
Also das ist jetzt noch nicht "der" Bringer. Mal sehen wie sich HBM2 gegen GDDR5X schlägt und wo es eingesetzt wird.

Ich träum ja noch immer vom HBM2 aufm CPU Interposer in einem Ultrabook. Dafür brauch' ich ja dann kein RAM mehr.
 
Eine 'Explosion' an Bandbreite gab es mit Fiji auf jeden Fall nicht, +60% Bandbreite bei 52% mehr Rohleistung (290X) oder 33% mehr Bandbreite bei 45% mehr Rohleistung (390X). *
Das neue Tesla Modell von Nvida bringt es aber auf 720 GB/s vs. 336 GB/s bei der 980 Ti, damit gibt es 114% mehr Bandbreite bei 57% mehr Rohleistung.
Das ist ein massiver Zuwachs.

*Speicherkompression und ein doppelt so großer L2$ mal ausgenommen.


HBM2 ist teuer, theoretisch könnte man mit einem 4096-Bit Interface 16 GB (Auch 32 GB) für eine APU anbieten, dass dürfte dann auch für die meisten reichen, aber der Preis wäre auf jeden Fall nur für Premium-Geräte tragbar.
Die Parameter Preis, Speicherbandbreite und Kapazität müssen sich auf jeden Fall verbessern, bevor man daran denken kann es als all-in-one Lösung zu verkaufen.
 
Zurück