Nvidia Pascal: Folie zeigt GP100 mit 12 TFLOPS SP und 4 TFLOPS DP

Mal eine Frage: Wieso HBM2 Speicher wenn man den dann nur mit 256-bit anbindet?
256-Bit bei den "schwächeren" Modellen mit GDDR5X. (Alles Spekulation natürlich)
Ein HBM-Stack benötigt immer 1024-Leitungen, weniger kann man nicht verlegen.
Der große Pascal wird sehr wahrscheinlich ein 4096-Bit HBM2 Interface besitzen, mit entsprechend 4 Stacks.

Was ist wichtiger bei einer Grafikkarte :Gflops Double precision oder Single? bestimmt die Single werte oder?
SP für Gamer, DP kommt fast exklusiv nur im wissenschaftlichen Bereich vor.
 
256-Bit bei den "schwächeren" Modellen mit GDDR5X. (Alles Spekulation natürlich)
Ein HBM-Stack benötigt immer 1024-Leitungen, weniger kann man nicht verlegen.
Der große Pascal wird sehr wahrscheinlich ein 4096-Bit HBM2 Interface besitzen, mit entsprechend 4 Stacks.

Ja, bei den GDDR5X Modellen kann ich mir das vorstellen, aber in dem Leak ist ja definitiv davon die Rede, dass die Karte mit dem GP100 Chip mit HBM2 und nur 256-bit angebunden ist. Womit man den Leak also einfach in die Tonne werfen kann weil technisch einfach falsch und somit eigentlich wohl nicht mal berichtenswert gewesen wäre.
 
Ja, bei den GDDR5X Modellen kann ich mir das vorstellen, aber in dem Leak ist ja definitiv davon die Rede, dass die Karte mit dem GP100 Chip mit HBM2 und nur 256-bit angebunden ist. Womit man den Leak also einfach in die Tonne werfen kann weil technisch einfach falsch und somit eigentlich wohl nicht mal berichtenswert gewesen wäre.
Es ist kein Leak und ich sehe nirgendwo eine Angabe mit HBM und einem 256-Bit Interface.
 
Ja, ziemliches Cherrypicking, wenn du behauptest die Nano wäre schneller als eine 980Ti im Computing, wenn du dann eine Seite mit massig Benches, in denen sogar eine 970 die Nano abzieht, verlinkst :ugly:
Oh my bad, sorry!
Im Musemage ist die Nano ja nur 65% vor der 980 Ti, im Computemark 20% und mehr (bis auf Fluid2D), im Luxmark 20/57%, bei Folding@home DP 26% schneller und im ComputeBench/SuperPI mal so mal so und das mit 75W weniger Verbrauch. Wie gesagt, GPGPU ist Maxwell kacke und darum gehts hier im Thread. Natürlich ist die Karte schneller (und größer), aber auch Performance pro Watt liegen beide Chips gleich auf.
 
Es ist kein Leak und ich sehe nirgendwo eine Angabe mit HBM und einem 256-Bit Interface.

Einer geleakten und nicht bestätigten Roadmap zufolge soll eine neue Version der Geforce Titan den Anfang machen - und das bereits im April diesen Jahres. Grundlage hierfür sei eine GPU namens GP100, die 4096 Shader-Prozessoren und ein 256 Bit breites Speicher-Interface bieten soll. Als Speicher will Nvidia hier offenbar auf die HBM2-Technik setzen....

Ist nicht von der PCGH, sondern von einer anderen Seite (chip.de). Urprünglich von KaneTM gepostet.
 
Oh my bad, sorry!
Im Musemage ist die Nano ja nur 65% vor der 980 Ti, im Computemark 20% und mehr (bis auf Fluid2D), im Luxmark 20/57%, bei Folding@home DP 26% schneller und im ComputeBench/SuperPI mal so mal so und das mit 75W weniger Verbrauch. Wie gesagt, GPGPU ist Maxwell kacke und darum gehts hier im Thread. Natürlich ist die Karte schneller (und größer), aber auch Performance pro Watt liegen beide Chips gleich auf.
Danke, du musst es nicht noch so eindrucksvoll unterstreichen, dass du Cherrypicking betreibst :ugly:

Halten wir also fest, die Nano ist langsamer als die 980Ti bei:
- CompuBenchCL Face Detection (980Ti 35% schneller)
- CompuBenchCL Particle Simluation (980Ti 70% schneller)
- CompuBenchCL T-Rex (980Ti 12% schneller)
- CompuBenchCL VideoComposition (980Ti 5% schneller)
- ComputeMark Fluid2D(980Ti 10% schneller)
- Folding@Home SP(980Ti 27% schneller)
- SuperPI 500M (980Ti 22% schneller)

So, damit steht es 5 Benchmarks von dir, in denen die Nano gewinnt vs. 7 in denen die 980Ti gewinnt. Und nun?

Also wie gesagt: GPGPU ist mit Fiji kacke, viel mehr kacke als mit Maxwell und nur wer wie du massiv Cherrypicking betreibt, kann das Gegenteil behaupten.

Und darum geht es hier im Thread. Die Nano taugt einfach nix und ist noch dazu weniger effizent. Einfach kacke. Wie man so schön sagt :ugly:
 
Danke, du musst es nicht noch so eindrucksvoll unterstreichen, dass du Cherrypicking betreibst :ugly:

Halten wir also fest, die Nano ist langsamer als die 980Ti bei:
- CompuBenchCL Face Detection (980Ti 35% schneller)
- CompuBenchCL Particle Simluation (980Ti 70% schneller)
- CompuBenchCL T-Rex (980Ti 12% schneller)
- CompuBenchCL VideoComposition (980Ti 5% schneller)
- ComputeMark Fluid2D(980Ti 10% schneller)
- Folding@Home SP(980Ti 27% schneller)
- SuperPI 500M (980Ti 22% schneller)

So, damit steht es 5 Benchmarks von dir, in denen die Nano gewinnt vs. 7 in denen die 980Ti gewinnt. Und nun?

Also wie gesagt: GPGPU ist mit Fiji kacke, viel mehr kacke als mit Maxwell und nur wer wie du massiv Cherrypicking betreibt, kann das Gegenteil behaupten.

Und darum geht es hier im Thread. Die Nano taugt einfach nix und ist noch dazu weniger effizent. Einfach kacke. Wie man so schön sagt :ugly:

Mehr milisekunden sind besser?? WTF
 
Leute... weder AMD noch Nvidia werden irgendwas mit doppelter Leistung der jetzigen Generation rausbringen. Der Vollausbau von Polaris und Pascal werden erst in zwei bis drei Jahren rauskommen. Die nächste Generation werden "beschnittene" Chips sein, die zweischen 10% und 20% schneller sind wie die jetzige Generation. Und die Generation danach wird wieder 10-20% schneller sein und so weiter und sofort. Das war schon immer so und wird auch erstmal so bleiben.

Jojo Marketing bla bla. Am Ende pöbelt dann so eine Karte um 1000€+ bei 5-10% Mehrleistung oder so bei raus :D

Wann gab es das letzte mal einen neuen Chip der ein und der selben Leistungsklasse einer neuen Chipfamilie, der nur 5-10% schneller war? Also ehrlich, man kann es mit dem tiefstapeln auch übertreiben.

GT200->GF110->GK110->GM200​

Das waren jedesmal ordentliche Sprünge.

Edit: An den Newsschreiber: Die Folie wurde nicht von 3DC gefunden sondern von jemanden auf B3D gepostet. Ich habe diese Folie dann im 3D repostet und meinen Kommentar dazu geschrieben.
 
Wann gab es das letzte mal einen neuen Chip der ein und der selben Leistungsklasse einer neuen Chipfamilie, der nur 5-10% schneller war? Also ehrlich, man kann es mit dem tiefstapeln auch übertreiben.

GT200->GF110->GK110->GM200​
Man muss die Grafikkarten einer Leistungsklasse vergleichen!
6800ultra 512 -> 7800gtx 512 -> 8800GTX -> gtx280 -> gtx480 -> gtx580 -> gtx680 -> gtx780 -> gtx980 (GF9XXX Serie weggelassen da die ca. gleichzeitig zwischen der GF8XXX und GF2XX Serie lief)

Seit 2004 sind es immer zwischen 10% und 20% Leistungssprünge zwischen den Generationen. Die einzige Ausnahme ist wiegesagt von G70 auf G80....da zu derzeit von Cine-FX auf Cuda umgestellt wurde. So konnten viele DX9 Titel deutlich effizienter berechnet werden.
 
Alte Infos frisch aufgewärmt:O
Aber vielleicht hatte NVIDIA mit HBM auch Probleme und jetzt wollen sie wieder HMC nutzen, weil das ohne Interposer geht!
Das Bild ist jedenfalls sehr alt, stammt noch aus der Zeit in der sie mit HMC geplant haben.


Da weißt Du aber ne ganze Menge. :schief:
Wenn es um AMD gehtkommen von ihm immer solche Meldungen.
Es ist leider verboten zu nennen was er ist.
 
Man muss die Grafikkarten einer Leistungsklasse vergleichen!
6800ultra 512 -> 7800gtx 512 -> 8800GTX -> gtx280 -> gtx480 -> gtx580 -> gtx680 -> gtx780 -> gtx980 (GF9XXX Serie weggelassen da die ca. gleichzeitig zwischen der GF8XXX und GF2XX Serie lief)

Seit 2004 sind es immer zwischen 10% und 20% Leistungssprünge zwischen den Generationen. Die einzige Ausnahme ist wiegesagt von G70 auf G80....da zu derzeit von Cine-FX auf Cuda umgestellt wurde. So konnten viele DX9 Titel deutlich effizienter berechnet werden.
Cine-FX auf Tesla, nicht CUDA.

Und man muss auch nicht die "Leistungsklasse" vergleichen, wo du dir auch nur die Produkt-Namen anschaust.
Die Leistungsklassen sind immer etwas variabel, die Kaufpreise ebenso und auch die Namen für gewisse Klassen.
Genauso stimmt das mit den 10-20% pauschal nicht.

Hier zwei CB-Testreihen mit 5 Namens-Generationen:
GeForce GTX 46 bis 96 im Test (Seite 2) - ComputerBase

460 --> 560 (16%) --> 660 (61%) --> 760 (26%) ---> 960 (14%)


Die 70-Namen:
GeForce GTX 47 bis 97 im Test (Seite 2) - ComputerBase

470--> 570 (35%) --> 670 (47%)--> 770 (18%)---> 970 (34%)



40 nm ---> 28 nm
 
Nope das klingt für mich zu schön um wahr zu sein. Vor allem das Datum Juli. Warum?

-bei einer ähnlichen Architektur, der doppelten Anzahl von Funktionseinheiten, zusätzlichen DP-Einheiten würde sich selbst in 14nm FinFET ein "Big-Chip" ergeben. Also ein Chip mit ~500mm^2 Größe. Dafür hat man beim Sprung von 40nm auf 28nm ein Jahr länger als für den Consumer-Chip gebraucht.

-HMC taucht hier zum ersten Mal auf, zuvor sprach man von HBM. Das Entwickeln von zwei Big-Chips macht das ganze für mich nur unwahrscheinlicher. Denn ihr glaubt doch nicht wirklich HMC in einem Consumer Chip zu sehen?

-Das SP : DP Verhältnis von 3:1 passt nicht zu dem bereits bestätigten Mixed-Precision Ansatz. Mir scheint hier hat sich jemand das SP : DP Verhältnis von Big-Kepler angeschaut und "spekuliert"

TLDR: Ich glaube kein Wort dieser Folie.
 
Also solch alten "Gerüchtefolien" traue ich mal gar nix zu. Da es evtl. nur noch einige Monate zur Vorstellung neuer GPUs ist, hatte ich mir von der news wesentlich mehr erhofft.

Leute... weder AMD noch Nvidia werden irgendwas mit doppelter Leistung der jetzigen Generation rausbringen. Der Vollausbau von Polaris und Pascal werden erst in zwei bis drei Jahren rauskommen. Die nächste Generation werden "beschnittene" Chips sein, die zweischen 10% und 20% schneller sind wie die jetzige Generation. Und die Generation danach wird wieder 10-20% schneller sein und so weiter und sofort. Das war schon immer so und wird auch erstmal so bleiben.

Seit wann verfolgst du denn den Markt? Das war bei weitem nicht immer so und ist imho erst seit der GTX 680 bei Nvidia so. Dort kam zum ersten mal der eigentliche Mainstream Chip als Hi End Modell. Dann die Profikarten, dann die Consumer Karten als großer Chip.
Bei AMD habe ich das ganze nicht so verfolgt, durch das ganze Rebranding verliert man aber auch schnell die Übersicht. Aber ich denke, 7970, 290X, R9 Fury X sind alles Vollausbauten mit ordentlichem Zuwachs.
Die Letzten Jahre sind natürlich insgesamt langweiliger geworden, es gab eine art Stagnation und das schlimmste an der Sache ist in meinen Augen, dass die Preise kaum fallen.

Man muss die Grafikkarten einer Leistungsklasse vergleichen!
6800ultra 512 -> 7800gtx 512 -> 8800GTX -> gtx280 -> gtx480 -> gtx580 -> gtx680 -> gtx780 -> gtx980 (GF9XXX Serie weggelassen da die ca. gleichzeitig zwischen der GF8XXX und GF2XX Serie lief)

Seit 2004 sind es immer zwischen 10% und 20% Leistungssprünge zwischen den Generationen. Die einzige Ausnahme ist wiegesagt von G70 auf G80....da zu derzeit von Cine-FX auf Cuda umgestellt wurde. So konnten viele DX9 Titel deutlich effizienter berechnet werden.

Also die GTX 280 war schon sehr deutlich schneller als die 8800 GTX. Die GTX 480 wieder. Ich behaupte mal 60 - 80%. Die 580 war ja "nur" eine verbesserte 480 im Vollausbau und mit der 680 fing das "Drama" erst wirklich an.
Siehe auch für GTX 280: Geforce GTX 28/26 SLI: Der grosse PCGH-Benchmark-Test
Oder: GTX 28 im Test (Seite 28) - ComputerBase
Oder für die GTX 480: GeForce GTX 48 im Test (Seite 21) - ComputerBase

Ich denke eher die Leute verstehen nicht, dass man in einer neuen Fertigung nicht sofort 500mm²-Monster raus hauen kann wie bei der Fury oder BigMaxwell. AMD und Nvidia werden dennoch das Maximum des heute möglichen heraus holen, schon allein wegen des Konkurrenzkampfs. Wozu sollte AMD auch sagen "wir machen jetzt nur 20% mehr Leistung, auch wenn 100% geht" und Nvidia wischt mit ihnen dann den Boden weil sie 25 von 100% Mehrleistung ins Silizium pressen? (Bei ähnlicher Effizienz wohlgemerkt)

Das ehe ich anders. Man kann das schon machen, aber tut es vermutlich nicht, wenn es nicht nötig ist. G80, GT200, GF100 waren doch meines wissens alles Chipmonster. Auch bei AMD gab es doch immer große Chips (5870, 7970, 290X, R9 Fury X)

Der Wind weht daher, dass Nvidias DP-Performance bei Maxwell einfach beschissen war und es hier im Artikel um die TFLOPS bei DP/SP geht!
Und ja, ich verwende GPGPU u.A. für mein Video-Editing und MATLAB (OpenCL dank C)!
Wirklich absolutes Cherry Picking was ich hier betreibe, dass ich so Pro-AMD-Seiten wie PCGH oder CB auf führe, unglaublich!

Aber verwendest du auch DP?


... Wenn es schon so wenige nutzen, warum limitiert man es dann künstlich?
gRU?; cAPS

Damit man Profikarten zu Profipreisen verkaufen kann :)

Ich glaube langsam ein Muster zu erkennen.
Und zumindest bei mir trifft das irgendwie zu.

- Jede neue Generation wird mit unglaublicher Leistung geteasert. Leaks oder vorab-Präsentationen versprechen X% hier, "Overclockers Dream", oder was auch immer.
- Die Vorfreude steigt, man betrachtet seine aktuelle Grafikarte und denkt sich "50% mehr Leistung würde schon krass rocken..."
- Man wartet und wartet und wird langsam ungeduldig, weil man seine "alte" pixelschubse in die Kleinanzeigen schubsen möchte.
- Der Release kommt, und die Karte entäuscht mit grade mal 20% Mehrleistung. Aber weil man jetzt schon so lange gewartet hat, und die nächste Generation nochmal 1 bis 2 Jahre auf sich warten lässt weiß man nicht recht was man tun soll.
- Dann kauft man sie nach langem für und wieder doch, weil ForumUser XY ein super Sample erwischt hat und sie bis zum Sankt Nimmerleinstag übertakten kann. Jetzt klopft man sich erstmal auf die Schulter und sagt sich "Das war eine gute Entscheidung! - Die Karte ist verdammt schnell" und ist erstmal zufrieden.
- Aber diese Freude über den Kauf geht dann sehr zügig wieder in eine Gleichgültigkeit über. Man denkt sich:
"die 50% wärens halt gewesen, aber es gab halt nur 20% zu holen... Wenn die Konzerne doch nur mal nicht so gierig wären, und ihre Technik nicht abssichtlich beschneiden würden... Wer kauft denn immer die *******, und stärkt denen dann noch den Rücken?"
- Kurz darauf wird die nächste Generation mit 50% mehrleistung geteasert, und der Zyklus findet seine vollendung.


In den Letzten 3 Generationen habe ich mir 5 Karten gekauft, weil ich aus Gründen XYZ nicht zufrieden damit war.
Ob das Marketing-Strategie ist? Oder bin ich der einzige blöde Spinner, der sein Kaufverhalten ändern sollte? :D

Ja, du solltest was ändern. Leider bin ich kaum besser, aber eigentlich auch erst seit der GTX 680. Da meine GTX 480 laut und heiss war, wollte ich unbedingt was neues. Da lange Zeit Borderlands 2 mein absolutes Lieblingsspiel war, musste es eine Nvidia sein. Also GTX 680. Tolle Karte, aber irgendwie nicht so krass viel schneller. Dann die GTX 780 TI, tolle Karte, schnell, aber sau wenig Ram. Und ich sehe es schon kommen, ich verzichte auf einen Wechsel auf GTX 9XX und warte auf Pascal, aber kurz vor release von Pascal gibt es dann die 980 TI für 450 Euro und ich schlage zu, nur um festzustellen, dass der Mittelklasse Pascal/Polaris schneller, moderner und sparsamer ist :D

bye
Spinal
 
Zuletzt bearbeitet:
Zurück