Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?

Wir reden hier über sogenannten WideIO-RAM, der bereits in der PlayStation Vita und einigen High-End Smartphones zum Einsatz kommt. Für den High-End Markt dauert es aber noch ein wenig, bis diese Technologie zur Verfügung steht. Es gibt da zwei populäre Ansätze: Zum einen sogenannte Hybrid Memory Cubes (HMC) und zum anderen sogenannter High Bandwidth Memory (HBM).
Bei der Vita per wire-bonds und hier wäre es durch TSV.
Das ist kein kleiner Unterschied.

HBM und HMC sahen exakt identisch aus, wenn die alten Specs noch stimmen.
Kann deswegen nur den gleichen Ansatz mit einem anderem Namen von einer anderen Firma erkennen.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.
Habe ich auch so verstanden, ansonsten hätte ich die Teile auf die GPU gezeichnet und nicht daneben.
 
Ah jetzt ist auch das Video online danke PCGH :daumen:

Jetzt kann man sich endlich mal das in Ruhe anhören, was er da erzählt hat.

Ich hab mich also auch nicht verhört gestern bzgl seiner FP64 Aussage :klatsch: Meint er doch tatsächlich, Fermi wäre die ERSTE!!! GPU (2:00 min) mit FP64... Die HD5k Serie hatte FP64, Tesla hatte auch FP64... Was soll denn der Mist? Glaubt der wirklich, er kann einen so verschauckeln? :daumen2:
 
War aber beides Wide-IO mit 1 TB/s.
Aber habe jetzt auch nachgelesen, dass es Unterschiede gibt.
Was ist jetzt denn der Unterschied im Detail?
Wieder irgendwo das Interface oder die Anbindung?
 
Schau im Netz, ich kann dazu nicht mehr sagen. Was du findest findest du, falls du nichts findest, dann gibt es nichts zu wissen aktuell.

Btw.:

Bzgl der Frage mit der Anbindung/Platzierung der stacked DRAM. Es ist tatsächlich ein MCM. Bei 4:58 sagt er "on the same silicon substrate" Also wirklich auf dem gleichen Package, soweit ich das jetzt richtig verstehe zumindest :ugly:

EDIT:
Und er sagt auch 1TB/s nicht 1TBit/s ;)

PS: Ist euch auch der Pixelfehler des Beamers aufgefallen? :lol:
 
Ich finde auf den ersten Blick auch nicht viel, außer das beide stacken und das gleiche Endergebnis anstreben.
Unterschiede soll es aber dann doch mit Vor- und Nachteilen geben.
Gipsel meinte für Interposer ist ein HBM geeigneter.

Solange aber da nicht mehr Info kommt, ist es mir jetzt die Mühe auch nicht Wert in den weiten des Internets zu schauen, vielleicht weiß ja Brutus auf Anhieb mehr.
 
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.

Wäre ... überraschend.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.

So ist es jedenfalls in der gleichen News auf der Folie sehr eindeutig abgebildet.

Man braucht den stacked DRAM einfach, weil man ja eine gewisse Busbreite braucht. Halt x mal mehr für x mal mehr Bandbreite als heute. Wenn man sich aber anschaut, wie groß die Chips sind, brüchte man dann GEWALTIGE! Packages/Interposer um das zu realisieren. Der stacked DRAM reduziert hier "einfach" den Flächenbedarf und erhöht gleichzeitig den Pinout in diesem Bereich.

? Heute lieferbarer GDDR müsste zunächst einmal die Kapazität pro Pin/Fläche steigern, bevor man die Packages verkleinert. Da ein MCM mit Silizium-Interposer auch ohne eigenes Package für den Chip auskommt, würde sich eine reine Steigerung der Busbreite vermutlich sogar ohne Stacking realisieren lassen. (Zumindest solange Nvidia weiterhin Monster-DIEs baut, die mehr als genug Kantenlänge haben, um eine ganze Reihe von DRAM-DIEs in erster Reihe daneben unterzubringen)

Intel will ihre XeonPhi verkaufen. nVidia müsste also wie bei Project Denver angedacht die Dinger allein laufen lassen. Dafür brauchen Sie dann aber noch nen gescheiten NIC, bzw nen Interface, um diesen an zu schließen. PCI-E würde sich da dann anbieten. Dann brauchen Sie aber auch eigentlich direkt wieder SATA ports usw usw.

SATA brauchen sie nur, wenn sie damit ins Workstationsegment wollen - aber da werden non-x86 Systeme es auch 2016 noch schwer haben. Im Großrechner und Serverbereich wäre es dagegen durchaus ein Ansatz, die Datenspeicherung externen Systemen zu überlassen und booten via LAN ist sowieso ein alter Hut. Nvidia müsste dann nur die Beschleunigerkarten und ggf. eine PCIe-Backplane anbieten - was auch eine gewisse Eleganz in Bezug auf die Rechnerarchitektur ergibt.
N verdammt guter NIC wäre aber für viele klassische GPGPU-Bereiche unverzichtbar.

Ich bin gespannt, was nVidia da macht, und ob Sie sich mit ARM durchsetzen können. Die Konkurrenz ist ja groß. Intel Xeon, Intel XeonPhi, IBM PowerPC, AMD Opteron, AMD FirePro, AMD FirePro APUs und dann noch die große Unbekannte China mit ihren MIPS.

China ist (noch) am lernen, AMDs Grafiksparte punktet nur mit dem Preis und damit zwei Marktsegmente unter Nvidia, AMDs CPUs werden in ein andere Richtung optimiert - bleiben also "nur" noch die beiden Klassiker (von denen einer gerne mit Nvidia kombiniert wird) und halt Phi.
Ich glaube aber, dass Nvidia vorerst noch keine Chance hat, in klassischen CPU-Bereichen zu punkten. Da müssen sie noch VIEL flexiblere Architekturen bauen (oder sehr, sehr viele ARM-Kerne integrieren. Was den Chip ZU groß machen würde und bei der heutigen HPC-ARM-Unterstützung auch niemanden hinterm Ofen hervorlockt). Das Ziel dürfte es erst einmal sein, bei klassischen gpGPU-Aufgaben nicht immer noch Intel eine CPU und einen Chipsatz pro zwei GPUs abzukaufen.
 
Das definitiv. nVidia steht aber ziemlich allein da bzgl ARM+GPU oder ARM+WhatEver. Die wollen ja ums verrecken nicht bei HSA mitmachen :wall:

Dabei könnten Sie davon wirklich extrem profitieren. Es gäbe dann halt einen Intel- und einen "Rest der Welt"-Ansatz. So ist es halt ein Intel- ein nVidia und ein "Rest der Welt"-Ansatz... Ich hoffe wirklich, das nVidia sich damit nicht verhebt, und unter die Räder kommt...
 
Naja: HSA ist, wenn man es mal auf mehr "da ist ne OpenCL Einheit" (eine Rolle, die Nvidia auch übernehmen kann) ausdehnen möchte, auch entweder "ARM+GPU", oder es ist AMD-abhängig. Durch einen Eintritt in die Alliance könnte Nvidia also nur eine AMD-Abhängigkeit hinzugewinnen und dass sie das nicht wollen, ist wohl nachvollziehbar. Und wenn man sich die aktuelle Situation AMDs an allen Märkten anguckt, dann muss man ganz klar sagen: HSA hat keinen Startbonus. Die fließende Übergang von x86 hat zwar potential, aber die derzeitigen x86-HSA-CPUs haben es nicht. Und Leute, denen dieser Bonus wirklich wichtig ist, landen vermutlich sowieso eher bei Phi. Nvidias Eigenbrödelei dagegen hat einen Bonus, nämlich die bereits vorhandene Verbreitung von CUDA.
Unterm Strich: HSA wäre für Nvidia ein zweischneidiges Schwert und Nvidia hat realistische Chancen, einen direkten Zweikampf mit HSA zu gewinnen -> die werden nicht mitmachen.
 
Ähm, du redest von allem, nur nicht von HSA. Vor allem gibt es noch gar keine wirklichen HSA Chips. Die kommen erst in der ersten Ausbaustufe mit Kabini (?) und dem gemeinsamen Adressraum von CPU und (i)GPU, wobei auch Cache-Kohärenz unterstützt wird. Alles andere würde ich noch nicht als eine HSA-Implementierung bezeichnen, da eben die entscheidende minimale Verzahnung fehlt.

HSA hat zum Ziel, das Code dynamisch auf CPU, GPU oder was auch immer ausgeführt wird. Mit dem heeren Fernziel, das man gar icht expliziet auf CPU oder GPU hin programmiert, sondern die Hardware selbst "erkennt" wo Sie den Code am Besten ausführt. Wird also zumindest Anfangs auf eine SEHR mächtige LLVM hinauslaufen.

Transparent to Software

An important key to the success of HSA is its ability to simplify the process of getting applications to run on the architecture. As seen in the past, it is not sufficient to ask application vendors to change their software to fit a new kind of hardware – that path leads to niche success at best. This is especially true for proprietary (non-standard) platforms. To reach the mainstream, it must be easy for everyone to participate. The HSA approach is simple: bring the hardware to the application programmer. HSA includes the hardware, interfaces, common intermediate language, and standard runtime components to do all the necessary work. HSA maintains memory coherency and manages work queues under the hood, without exposing the underlying system complexity to the application developer.
This means providing mainstream programming languages and libraries targeting HSA. This will provide a transparent path for millions of developers (along with their existing code) to directly benefit from the efficiencies of HSA. AMD is starting this process by delivering HSA optimized programming tools for today’s most widely available heterogeneous languages: OpenCL™ and C++ AMP. Going forward, AMD along with the HSAF members will expand the set of developer tools to encompass many other languages and libraries across multiple software domains and segments.
What is Heterogeneous System Architecture (HSA)? | AMD


und

Auch wird von der PGI (The Portland Group) geplant, einen entsprechenden HSA Compiler in Partnerschaft von AMD zu entwickeln, mit dem man ohne viel eigenes Zutun Programme kompilieren kann, die durch die HSA Erweiterungen beschleunigt werden
Heterogeneous System Architecture


Und genau das kann nVidia nicht wirklich machen, ohne bei HSA mit zu machen. Vor allem musst du aber mal sehen, das sich HSA praktisch zu einem "Industriestandard" entwickeln könnte. Es machen ja so ziemlich alle aus dem SFF Markt mit, und halt AMD. Die haben ja bereits heute den Entscheidenden Vorteil, dass Sie jedwede ARM-App auf ihren neuen Chips ausführen können. Das hört sich aktuell nicht toll an, aber wenn man bedenkt, das ARM immer wichtiger wird, und ARM auch in den Serverbereich drängt, dann sit das schon SEHR gut. Weil AMD praktisch in die Situation kommt, JEDWEDEN Code, den man ihnen Vorwirft zu fressen und aus zu führen. Das ist schon ziemlich ziemlich geil. Stell dir mal die Vorteile für den Endkunden und auch für Entwickler vor. Du schreibst für ne HSA Architektur ein Programm, und praktisch jedes Gerät auf dieser Welt kann es ausführen. (halt keine Intel, aber die sind im Vergleich zu den ganzen ARMs gar nicht mehr so groß...). Wenn jetzt noch MIPS dazu kommt, dann haste aber ne richtig üble Situation für nVidia, und ich gehe eigentlich davon aus, das MIPS früher oder später dazu stoßen wird, es sei denn Sie bekommen doch noch ihre GPUs gebacken....


nVidia geht ein wirklich sehr hohes Risiko damit ein, nicht bei HSA mit zu machen. Sie müssen eigentlich hoffen, das HSA ein Misserfolg wird, und/oder sich die Partner zerstreiten, und jemand wie Samsung oder Qualcomm aussteigt...
 
Nvidia ist sehr gut aufgestellt.
Man vermarktet im Mainstream kleine Chips mit höheren Margen, und hat eine große Fanbase.
APUs, HSA, und was in der Richtung noch kommen wird, muss sich erst noch beweisen.

Es hatte ja einen Grund, warum man CPU und GPU getrennt hat.
Das modulare Konzept ist noch lange nicht am Ende. Es muss nur weiterentwickelt werden.

Ich mache mir da eher große Sorgen um AMD.
Zukunftsprojekte sind wichtig. Wichtig ist aber auch aktuell am Markt zu überleben, und nicht fortlaufend Geld zu verbrennen.
 
Es hatte ja einen Grund, warum man CPU und GPU getrennt hat.
Das modulare Konzept ist noch lange nicht am Ende. Es muss nur weiterentwickelt werden.

Ich mache mir da eher große Sorgen um AMD.
Zukunftsprojekte sind wichtig. Wichtig ist aber auch aktuell am Markt zu überleben, und nicht fortlaufend Geld zu verbrennen.
Es hatte ja einen Grund, warum man früher mit Pferdekutschen gefahren ist.
Pferdekutschen sind noch lange nicht am Ende. :D

Das ganze Zeug wird immer mehr von unten drücken und das modulare Systeme ersetzen.
Um AMD mache ich mir aber dennoch natürlich Sorgen.
Sie schaffen es trotzt guter Produkte nicht sich zu verkaufen.
Wenn der Markt sie nicht annimmt, dann haben sie es natürlich extrem schwer.
Sie sind ja leider nirgendwo Marktführer und haben kein dominantes Standbein.

Schlechte Aussichten sich durchzusetzen und zu etablieren.
Ich könnte mir GCN und alles damit verbundene auch gut im SFF-Markt vorstellen, dann macht eben AMD eine HSA-APU mit ARM, aber dafür müsste man GCN auch stutzen und die Smartphone-Anbieter müssten den Soc auch schlucken.
Der Markt ist aber heftig umkämpft und jemand der schon ein Design hat, wird wohl kaum auf AMDs GPU IP einsteigen.

Nvidia hat dabei sehr gute Finanzen, Tegra wird irgendwann profitabel und sie werden ein weiteres Standbein haben.
CUDA wird immer weiter entwickelt und es sieht nicht so aus, als ob AMD richtig gut aufholt beim HPC- und Workstation-Markt, trotz das GCN ECC anbietet und gute Performance.
Ohne Treiber geht nichts und ohne Verkäufe kein Geld und ohne Geld keine großen Ressourcen für Treiberverbesserungen.
AMD steckt richtig heftig in Teufelskreisen.
 
Zuletzt bearbeitet:
Es hatte ja einen Grund, warum man früher mit Pferdekutschen gefahren ist.
Pferdekutschen sind noch lange nicht am Ende. :D
Du weißt selbst, dass die Trennung von GPU und CPU auch Vorteile hat.
Der Vergleich mit den Pferdekutschen hinkt doch etwas. :P
Wichtig in dem Punkt ist nur, ob die Vor- die Nachteile überwiegen, oder umgedreht?

Sie schaffen es trotzt guter Produkte nicht sich zu verkaufen.
Das hat sich bei dedizierten GPUs mit dem aktuellen Gamebundle deutlich geändert.
Diesen Weg hätte man schon längst gehen müssen. Das ist ja kein neues Marketing, sondern ein alter Hut.
Und das man jetzt endlich mit Game-Entwicklern zusammenarbeitet, war auch überfällig.
Crysis 3, und Tress FX sind hoffentlich erst der Anfang dieser Entwicklung.
 
Der Vergleich hinkt bei weitem nicht...

Aber ein besserer:

"FPUs in die CPU zu integrieren war ein großer Fehler, man wird in Zukunft auch sehen, dass die wieder dedizierte Einheiten werden" :schief:

Das läuft aufs Gleiche drauf raus... Du vergisst, das es in der Vergangenheit noch NIE GPUs in der CPU gab, ohne das man DIE-Size, Power und I/O limited gewesen wäre... In der Zukunft wird sich die Priorisierung von den Limitierungen aber dramatisch verändern, und deswegen wird es absolut keinen Sinn mehr machen ab einem gewissen Punkt dedizierte GPUs zu verbauen, weil Sie einfach höllisch ineffizient sind.
 
Du weißt selbst, dass die Trennung von GPU und CPU auch Vorteile hat.
Der Vergleich mit den Pferdekutschen hinkt doch etwas. :P
Wichtig in dem Punkt ist nur, ob die Vor- die Nachteile überwiegen, oder umgedreht?
Pferdekutschen produzieren kein CO² , aber ich denke dennoch nicht das sich deswegen die "Industrie" wieder darauf besinnen wird. :D

Die Vorteile einer Trennung sind Modularität und eine höhere Rohperformance.
Modularität ist toll, allerdings bringt es viele Nachteile mit sich und die meisten PC-Anwender scheren sich nicht viel darum, weswegen der Markt in Zukunft immer mehr davon verlieren wird.
Die stetig steigende Integrationsdichte wird auch dazu führen, dass APUs immer mehr klassische Systeme übernehmen können und eine dGPU als Beschleuniger kann man sich dennoch immer einbauen.

PS: Klar hinkt der Vergleich, war ja auch nur eine Hyperbel. :)

Das hat sich bei dedizierten GPUs mit dem aktuellen Gamebundle deutlich geändert.
Diesen Weg hätte man schon längst gehen müssen. Das ist ja kein neues Marketing, sondern ein alter Hut.
Und das man jetzt endlich mit Game-Entwicklern zusammenarbeitet, war auch überfällig.
Crysis 3, und Tress FX sind hoffentlich erst der Anfang dieser Entwicklung.
Nvidia hat es geschafft ohne Gamebundles und mit späterem Launch AMD ordentlich Marktanteile zu klauen.
Kepler hat ja auch keine überzeugenden Features gehabt, welche AMD nicht hatte, dass war in der Vergangenheit schon einmal anders und da stand AMD sogar besser da.
Ich habe echt keine Ahnung welche Magie AMD davon abhält GPUs zu verkaufen.
Wenn das Gamebundle hilft, dann sehr gut, aber es ist auch teuer.
Es ist Schade das AMD soviel zusätzlich hinterher werfen muss, damit sich der Käufer zu AMD bewegt.
 
Na so teuer ist das nicht. AMD kauft in gewaltigen Massen ein. MEhr als 10€ würde ich nicht pro Game für Sie erwarten
 
Ich habe echt keine Ahnung welche Magie AMD davon abhält GPUs zu verkaufen.
Die Magie heißt Marketing, dass Nvidia viel geschickter einsetzt, als AMD bisher.
Skysnake hatte es einmal gut beschrieben. Nvidia hat sich erfolgreich ein Apple-Image aufgebaut.

APUs machten in Q3 2012 ca. 72,5% des Umsatz von AMD aus, 27,5% Bulldozer und K10.
Genauere Zahlen zum Absatz an einzelnen AMD-Prozessorenarchitekturen | 3DCenter.org
AMD ist also der klassische Desktop-Bereich weggebrochen. Was sich leider seid Monaten sehr negativ auf den Umsatz auswirkt.
http://www.3dcenter.org/news/amd-ge...-so-schwachen-zahlen-wie-seit-2009-nicht-mehr

Die Idee hinter HSA ist toll und hat viel Potential.
Aber erst mit den neuen Konsolen wird sich zeigen, ob sich HSA auch beim klassischen PC durchsetzen wird?

btt:
Volta mit 1 Terabyte pro Sekunde Anbindung an DRAM klingt toll.
Wobei ich, wenn Volta richtig auf den Roadmap eingetragen ist, eher auf 2017 tippen würde?

Maxwell würde dann auf Ende 2014, Anfang 2015 fallen.
 
Zuletzt bearbeitet:
...
Es ist Schade das AMD soviel zusätzlich hinterher werfen muss, damit sich der Käufer zu AMD bewegt.

Eigentlich nur verständlich. Um Nvidia den Markennamenvorsprung abzugraben, müsste AMD erstmal so viel Kohle in die Hand nehmen, dass man garantiert gute 10 Jahre lang
a) kompromisslos in allen Preisbereichen die eindeutig bessere Preis/Leistung bietet und nicht nur ein paar Euro auf oder ab - das ist zu wenig für irgendwen um seine Marke zu wechseln
b) Single-GPU Flaggschiff bauen und ordentlich bewerben
c) fett ins OEM Geschäft einsteigen und sicherstellen, dass überall groß draufsteht "Graphics by AMD" (am besten hätte man sich das auch bei den Konsolendeals gesichert)
d) keynotes machen bei denen man allerhand Sachen zeigt und utopische Roadmaps vorlügt (dabei gehts nur darum, dass tage und wochenlang jede Hardwareseite Artikel dazu hat)

Das Problem ist beim Markt, dass man eben deutlich mehr tun muss als nur "ähnlich gut zu sein" wenn man einer gut etablierten Marke wirklich Kunden wegschnappen will. Kunden brauchen einen Grund das Lager zu wechseln und 5% Leistung auf oder ab bzw. 5% Preis auf oder ab wird da einfach nichts bringen.

Ein paar Dinge fängt man bei AMD an zu machen, aber vieles ist auch schief gelaufen. Mit der 4xxx Serie war man eigentlich gut dabei und hat sich gut Marktanteile erkämpft, aber bei der 5xxx die alle Trümpfe auf ihrer Seite hatte (früher released, eigentlich super attraktive Karte) hat man einiges vergeigt. Wafer shortage, oder der Glaube man könne jetzt schon fett "melken" hat dazu geführt, dass es die 5850 und 5870 nur sehr kurz zu guten Preisen gab. Hätte AMD es geschafft diese Karten die ganze Zeit bis Nvidia endlich nachlegen konnte für den Preis ausreichend anzubieten, der in den ersten zwei Wochen geboten wurde, dann hätte diese Serie riesiges Potential gehabt um Marktanteile zu gewinnen und die Marke AMD für Grafikkarten zu etablieren. Leider ging das nicht und die nachfolgenden Serien waren gerade im High-End nicht mehr so gut.
 
Zurück