Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?

Nvidias Chef, Jen-Hsun Huang, feuerte in seiner heutigen Eröffnungsrede der GTC 2013 eine ganze Reihe an interessanten Ankündigungen ab. Neben der Tegra-Roadmap mit den Logan- und Parker-SoCs wie auch der Kayla-Entwickler-Plattform gab Huang auch für die hauseigenen GPU-Architekturen einen geschätzten Zeitplan an: Neben Maxwell kündigte er dabei auch "Volta" mit Stacked DRAM und einer Transferrate von 1 Terabyte/Sek. an - eine konkrete Jahresangabe unterhalb des Volta-Chips fehlte jedoch.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?
 
Dreimal dürft ihr raten, wessen Notebook-Graka auf dem GK 107 basiert und der jetzt Angst bekommt, dass bald eine Smartphone-APU seine Graka schlägt! :devil:

(Wahrscheinlich wird Parker das tatsächlich fertigbringen...)
 
Zuletzt bearbeitet:
Naja, alles schön und gut, was da auf der Roadmap steht, jedoch sehe ich da doch einige Ungereimtheiten…..
-evtl.2016 16nm TSMC ?? Und auch noch FinFET, sehr optimistisch…..
-Wenn Volta tatsächlich auf Maxwell aufbaut, so bezweifle ich das dabei viel Leistung rausspringt.
Irgendwer muss ja was mit dem Terabyte pro Sekunde anfangen können. Bei einem Design welches nicht mal ansatzweise dafür ausgelegt ist, bezweifle ich das.

Und was DPFP-Durchsatz pro Watt angeht, so schafft man das bei Maxwell auch nur wegen des
Die-Shrinks auf 20nm…

Bei Fehlern bitte ich um Korrektur….

Lg
 
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.
 
Zuletzt bearbeitet:
Nvidia erwartet derzeit, Volta mit 1 Terabyte pro Sekunde an das DRAM anbinden zu können - das wäre rund viermal mehr als bei den derzeit am besten versorgten GPUs, der Geforce GTX Titan und AMDs Radeon HD 7970 GHz-Edition.

und die normale HD7970 nicht oder wie soll ich das verstehen ?
 
und die normale HD7970 nicht oder wie soll ich das verstehen ?

Da die HD7970Ghz eine um 24GB/s höhere Speicherbandbreite besitzt als eine normale HD7970, geht seine Formulierung schon in Ordnung.

Diese Stacking Gedöns mit 1TB/s werden übrigens alle kriegen, also nicht nur Nvidia, sondern auch Intel, AMD, IBM und so weiter.

Wir reden hier über sogenannten WideIO-RAM, der bereits in der PlayStation Vita und einigen High-End Smartphones zum Einsatz kommt. Für den High-End Markt dauert es aber noch ein wenig, bis diese Technologie zur Verfügung steht. Es gibt da zwei populäre Ansätze: Zum einen sogenannte Hybrid Memory Cubes (HMC) und zum anderen sogenannter High Bandwidth Memory (HBM).
 
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.


Bin immer wieder von deinen fundierten und interessant geschriebenen Posts beeindruckt! :daumen:
 
Naja, alles schön und gut, was da auf der Roadmap steht, jedoch sehe ich da doch einige Ungereimtheiten…..
-evtl.2016 16nm TSMC ?? Und auch noch FinFET, sehr optimistisch…..
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.

-Wenn Volta tatsächlich auf Maxwell aufbaut, so bezweifle ich das dabei viel Leistung rausspringt.
Irgendwer muss ja was mit dem Terabyte pro Sekunde anfangen können. Bei einem Design welches nicht mal ansatzweise dafür ausgelegt ist, bezweifle ich das.

Und was DPFP-Durchsatz pro Watt angeht, so schafft man das bei Maxwell auch nur wegen des
Die-Shrinks auf 20nm…

Bei Fehlern bitte ich um Korrektur….

Lg
Man könnte bereits heute davon profitieren ;) Je mehr Speicherbandbreite man hat, umso weniger Datenreuse braucht man, um die ALUs auch aus zu lasten.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.

Man braucht den stacked DRAM einfach, weil man ja eine gewisse Busbreite braucht. Halt x mal mehr für x mal mehr Bandbreite als heute. Wenn man sich aber anschaut, wie groß die Chips sind, brüchte man dann GEWALTIGE! Packages/Interposer um das zu realisieren. Der stacked DRAM reduziert hier "einfach" den Flächenbedarf und erhöht gleichzeitig den Pinout in diesem Bereich.
 
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.
Mit verbauten ARM Kernen könnte nVidia, basierend auf einem zu PCIEx16 steckkompatibelen Anschluss, zumindest für den GPGPU-Bereich ein komplett eigenes MoBoarddesign abliefern. Im ARM-Bereich tasten sie sich mit Tegra ja derzeit eh vor, sammeln KnowHow, und bringen ihre aktuelle GeForce Technik nach und nach bis Tegra 6 hin ein, für welchen ja x64 eingeplant ist, was bei der Adressierung hoher Speicherbereiche zwingend notendig ist. Irgendwann danach ist Volta angesetzt. nVidia dürfte noch einen Rest an Kompetenz im Northbridgedesign versammelt haben, darin verlötet man dann direkt zusätzlich ARM-Technik als Controller-Chips drauf und designed so Boards, die wirklich nur auf hohe Interconnect-Geschwindigkeit zwischen den GPUs und Speicher setzt, möglich wärs, da sie auch noch genug Zeit für sowas hätten. Die Boards müssen ja nix können ausser Rechnen, steuerbar wären sie von anderen Serverblades.


Dass Intel da von sich aus denen entgegen kommt und hinne macht mit richtig fixem PCIE oder abändern ihrer Design ist erst mal weniger wahrscheinlich, wobei die ja auch dedizierte Karten zum stupiden Numbercrunchen haben....




Viel problematischer sehe ich da die Idee mit dem Stacked RAM direkt auf der GPU, man bedenke, wie heiss die auch so schon werden können .....
 
Ist denn dieser RAM als einzige Speicherlösung gedacht?
Oder ist das nur so eine Art L3-Cache und den Standard-Grafik-RAM gibt es trotzdem noch?

Und ich habe leider auch nicht verstanden, was genau sie mit den ARM-Cores wollen?

Kann mir das mal jemand erklären?
 
Mit verbauten ARM Kernen könnte nVidia, basierend auf einem zu PCIEx16 steckkompatibelen Anschluss, zumindest für den GPGPU-Bereich ein komplett eigenes MoBoarddesign abliefern. Im ARM-Bereich tasten sie sich mit Tegra ja derzeit eh vor, sammeln KnowHow, und bringen ihre aktuelle GeForce Technik nach und nach bis Tegra 6 hin ein, für welchen ja x64 eingeplant ist, was bei der Adressierung hoher Speicherbereiche zwingend notendig ist. Irgendwann danach ist Volta angesetzt. nVidia dürfte noch einen Rest an Kompetenz im Northbridgedesign versammelt haben, darin verlötet man dann direkt zusätzlich ARM-Technik als Controller-Chips drauf und designed so Boards, die wirklich nur auf hohe Interconnect-Geschwindigkeit zwischen den GPUs und Speicher setzt, möglich wärs, da sie auch noch genug Zeit für sowas hätten. Die Boards müssen ja nix können ausser Rechnen, steuerbar wären sie von anderen Serverblades.
Bitte nicht x64 sagen ;) Das ist einfach nen breitere Speicheradresse und das wars dann auch schon.

Bei x64 denken die Leute automatisch an x86(_64) womit das aber rein gar nichts zu tun hat. nVidia wird auch in Zukunft kein x86 verwenden dürfen. Weder in Hardware noch emuliert...

Dass Intel da von sich aus denen entgegen kommt und hinne macht mit richtig fixem PCIE oder abändern ihrer Design ist erst mal weniger wahrscheinlich, wobei die ja auch dedizierte Karten zum stupiden Numbercrunchen haben....
Intel will ihre XeonPhi verkaufen. nVidia müsste also wie bei Project Denver angedacht die Dinger allein laufen lassen. Dafür brauchen Sie dann aber noch nen gescheiten NIC, bzw nen Interface, um diesen an zu schließen. PCI-E würde sich da dann anbieten. Dann brauchen Sie aber auch eigentlich direkt wieder SATA ports usw usw. Also man wird da auch sehr schnell wieder sehr groß und überladen.

Ich bin gespannt, was nVidia da macht, und ob Sie sich mit ARM durchsetzen können. Die Konkurrenz ist ja groß. Intel Xeon, Intel XeonPhi, IBM PowerPC, AMD Opteron, AMD FirePro, AMD FirePro APUs und dann noch die große Unbekannte China mit ihren MIPS.

Viel problematischer sehe ich da die Idee mit dem Stacked RAM direkt auf der GPU, man bedenke, wie heiss die auch so schon werden können .....
Ram wird heute meist nur relativ wenig gekühlt. Stacked RAM ist da wirklich ziemlich unproblematisch. Vor allem wenn Sie ja eh direkt gut gekühlt werden.

Ist denn dieser RAM als einzige Speicherlösung gedacht?
Ja. Darum gehts ja. Man will sich das externe Speicherinterface sparen, bei dem man über das PCB gehen muss. Das ist einfach abartig Ineffizient und auch vergleichsweise teuer.

Oder ist das nur so eine Art L3-Cache und den Standard-Grafik-RAM gibt es trotzdem noch?
Nein

Und ich habe leider auch nicht verstanden, was genau sie mit den ARM-Cores wollen?
Wird wohl auf so was ähnliches raus laufen, wie AMD bereits mit GCN und dessen Skalarunit eingeführt hat, bzw eben Intel mit XeonPhi, wo man ein eigenes OS auf der Karte laufen lassen kann.

Man hat halt nen SOC, bei dem die "CPU" dann eben einige Aufgaben erledigen kann, für die GPUs an sich nicht gut geeignet sind.
 
Na da haben die tot gesagten Grünen ja doch noch einiges in der Schmiede. Hört sich jedenfalls alles gut an und man kann nur hoffen, das sie es auch so umsetzen werden, wovon ich mal ausgehe. Bin erstmal gespannt wie Maxwell vllt. nächstes Jahr performen wird und Tegra 5/6, das sind für mich die der weilen spannendsten Themen.
 
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.
Sony aber auch... :)

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist.
Sie hoffen wohl darauf, dass die Chips in ein System als Hauptprozessor eingesetzt werden. Zum Beispiel in Server, Desktops, usw.
Playstation 4 und Xbox720 natürlich auch. ^^

Jedenfalls steht Nvidia unter Zugzwang wegen HSA, irgendwas müssen sie ja machen, sonst bekommen sie später wirklich probleme. Intel ist schon dabei und Nvidia zieht wohl jetzt nach. Naja, so halbwegs zumindest.
 
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.


Man könnte bereits heute davon profitieren ;) Je mehr Speicherbandbreite man hat, umso weniger Datenreuse braucht man, um die ALUs auch aus zu lasten.

Mein "großes" vertrauen in die Roadmaps von TSMC wurde in den letzten Jahren schwer erschüttert.^^ ;)

Ja könnte man^^ Da aber sowohl Nvidia als auch AMD ihre Designs auf "wenig" Bandbreite ausgelegt haben, ist der reale Nutzen, bei gleichem Design wohl eher mäßig. Immer bezogen auf die Aussage: Volta = Maxwell + stacked DRAM+Die-Shrink-etc.....

Lg
 
Nein ist er nicht....

Es kommt nur auf das "richtige" Problem drauf an. Es gibt mehr als genug Anwendungen, die heutzutage eine GPU nicht voll auslasten können, einfach weil der Datenreuse zu niedrig ist, und man deswegen mit der Bandbreite des SI einfach nicht auskommt.

Games!=GPGPU

Bei GPGPU profitieren unglaublich viele Anwendungen von mehr Bandbreite. Und wenn nicht, könntest du einfach "schlampiger" programmieren für die gleiche Leistung. Also auch wieder ein Vorteil, weil optimieren einfach sehr aufwändig ist....

Ist halt wie bei Autos: Hubraum/Bandbreite ist nur durch eins zu ersetzen mehr Hubraum/Bandbreite ;)
 
Es kommt halt echt immer auf die Anwendung drauf an. Natürlich gibt es Sachen, die 0 davon profitieren, aber im gleichen Zuge gibt es halt komplett neue Sachen, die sich dann überhaupt erst vernünftig auf ne GPU portieren lassen.

Ist halt genau wie mit PCI-E, wobei es da schon sehr sehr sehr viel weniger Anwendungen gibt, die davon profitieren.
 
Jup, das kann Ich schlecht beurteilen, was wie viel davon profitiert…

Meine Überlegung war, dass durch die doch „stagnierende“ Entwicklung der Speicherbandbreite im Bezug auf die der Rohrleistung in den letzten Jahren die GPUs mit Caches, etc. aufgeblasen wurden, um so diesen Flaschenhals zu umgehen…..Demzufolge sollten diese Designs schlechter auf die Bandbreite ansprechen, als jene welche grundsätzlich auf eine so hohe ausgelegt sind.
 
Dem ist auch so, du hast aber IMMER! zu wenig Bandbreite :D Egal was du dir anschaust ;)

Verlgiech einfach mal die Bandbreite/Flop einer CPU und einer GPU. Dann weißt du, wie viel die GPUS noch zulegen müssten, um auch mit irregulärem Code besser umgehen zu können ;)
 
Zurück