• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?

Nvidias Chef, Jen-Hsun Huang, feuerte in seiner heutigen Eröffnungsrede der GTC 2013 eine ganze Reihe an interessanten Ankündigungen ab. Neben der Tegra-Roadmap mit den Logan- und Parker-SoCs wie auch der Kayla-Entwickler-Plattform gab Huang auch für die hauseigenen GPU-Architekturen einen geschätzten Zeitplan an: Neben Maxwell kündigte er dabei auch "Volta" mit Stacked DRAM und einer Transferrate von 1 Terabyte/Sek. an - eine konkrete Jahresangabe unterhalb des Volta-Chips fehlte jedoch.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


Zurück zum Artikel: Nvidia-GPU-Roadmap auf der GTC: Volta mit Stacked DRAM - schon ab 2016?
 

CD LABS: Radon Project

Volt-Modder(in)
Dreimal dürft ihr raten, wessen Notebook-Graka auf dem GK 107 basiert und der jetzt Angst bekommt, dass bald eine Smartphone-APU seine Graka schlägt! :devil:

(Wahrscheinlich wird Parker das tatsächlich fertigbringen...)
 
Zuletzt bearbeitet:

grabhopser

Freizeitschrauber(in)
Naja, alles schön und gut, was da auf der Roadmap steht, jedoch sehe ich da doch einige Ungereimtheiten…..
-evtl.2016 16nm TSMC ?? Und auch noch FinFET, sehr optimistisch…..
-Wenn Volta tatsächlich auf Maxwell aufbaut, so bezweifle ich das dabei viel Leistung rausspringt.
Irgendwer muss ja was mit dem Terabyte pro Sekunde anfangen können. Bei einem Design welches nicht mal ansatzweise dafür ausgelegt ist, bezweifle ich das.

Und was DPFP-Durchsatz pro Watt angeht, so schafft man das bei Maxwell auch nur wegen des
Die-Shrinks auf 20nm…

Bei Fehlern bitte ich um Korrektur….

Lg
 

TheBrutus

PC-Selbstbauer(in)
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.
 
Zuletzt bearbeitet:

easland

Gesperrt
Nvidia erwartet derzeit, Volta mit 1 Terabyte pro Sekunde an das DRAM anbinden zu können - das wäre rund viermal mehr als bei den derzeit am besten versorgten GPUs, der Geforce GTX Titan und AMDs Radeon HD 7970 GHz-Edition.

und die normale HD7970 nicht oder wie soll ich das verstehen ?
 

TheBrutus

PC-Selbstbauer(in)
und die normale HD7970 nicht oder wie soll ich das verstehen ?

Da die HD7970Ghz eine um 24GB/s höhere Speicherbandbreite besitzt als eine normale HD7970, geht seine Formulierung schon in Ordnung.

Diese Stacking Gedöns mit 1TB/s werden übrigens alle kriegen, also nicht nur Nvidia, sondern auch Intel, AMD, IBM und so weiter.

Wir reden hier über sogenannten WideIO-RAM, der bereits in der PlayStation Vita und einigen High-End Smartphones zum Einsatz kommt. Für den High-End Markt dauert es aber noch ein wenig, bis diese Technologie zur Verfügung steht. Es gibt da zwei populäre Ansätze: Zum einen sogenannte Hybrid Memory Cubes (HMC) und zum anderen sogenannter High Bandwidth Memory (HBM).
 

Killermarkus81

Software-Overclocker(in)
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.


Bin immer wieder von deinen fundierten und interessant geschriebenen Posts beeindruckt! :daumen:
 

Skysnake

Lötkolbengott/-göttin
Naja, alles schön und gut, was da auf der Roadmap steht, jedoch sehe ich da doch einige Ungereimtheiten…..
-evtl.2016 16nm TSMC ?? Und auch noch FinFET, sehr optimistisch…..
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.

-Wenn Volta tatsächlich auf Maxwell aufbaut, so bezweifle ich das dabei viel Leistung rausspringt.
Irgendwer muss ja was mit dem Terabyte pro Sekunde anfangen können. Bei einem Design welches nicht mal ansatzweise dafür ausgelegt ist, bezweifle ich das.

Und was DPFP-Durchsatz pro Watt angeht, so schafft man das bei Maxwell auch nur wegen des
Die-Shrinks auf 20nm…

Bei Fehlern bitte ich um Korrektur….

Lg
Man könnte bereits heute davon profitieren ;) Je mehr Speicherbandbreite man hat, umso weniger Datenreuse braucht man, um die ALUs auch aus zu lasten.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.

Man braucht den stacked DRAM einfach, weil man ja eine gewisse Busbreite braucht. Halt x mal mehr für x mal mehr Bandbreite als heute. Wenn man sich aber anschaut, wie groß die Chips sind, brüchte man dann GEWALTIGE! Packages/Interposer um das zu realisieren. Der stacked DRAM reduziert hier "einfach" den Flächenbedarf und erhöht gleichzeitig den Pinout in diesem Bereich.
 

Ob4ru|3r

PCGH-Community-Veteran(in)
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist. Das hört sich unfassbar kompliziert an! Dann ist immer noch die Frage, ob der PCIe Standard in Zukunft so modifiziert wird, dass er Cache Coherency erlaubt. Da Nvidia (beim PC) immer noch auf einen x86 Hauptprozessor von AMD oder Intel angewiesen ist, müsste die Koheränz durch zusätzliche Abstraktion ermöglicht werden, was die ganze Sache noch mal komplizierter macht und die Latenzen weiter erhöht.

Die einzige Möglichkeit sehe ich darin, dass AMD oder Intels ihre Prozessoren als Southbridge zur Verfügung stellen, aber das wäre im Falle eines Haswells oder eines Kaveris dann wie die berühmten Perlen vor die Säue und selbst hier müsste man erstmal schauen, inwiefern das mit OS und API funktionieren würde.

Ich habe ein ganz, ganz schlechtes Gefühl für Nvidia. Dedizierte Grafikkarten werden aussterben und AMD und Intel können einfach das bessere SoC abliefern. In meinen Augen wird Nvidia in den nächsten fünf Jahren richtig Probleme kriegen.
Mit verbauten ARM Kernen könnte nVidia, basierend auf einem zu PCIEx16 steckkompatibelen Anschluss, zumindest für den GPGPU-Bereich ein komplett eigenes MoBoarddesign abliefern. Im ARM-Bereich tasten sie sich mit Tegra ja derzeit eh vor, sammeln KnowHow, und bringen ihre aktuelle GeForce Technik nach und nach bis Tegra 6 hin ein, für welchen ja x64 eingeplant ist, was bei der Adressierung hoher Speicherbereiche zwingend notendig ist. Irgendwann danach ist Volta angesetzt. nVidia dürfte noch einen Rest an Kompetenz im Northbridgedesign versammelt haben, darin verlötet man dann direkt zusätzlich ARM-Technik als Controller-Chips drauf und designed so Boards, die wirklich nur auf hohe Interconnect-Geschwindigkeit zwischen den GPUs und Speicher setzt, möglich wärs, da sie auch noch genug Zeit für sowas hätten. Die Boards müssen ja nix können ausser Rechnen, steuerbar wären sie von anderen Serverblades.


Dass Intel da von sich aus denen entgegen kommt und hinne macht mit richtig fixem PCIE oder abändern ihrer Design ist erst mal weniger wahrscheinlich, wobei die ja auch dedizierte Karten zum stupiden Numbercrunchen haben....




Viel problematischer sehe ich da die Idee mit dem Stacked RAM direkt auf der GPU, man bedenke, wie heiss die auch so schon werden können .....
 

ViP94

Software-Overclocker(in)
Ist denn dieser RAM als einzige Speicherlösung gedacht?
Oder ist das nur so eine Art L3-Cache und den Standard-Grafik-RAM gibt es trotzdem noch?

Und ich habe leider auch nicht verstanden, was genau sie mit den ARM-Cores wollen?

Kann mir das mal jemand erklären?
 

Skysnake

Lötkolbengott/-göttin
Mit verbauten ARM Kernen könnte nVidia, basierend auf einem zu PCIEx16 steckkompatibelen Anschluss, zumindest für den GPGPU-Bereich ein komplett eigenes MoBoarddesign abliefern. Im ARM-Bereich tasten sie sich mit Tegra ja derzeit eh vor, sammeln KnowHow, und bringen ihre aktuelle GeForce Technik nach und nach bis Tegra 6 hin ein, für welchen ja x64 eingeplant ist, was bei der Adressierung hoher Speicherbereiche zwingend notendig ist. Irgendwann danach ist Volta angesetzt. nVidia dürfte noch einen Rest an Kompetenz im Northbridgedesign versammelt haben, darin verlötet man dann direkt zusätzlich ARM-Technik als Controller-Chips drauf und designed so Boards, die wirklich nur auf hohe Interconnect-Geschwindigkeit zwischen den GPUs und Speicher setzt, möglich wärs, da sie auch noch genug Zeit für sowas hätten. Die Boards müssen ja nix können ausser Rechnen, steuerbar wären sie von anderen Serverblades.
Bitte nicht x64 sagen ;) Das ist einfach nen breitere Speicheradresse und das wars dann auch schon.

Bei x64 denken die Leute automatisch an x86(_64) womit das aber rein gar nichts zu tun hat. nVidia wird auch in Zukunft kein x86 verwenden dürfen. Weder in Hardware noch emuliert...

Dass Intel da von sich aus denen entgegen kommt und hinne macht mit richtig fixem PCIE oder abändern ihrer Design ist erst mal weniger wahrscheinlich, wobei die ja auch dedizierte Karten zum stupiden Numbercrunchen haben....
Intel will ihre XeonPhi verkaufen. nVidia müsste also wie bei Project Denver angedacht die Dinger allein laufen lassen. Dafür brauchen Sie dann aber noch nen gescheiten NIC, bzw nen Interface, um diesen an zu schließen. PCI-E würde sich da dann anbieten. Dann brauchen Sie aber auch eigentlich direkt wieder SATA ports usw usw. Also man wird da auch sehr schnell wieder sehr groß und überladen.

Ich bin gespannt, was nVidia da macht, und ob Sie sich mit ARM durchsetzen können. Die Konkurrenz ist ja groß. Intel Xeon, Intel XeonPhi, IBM PowerPC, AMD Opteron, AMD FirePro, AMD FirePro APUs und dann noch die große Unbekannte China mit ihren MIPS.

Viel problematischer sehe ich da die Idee mit dem Stacked RAM direkt auf der GPU, man bedenke, wie heiss die auch so schon werden können .....
Ram wird heute meist nur relativ wenig gekühlt. Stacked RAM ist da wirklich ziemlich unproblematisch. Vor allem wenn Sie ja eh direkt gut gekühlt werden.

Ist denn dieser RAM als einzige Speicherlösung gedacht?
Ja. Darum gehts ja. Man will sich das externe Speicherinterface sparen, bei dem man über das PCB gehen muss. Das ist einfach abartig Ineffizient und auch vergleichsweise teuer.

Oder ist das nur so eine Art L3-Cache und den Standard-Grafik-RAM gibt es trotzdem noch?
Nein

Und ich habe leider auch nicht verstanden, was genau sie mit den ARM-Cores wollen?
Wird wohl auf so was ähnliches raus laufen, wie AMD bereits mit GCN und dessen Skalarunit eingeführt hat, bzw eben Intel mit XeonPhi, wo man ein eigenes OS auf der Karte laufen lassen kann.

Man hat halt nen SOC, bei dem die "CPU" dann eben einige Aufgaben erledigen kann, für die GPUs an sich nicht gut geeignet sind.
 

oldsql.Triso

Volt-Modder(in)
Na da haben die tot gesagten Grünen ja doch noch einiges in der Schmiede. Hört sich jedenfalls alles gut an und man kann nur hoffen, das sie es auch so umsetzen werden, wovon ich mal ausgehe. Bin erstmal gespannt wie Maxwell vllt. nächstes Jahr performen wird und Tegra 5/6, das sind für mich die der weilen spannendsten Themen.
 
G

Gast1

Guest
Ich bin da sehr, sehr skeptisch was die integrierten ARM Kerne angeht.
Sony aber auch... :)

AMDs und Intels Lösungen sind da einfach resoluter, da sie jeglichen Bus elimieren, Nvidias Hetero-Core Lösung mit den ARMs hingegen ist immer noch abhängig vom PCIe Bus. Das schafft ohne Ende Probleme: Welche CPU soll man zusammen mit so einer Nvidia Hetero-Core Karte verwenden? Intel integriert in jede CPU bereits eine iGP und auch AMD hat seine HSA. Man hätte dann also mindestens mal vier verschieden Prozessorarchitekturen verteilt auf zwei Chips und verbunden über den Latenzkiller names PCIe Bus, welcher derzeit einfach die größte Schwachstelle in einem PC ist.
Sie hoffen wohl darauf, dass die Chips in ein System als Hauptprozessor eingesetzt werden. Zum Beispiel in Server, Desktops, usw.
Playstation 4 und Xbox720 natürlich auch. ^^

Jedenfalls steht Nvidia unter Zugzwang wegen HSA, irgendwas müssen sie ja machen, sonst bekommen sie später wirklich probleme. Intel ist schon dabei und Nvidia zieht wohl jetzt nach. Naja, so halbwegs zumindest.
 

grabhopser

Freizeitschrauber(in)
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.


Man könnte bereits heute davon profitieren ;) Je mehr Speicherbandbreite man hat, umso weniger Datenreuse braucht man, um die ALUs auch aus zu lasten.

Mein "großes" vertrauen in die Roadmaps von TSMC wurde in den letzten Jahren schwer erschüttert.^^ ;)

Ja könnte man^^ Da aber sowohl Nvidia als auch AMD ihre Designs auf "wenig" Bandbreite ausgelegt haben, ist der reale Nutzen, bei gleichem Design wohl eher mäßig. Immer bezogen auf die Aussage: Volta = Maxwell + stacked DRAM+Die-Shrink-etc.....

Lg
 

Skysnake

Lötkolbengott/-göttin
Nein ist er nicht....

Es kommt nur auf das "richtige" Problem drauf an. Es gibt mehr als genug Anwendungen, die heutzutage eine GPU nicht voll auslasten können, einfach weil der Datenreuse zu niedrig ist, und man deswegen mit der Bandbreite des SI einfach nicht auskommt.

Games!=GPGPU

Bei GPGPU profitieren unglaublich viele Anwendungen von mehr Bandbreite. Und wenn nicht, könntest du einfach "schlampiger" programmieren für die gleiche Leistung. Also auch wieder ein Vorteil, weil optimieren einfach sehr aufwändig ist....

Ist halt wie bei Autos: Hubraum/Bandbreite ist nur durch eins zu ersetzen mehr Hubraum/Bandbreite ;)
 

Skysnake

Lötkolbengott/-göttin
Es kommt halt echt immer auf die Anwendung drauf an. Natürlich gibt es Sachen, die 0 davon profitieren, aber im gleichen Zuge gibt es halt komplett neue Sachen, die sich dann überhaupt erst vernünftig auf ne GPU portieren lassen.

Ist halt genau wie mit PCI-E, wobei es da schon sehr sehr sehr viel weniger Anwendungen gibt, die davon profitieren.
 

grabhopser

Freizeitschrauber(in)
Jup, das kann Ich schlecht beurteilen, was wie viel davon profitiert…

Meine Überlegung war, dass durch die doch „stagnierende“ Entwicklung der Speicherbandbreite im Bezug auf die der Rohrleistung in den letzten Jahren die GPUs mit Caches, etc. aufgeblasen wurden, um so diesen Flaschenhals zu umgehen…..Demzufolge sollten diese Designs schlechter auf die Bandbreite ansprechen, als jene welche grundsätzlich auf eine so hohe ausgelegt sind.
 

Skysnake

Lötkolbengott/-göttin
Dem ist auch so, du hast aber IMMER! zu wenig Bandbreite :D Egal was du dir anschaust ;)

Verlgiech einfach mal die Bandbreite/Flop einer CPU und einer GPU. Dann weißt du, wie viel die GPUS noch zulegen müssten, um auch mit irregulärem Code besser umgehen zu können ;)
 

Locuza

Lötkolbengott/-göttin
Wir reden hier über sogenannten WideIO-RAM, der bereits in der PlayStation Vita und einigen High-End Smartphones zum Einsatz kommt. Für den High-End Markt dauert es aber noch ein wenig, bis diese Technologie zur Verfügung steht. Es gibt da zwei populäre Ansätze: Zum einen sogenannte Hybrid Memory Cubes (HMC) und zum anderen sogenannter High Bandwidth Memory (HBM).
Bei der Vita per wire-bonds und hier wäre es durch TSV.
Das ist kein kleiner Unterschied.

HBM und HMC sahen exakt identisch aus, wenn die alten Specs noch stimmen.
Kann deswegen nur den gleichen Ansatz mit einem anderem Namen von einer anderen Firma erkennen.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.
Habe ich auch so verstanden, ansonsten hätte ich die Teile auf die GPU gezeichnet und nicht daneben.
 

Skysnake

Lötkolbengott/-göttin
Ah jetzt ist auch das Video online danke PCGH :daumen:

Jetzt kann man sich endlich mal das in Ruhe anhören, was er da erzählt hat.

Ich hab mich also auch nicht verhört gestern bzgl seiner FP64 Aussage :klatsch: Meint er doch tatsächlich, Fermi wäre die ERSTE!!! GPU (2:00 min) mit FP64... Die HD5k Serie hatte FP64, Tesla hatte auch FP64... Was soll denn der Mist? Glaubt der wirklich, er kann einen so verschauckeln? :daumen2:
 

Locuza

Lötkolbengott/-göttin
War aber beides Wide-IO mit 1 TB/s.
Aber habe jetzt auch nachgelesen, dass es Unterschiede gibt.
Was ist jetzt denn der Unterschied im Detail?
Wieder irgendwo das Interface oder die Anbindung?
 

Skysnake

Lötkolbengott/-göttin
Schau im Netz, ich kann dazu nicht mehr sagen. Was du findest findest du, falls du nichts findest, dann gibt es nichts zu wissen aktuell.

Btw.:

Bzgl der Frage mit der Anbindung/Platzierung der stacked DRAM. Es ist tatsächlich ein MCM. Bei 4:58 sagt er "on the same silicon substrate" Also wirklich auf dem gleichen Package, soweit ich das jetzt richtig verstehe zumindest :ugly:

EDIT:
Und er sagt auch 1TB/s nicht 1TBit/s ;)

PS: Ist euch auch der Pixelfehler des Beamers aufgefallen? :lol:
 

Locuza

Lötkolbengott/-göttin
Ich finde auf den ersten Blick auch nicht viel, außer das beide stacken und das gleiche Endergebnis anstreben.
Unterschiede soll es aber dann doch mit Vor- und Nachteilen geben.
Gipsel meinte für Interposer ist ein HBM geeigneter.

Solange aber da nicht mehr Info kommt, ist es mir jetzt die Mühe auch nicht Wert in den weiten des Internets zu schauen, vielleicht weiß ja Brutus auf Anhieb mehr.
 

ruyven_macaran

Trockeneisprofi (m/w)
Nein, das passt zu den Roadmaps von TSMC. Fragt sich halt nur, ob Sie ihre Roadmap auch einhalten können.

Wäre ... überraschend.

Ich hab allerdings den Beitrag von Huang anders verstanden als PCGH. Also nicht das man die DRAM-Chips mit der GPU per TSV verbindet, sondern das man einzelne DRAM-Chips untereinander mit TSV verbindet, und diesen stacked DRAM dann wiederum mittels Interposer/Package (Huang hat sich da leider sehr seltsam ausgedrückt...) dann mit der GPU verbunden.

So ist es jedenfalls in der gleichen News auf der Folie sehr eindeutig abgebildet.

Man braucht den stacked DRAM einfach, weil man ja eine gewisse Busbreite braucht. Halt x mal mehr für x mal mehr Bandbreite als heute. Wenn man sich aber anschaut, wie groß die Chips sind, brüchte man dann GEWALTIGE! Packages/Interposer um das zu realisieren. Der stacked DRAM reduziert hier "einfach" den Flächenbedarf und erhöht gleichzeitig den Pinout in diesem Bereich.

? Heute lieferbarer GDDR müsste zunächst einmal die Kapazität pro Pin/Fläche steigern, bevor man die Packages verkleinert. Da ein MCM mit Silizium-Interposer auch ohne eigenes Package für den Chip auskommt, würde sich eine reine Steigerung der Busbreite vermutlich sogar ohne Stacking realisieren lassen. (Zumindest solange Nvidia weiterhin Monster-DIEs baut, die mehr als genug Kantenlänge haben, um eine ganze Reihe von DRAM-DIEs in erster Reihe daneben unterzubringen)

Intel will ihre XeonPhi verkaufen. nVidia müsste also wie bei Project Denver angedacht die Dinger allein laufen lassen. Dafür brauchen Sie dann aber noch nen gescheiten NIC, bzw nen Interface, um diesen an zu schließen. PCI-E würde sich da dann anbieten. Dann brauchen Sie aber auch eigentlich direkt wieder SATA ports usw usw.

SATA brauchen sie nur, wenn sie damit ins Workstationsegment wollen - aber da werden non-x86 Systeme es auch 2016 noch schwer haben. Im Großrechner und Serverbereich wäre es dagegen durchaus ein Ansatz, die Datenspeicherung externen Systemen zu überlassen und booten via LAN ist sowieso ein alter Hut. Nvidia müsste dann nur die Beschleunigerkarten und ggf. eine PCIe-Backplane anbieten - was auch eine gewisse Eleganz in Bezug auf die Rechnerarchitektur ergibt.
N verdammt guter NIC wäre aber für viele klassische GPGPU-Bereiche unverzichtbar.

Ich bin gespannt, was nVidia da macht, und ob Sie sich mit ARM durchsetzen können. Die Konkurrenz ist ja groß. Intel Xeon, Intel XeonPhi, IBM PowerPC, AMD Opteron, AMD FirePro, AMD FirePro APUs und dann noch die große Unbekannte China mit ihren MIPS.

China ist (noch) am lernen, AMDs Grafiksparte punktet nur mit dem Preis und damit zwei Marktsegmente unter Nvidia, AMDs CPUs werden in ein andere Richtung optimiert - bleiben also "nur" noch die beiden Klassiker (von denen einer gerne mit Nvidia kombiniert wird) und halt Phi.
Ich glaube aber, dass Nvidia vorerst noch keine Chance hat, in klassischen CPU-Bereichen zu punkten. Da müssen sie noch VIEL flexiblere Architekturen bauen (oder sehr, sehr viele ARM-Kerne integrieren. Was den Chip ZU groß machen würde und bei der heutigen HPC-ARM-Unterstützung auch niemanden hinterm Ofen hervorlockt). Das Ziel dürfte es erst einmal sein, bei klassischen gpGPU-Aufgaben nicht immer noch Intel eine CPU und einen Chipsatz pro zwei GPUs abzukaufen.
 

Skysnake

Lötkolbengott/-göttin
Das definitiv. nVidia steht aber ziemlich allein da bzgl ARM+GPU oder ARM+WhatEver. Die wollen ja ums verrecken nicht bei HSA mitmachen :wall:

Dabei könnten Sie davon wirklich extrem profitieren. Es gäbe dann halt einen Intel- und einen "Rest der Welt"-Ansatz. So ist es halt ein Intel- ein nVidia und ein "Rest der Welt"-Ansatz... Ich hoffe wirklich, das nVidia sich damit nicht verhebt, und unter die Räder kommt...
 

ruyven_macaran

Trockeneisprofi (m/w)
Naja: HSA ist, wenn man es mal auf mehr "da ist ne OpenCL Einheit" (eine Rolle, die Nvidia auch übernehmen kann) ausdehnen möchte, auch entweder "ARM+GPU", oder es ist AMD-abhängig. Durch einen Eintritt in die Alliance könnte Nvidia also nur eine AMD-Abhängigkeit hinzugewinnen und dass sie das nicht wollen, ist wohl nachvollziehbar. Und wenn man sich die aktuelle Situation AMDs an allen Märkten anguckt, dann muss man ganz klar sagen: HSA hat keinen Startbonus. Die fließende Übergang von x86 hat zwar potential, aber die derzeitigen x86-HSA-CPUs haben es nicht. Und Leute, denen dieser Bonus wirklich wichtig ist, landen vermutlich sowieso eher bei Phi. Nvidias Eigenbrödelei dagegen hat einen Bonus, nämlich die bereits vorhandene Verbreitung von CUDA.
Unterm Strich: HSA wäre für Nvidia ein zweischneidiges Schwert und Nvidia hat realistische Chancen, einen direkten Zweikampf mit HSA zu gewinnen -> die werden nicht mitmachen.
 

Skysnake

Lötkolbengott/-göttin
Ähm, du redest von allem, nur nicht von HSA. Vor allem gibt es noch gar keine wirklichen HSA Chips. Die kommen erst in der ersten Ausbaustufe mit Kabini (?) und dem gemeinsamen Adressraum von CPU und (i)GPU, wobei auch Cache-Kohärenz unterstützt wird. Alles andere würde ich noch nicht als eine HSA-Implementierung bezeichnen, da eben die entscheidende minimale Verzahnung fehlt.

HSA hat zum Ziel, das Code dynamisch auf CPU, GPU oder was auch immer ausgeführt wird. Mit dem heeren Fernziel, das man gar icht expliziet auf CPU oder GPU hin programmiert, sondern die Hardware selbst "erkennt" wo Sie den Code am Besten ausführt. Wird also zumindest Anfangs auf eine SEHR mächtige LLVM hinauslaufen.

Transparent to Software

An important key to the success of HSA is its ability to simplify the process of getting applications to run on the architecture. As seen in the past, it is not sufficient to ask application vendors to change their software to fit a new kind of hardware – that path leads to niche success at best. This is especially true for proprietary (non-standard) platforms. To reach the mainstream, it must be easy for everyone to participate. The HSA approach is simple: bring the hardware to the application programmer. HSA includes the hardware, interfaces, common intermediate language, and standard runtime components to do all the necessary work. HSA maintains memory coherency and manages work queues under the hood, without exposing the underlying system complexity to the application developer.
This means providing mainstream programming languages and libraries targeting HSA. This will provide a transparent path for millions of developers (along with their existing code) to directly benefit from the efficiencies of HSA. AMD is starting this process by delivering HSA optimized programming tools for today’s most widely available heterogeneous languages: OpenCL™ and C++ AMP. Going forward, AMD along with the HSAF members will expand the set of developer tools to encompass many other languages and libraries across multiple software domains and segments.
What is Heterogeneous System Architecture (HSA)? | AMD


und

Auch wird von der PGI (The Portland Group) geplant, einen entsprechenden HSA Compiler in Partnerschaft von AMD zu entwickeln, mit dem man ohne viel eigenes Zutun Programme kompilieren kann, die durch die HSA Erweiterungen beschleunigt werden
Heterogeneous System Architecture


Und genau das kann nVidia nicht wirklich machen, ohne bei HSA mit zu machen. Vor allem musst du aber mal sehen, das sich HSA praktisch zu einem "Industriestandard" entwickeln könnte. Es machen ja so ziemlich alle aus dem SFF Markt mit, und halt AMD. Die haben ja bereits heute den Entscheidenden Vorteil, dass Sie jedwede ARM-App auf ihren neuen Chips ausführen können. Das hört sich aktuell nicht toll an, aber wenn man bedenkt, das ARM immer wichtiger wird, und ARM auch in den Serverbereich drängt, dann sit das schon SEHR gut. Weil AMD praktisch in die Situation kommt, JEDWEDEN Code, den man ihnen Vorwirft zu fressen und aus zu führen. Das ist schon ziemlich ziemlich geil. Stell dir mal die Vorteile für den Endkunden und auch für Entwickler vor. Du schreibst für ne HSA Architektur ein Programm, und praktisch jedes Gerät auf dieser Welt kann es ausführen. (halt keine Intel, aber die sind im Vergleich zu den ganzen ARMs gar nicht mehr so groß...). Wenn jetzt noch MIPS dazu kommt, dann haste aber ne richtig üble Situation für nVidia, und ich gehe eigentlich davon aus, das MIPS früher oder später dazu stoßen wird, es sei denn Sie bekommen doch noch ihre GPUs gebacken....


nVidia geht ein wirklich sehr hohes Risiko damit ein, nicht bei HSA mit zu machen. Sie müssen eigentlich hoffen, das HSA ein Misserfolg wird, und/oder sich die Partner zerstreiten, und jemand wie Samsung oder Qualcomm aussteigt...
 
M

matty2580

Guest
Nvidia ist sehr gut aufgestellt.
Man vermarktet im Mainstream kleine Chips mit höheren Margen, und hat eine große Fanbase.
APUs, HSA, und was in der Richtung noch kommen wird, muss sich erst noch beweisen.

Es hatte ja einen Grund, warum man CPU und GPU getrennt hat.
Das modulare Konzept ist noch lange nicht am Ende. Es muss nur weiterentwickelt werden.

Ich mache mir da eher große Sorgen um AMD.
Zukunftsprojekte sind wichtig. Wichtig ist aber auch aktuell am Markt zu überleben, und nicht fortlaufend Geld zu verbrennen.
 

Locuza

Lötkolbengott/-göttin
Es hatte ja einen Grund, warum man CPU und GPU getrennt hat.
Das modulare Konzept ist noch lange nicht am Ende. Es muss nur weiterentwickelt werden.

Ich mache mir da eher große Sorgen um AMD.
Zukunftsprojekte sind wichtig. Wichtig ist aber auch aktuell am Markt zu überleben, und nicht fortlaufend Geld zu verbrennen.
Es hatte ja einen Grund, warum man früher mit Pferdekutschen gefahren ist.
Pferdekutschen sind noch lange nicht am Ende. :D

Das ganze Zeug wird immer mehr von unten drücken und das modulare Systeme ersetzen.
Um AMD mache ich mir aber dennoch natürlich Sorgen.
Sie schaffen es trotzt guter Produkte nicht sich zu verkaufen.
Wenn der Markt sie nicht annimmt, dann haben sie es natürlich extrem schwer.
Sie sind ja leider nirgendwo Marktführer und haben kein dominantes Standbein.

Schlechte Aussichten sich durchzusetzen und zu etablieren.
Ich könnte mir GCN und alles damit verbundene auch gut im SFF-Markt vorstellen, dann macht eben AMD eine HSA-APU mit ARM, aber dafür müsste man GCN auch stutzen und die Smartphone-Anbieter müssten den Soc auch schlucken.
Der Markt ist aber heftig umkämpft und jemand der schon ein Design hat, wird wohl kaum auf AMDs GPU IP einsteigen.

Nvidia hat dabei sehr gute Finanzen, Tegra wird irgendwann profitabel und sie werden ein weiteres Standbein haben.
CUDA wird immer weiter entwickelt und es sieht nicht so aus, als ob AMD richtig gut aufholt beim HPC- und Workstation-Markt, trotz das GCN ECC anbietet und gute Performance.
Ohne Treiber geht nichts und ohne Verkäufe kein Geld und ohne Geld keine großen Ressourcen für Treiberverbesserungen.
AMD steckt richtig heftig in Teufelskreisen.
 
Zuletzt bearbeitet:
M

matty2580

Guest
Es hatte ja einen Grund, warum man früher mit Pferdekutschen gefahren ist.
Pferdekutschen sind noch lange nicht am Ende. :D
Du weißt selbst, dass die Trennung von GPU und CPU auch Vorteile hat.
Der Vergleich mit den Pferdekutschen hinkt doch etwas. :P
Wichtig in dem Punkt ist nur, ob die Vor- die Nachteile überwiegen, oder umgedreht?

Sie schaffen es trotzt guter Produkte nicht sich zu verkaufen.
Das hat sich bei dedizierten GPUs mit dem aktuellen Gamebundle deutlich geändert.
Diesen Weg hätte man schon längst gehen müssen. Das ist ja kein neues Marketing, sondern ein alter Hut.
Und das man jetzt endlich mit Game-Entwicklern zusammenarbeitet, war auch überfällig.
Crysis 3, und Tress FX sind hoffentlich erst der Anfang dieser Entwicklung.
 

Skysnake

Lötkolbengott/-göttin
Der Vergleich hinkt bei weitem nicht...

Aber ein besserer:

"FPUs in die CPU zu integrieren war ein großer Fehler, man wird in Zukunft auch sehen, dass die wieder dedizierte Einheiten werden" :schief:

Das läuft aufs Gleiche drauf raus... Du vergisst, das es in der Vergangenheit noch NIE GPUs in der CPU gab, ohne das man DIE-Size, Power und I/O limited gewesen wäre... In der Zukunft wird sich die Priorisierung von den Limitierungen aber dramatisch verändern, und deswegen wird es absolut keinen Sinn mehr machen ab einem gewissen Punkt dedizierte GPUs zu verbauen, weil Sie einfach höllisch ineffizient sind.
 

Locuza

Lötkolbengott/-göttin
Du weißt selbst, dass die Trennung von GPU und CPU auch Vorteile hat.
Der Vergleich mit den Pferdekutschen hinkt doch etwas. :P
Wichtig in dem Punkt ist nur, ob die Vor- die Nachteile überwiegen, oder umgedreht?
Pferdekutschen produzieren kein CO² , aber ich denke dennoch nicht das sich deswegen die "Industrie" wieder darauf besinnen wird. :D

Die Vorteile einer Trennung sind Modularität und eine höhere Rohperformance.
Modularität ist toll, allerdings bringt es viele Nachteile mit sich und die meisten PC-Anwender scheren sich nicht viel darum, weswegen der Markt in Zukunft immer mehr davon verlieren wird.
Die stetig steigende Integrationsdichte wird auch dazu führen, dass APUs immer mehr klassische Systeme übernehmen können und eine dGPU als Beschleuniger kann man sich dennoch immer einbauen.

PS: Klar hinkt der Vergleich, war ja auch nur eine Hyperbel. :)

Das hat sich bei dedizierten GPUs mit dem aktuellen Gamebundle deutlich geändert.
Diesen Weg hätte man schon längst gehen müssen. Das ist ja kein neues Marketing, sondern ein alter Hut.
Und das man jetzt endlich mit Game-Entwicklern zusammenarbeitet, war auch überfällig.
Crysis 3, und Tress FX sind hoffentlich erst der Anfang dieser Entwicklung.
Nvidia hat es geschafft ohne Gamebundles und mit späterem Launch AMD ordentlich Marktanteile zu klauen.
Kepler hat ja auch keine überzeugenden Features gehabt, welche AMD nicht hatte, dass war in der Vergangenheit schon einmal anders und da stand AMD sogar besser da.
Ich habe echt keine Ahnung welche Magie AMD davon abhält GPUs zu verkaufen.
Wenn das Gamebundle hilft, dann sehr gut, aber es ist auch teuer.
Es ist Schade das AMD soviel zusätzlich hinterher werfen muss, damit sich der Käufer zu AMD bewegt.
 

Skysnake

Lötkolbengott/-göttin
Na so teuer ist das nicht. AMD kauft in gewaltigen Massen ein. MEhr als 10€ würde ich nicht pro Game für Sie erwarten
 
M

matty2580

Guest
Ich habe echt keine Ahnung welche Magie AMD davon abhält GPUs zu verkaufen.
Die Magie heißt Marketing, dass Nvidia viel geschickter einsetzt, als AMD bisher.
Skysnake hatte es einmal gut beschrieben. Nvidia hat sich erfolgreich ein Apple-Image aufgebaut.

APUs machten in Q3 2012 ca. 72,5% des Umsatz von AMD aus, 27,5% Bulldozer und K10.
Genauere Zahlen zum Absatz an einzelnen AMD-Prozessorenarchitekturen | 3DCenter.org
AMD ist also der klassische Desktop-Bereich weggebrochen. Was sich leider seid Monaten sehr negativ auf den Umsatz auswirkt.
http://www.3dcenter.org/news/amd-ge...-so-schwachen-zahlen-wie-seit-2009-nicht-mehr

Die Idee hinter HSA ist toll und hat viel Potential.
Aber erst mit den neuen Konsolen wird sich zeigen, ob sich HSA auch beim klassischen PC durchsetzen wird?

btt:
Volta mit 1 Terabyte pro Sekunde Anbindung an DRAM klingt toll.
Wobei ich, wenn Volta richtig auf den Roadmap eingetragen ist, eher auf 2017 tippen würde?

Maxwell würde dann auf Ende 2014, Anfang 2015 fallen.
 
Zuletzt bearbeitet:

OldboyX

Freizeitschrauber(in)
...
Es ist Schade das AMD soviel zusätzlich hinterher werfen muss, damit sich der Käufer zu AMD bewegt.

Eigentlich nur verständlich. Um Nvidia den Markennamenvorsprung abzugraben, müsste AMD erstmal so viel Kohle in die Hand nehmen, dass man garantiert gute 10 Jahre lang
a) kompromisslos in allen Preisbereichen die eindeutig bessere Preis/Leistung bietet und nicht nur ein paar Euro auf oder ab - das ist zu wenig für irgendwen um seine Marke zu wechseln
b) Single-GPU Flaggschiff bauen und ordentlich bewerben
c) fett ins OEM Geschäft einsteigen und sicherstellen, dass überall groß draufsteht "Graphics by AMD" (am besten hätte man sich das auch bei den Konsolendeals gesichert)
d) keynotes machen bei denen man allerhand Sachen zeigt und utopische Roadmaps vorlügt (dabei gehts nur darum, dass tage und wochenlang jede Hardwareseite Artikel dazu hat)

Das Problem ist beim Markt, dass man eben deutlich mehr tun muss als nur "ähnlich gut zu sein" wenn man einer gut etablierten Marke wirklich Kunden wegschnappen will. Kunden brauchen einen Grund das Lager zu wechseln und 5% Leistung auf oder ab bzw. 5% Preis auf oder ab wird da einfach nichts bringen.

Ein paar Dinge fängt man bei AMD an zu machen, aber vieles ist auch schief gelaufen. Mit der 4xxx Serie war man eigentlich gut dabei und hat sich gut Marktanteile erkämpft, aber bei der 5xxx die alle Trümpfe auf ihrer Seite hatte (früher released, eigentlich super attraktive Karte) hat man einiges vergeigt. Wafer shortage, oder der Glaube man könne jetzt schon fett "melken" hat dazu geführt, dass es die 5850 und 5870 nur sehr kurz zu guten Preisen gab. Hätte AMD es geschafft diese Karten die ganze Zeit bis Nvidia endlich nachlegen konnte für den Preis ausreichend anzubieten, der in den ersten zwei Wochen geboten wurde, dann hätte diese Serie riesiges Potential gehabt um Marktanteile zu gewinnen und die Marke AMD für Grafikkarten zu etablieren. Leider ging das nicht und die nachfolgenden Serien waren gerade im High-End nicht mehr so gut.
 
Oben Unten