GDDR6: Micron will HBM2 angreifen und schlagen

Ist doch noch alles Brandneu der HBM Krempel und noch in den Kinderschuhen. GDDR dagegen gibts ja schon ewig. Das wird noch viel besser werden, denke ich.
 
Ähnliche Geschichte bei DX12.
Es ist vollkommen in Ordnung wenn man die Erwartungen und möglichen Hype kritisiert, aktuell könnte man sich besonders im Ruhm sonnen, denn DX12 und HBM wurden viel zu optimistisch eingeschätzt (*hust sicherlich nicht von mir *hust* :redface:), jedenfalls zeitlich und von den ersten Implementierungen, aber technisch stehen die Argumente nach wie vor dar und werden sich durchsetzen

Directx12 wird sich unter Garantie niemals durchsetzen, schon gar nicht als Low Level Variante. DirectX x12 ist zum grossen Teil ein Rückschritt was die Einfachheit der Programmierung und den Aufwand betrifft. Hand Optimierungen für bald 3 GPU Hersteller, vergiss es, das wird niemand machen wollen.

Bisher lief jedes Directx12 Spiel entweder unruhig oder war von der Performance enttäuschend, ausser irgendwelche Techdemos wie Ashes of the Singularity.
Direct x 12 ist ein reiner Marketing Gag damit MS im Spiel bleibt.

Wird wie DirectX x10 und Directx8 quasi übersprungen, bis dann was gescheites kommt.

Nein, erster am Markt mit der neusten HBM-Generation war NVIDIA. Monate vor AMD.

Sogar über 1 Jahr, aber der G3cko phantasiert sich immer einen AMD Vorsprung zusammen, auch wenn er nicht existiert.
 
Zuletzt bearbeitet:
Wie ich es schon verlinkt hatte, hat HBM Vor-, aber auch Nachteile.
Und im letzten Absatz aus der 3dcenter-News steht ja auch drin, wie man die Nachteile von HBM umgehen könnte.
Obwohl Nvidia zuerst HBM im professionellen Bereich eingesetzt hat, könnte es so gar sein dass sie bei HBM4 wieder auf GDDR zurück wechseln.
Hier ist entscheidend was später im Verbrauch effektiver ist, GDDR oder HBM.
 
Ich würde mich da nicht festlegen wollen, denn GDDR wird genauso weiter existieren und weiterentwickelt werden.
HBM3 wird sich lange verzögern, bis dahin hat GDDR6 Zeit HBM2 zumindest theoretisch in der Leistung einzuholen.

Sofern dann noch später ODR hinzukommt, könnte es wieder spannend werden.
 
GDDR wird noch lange parallel zu HBM bestehen bleiben.
Und obwohl Nvidia zuerst HBM eingesetzt hat, sehen sie jetzt schon die Grenzen der Technologie, und bereiten sich darauf vor notfalls wieder zurück auf GDDR zu gehen.
 
Directx12 wird sich unter Garantie niemals durchsetzen, schon gar nicht als Low Level Variante. DirectX x12 ist zum grossen Teil ein Rückschritt was die Einfachheit der Programmierung und den Aufwand betrifft. Hand Optimierungen für bald 3 GPU Hersteller, vergiss es, das wird niemand machen wollen.

Bisher lief jedes Directx12 Spiel entweder unruhig oder war von der Performance enttäuschend, ausser irgendwelche Techdemos wie Ashes of the Singularity.
Direct x 12 ist ein reiner Marketing Gag damit MS im Spiel bleibt.

Wird wie DirectX x10 und Directx8 quasi übersprungen, bis dann was gescheites kommt.

Sogar über 1 Jahr, aber der G3cko phantasiert sich immer einen AMD Vorsprung zusammen, auch wenn er nicht existiert.
Das Thema hatten wir schon 10 mal, es ist immer das gleiche, als ob man mit Luft redet und imaginäre Argumente hervorbringt.
Ich wette mit jedem hier das man in 3 Jahren deutlich mehr DX12/Vulkan-Titel haben wird mit gravierenden Vorteilen.
DX11 Vanilla ist technisch betrachtet kümmerlich und profitiert von 10 Jahren an Optimierungen, dass schleift man aber nicht noch 10 weitere Jahre durch.
Und ein neuer API-Standard ist nicht in Sicht.

Und DX10 = DX11 - Tessellation und Compute Shader, die Grundlage ist die selbe, die Leute haben nur massiv Zeit beim Übergang gebraucht.

Wie ich es schon verlinkt hatte, hat HBM Vor-, aber auch Nachteile.
Und im letzten Absatz aus der 3dcenter-News steht ja auch drin, wie man die Nachteile von HBM umgehen könnte.
Obwohl Nvidia zuerst HBM im professionellen Bereich eingesetzt hat, könnte es so gar sein dass sie bei HBM4 wieder auf GDDR zurück wechseln.
Hier ist entscheidend was später im Verbrauch effektiver ist, GDDR oder HBM.
Das Thema hatten wir auch schon 100 mal, auch hier rede ich meistens mit der Luft.
Der einzige Weg die Nachteile zu umgehen ist ein völlig neuer/massiv verbesserter Speicherstandard, bisherige GDDR-Standards bieten da gar keinen Lösungsweg an.

Ich würde mich da nicht festlegen wollen, denn GDDR wird genauso weiter existieren und weiterentwickelt werden.
HBM3 wird sich lange verzögern, bis dahin hat GDDR6 Zeit HBM2 zumindest theoretisch in der Leistung einzuholen.

Sofern dann noch später ODR hinzukommt, könnte es wieder spannend werden.
Der technische Aufbau macht es unmöglich für GDDR im High-Speed-Bereich an HBM heranzureichen, wozu die unsinnigen Vergleiche?
Würdest du auch argumentieren das HDDs irgendwann die Geschwindigkeit von SSDs einholen, wenn du SSDs nicht mögen würdest?
Denn es liest sich wie eine persönliche Abneigung gegenüber HBM und DX12, als eine technisch fundierte Meinung.

GDDR wird noch lange parallel zu HBM bestehen bleiben.
Und obwohl Nvidia zuerst HBM eingesetzt hat, sehen sie jetzt schon die Grenzen der Technologie, und bereiten sich darauf vor notfalls wieder zurück auf GDDR zu gehen.
Tun sie nicht, wenn man fähig wäre die Folie richtig zu lesen und kein Unsinn interpretieren würde.
Wie will man zurück auf GDDR umsatteln, wenn laut Beispiel GDDR5 gar nicht bis zu diesem Bereich skalieren kann?
Traurig das die Column-Power beim HBM-Speicher bei der Bandbreitenskalierung heftig mehr Saft frisst, demgegenüber explodiert die I/O-Power beim GDDR5-Standard und wenn man die Folie als Argumentationsgrundlage nimmt, dann sollte man bitte doch auch die Bandbreite mit einbeziehen, die bei GDDR5 mit ~500GB/s angegeben werden bei ~70W vs. >3000GB/s bei HBM mit ~160W, auf die Bandbreite bezogen wäre indem Beispiel HBM drei mal effizienter.
Und Micron hat selber klar gemacht, dass die Effizienzvorteile von GDDR6 sich arg im Rahmen halten, entsprechend kann man die Bandbreitenkurve bei GDDR6 von mir aus verdoppeln, aber die Messlatte beim Verbrauch wird auch deutlich höher sein, über dem von HBM.

Von Nvidia gab es übrigens keine Aussage bezüglich irgendwelcher konkreten Pläne, warum also so tun, als ob?

Es wäre echt schön wenn der Spuk endlich mal ein Ende hätte und wir alle das Karussell verlassen könnten.
Das ewige Kreisen in Foren macht mich wahnsinnig.
 
Zuletzt bearbeitet:
Der Vergleich kommt doch nicht von mir, sondern von Nvidia selbst.
Und das Diagramm wurde von Nvidia noch einmal mit Emoticons verziert.

Unabhängig von der Bandbreite, und natürlich auch Vorteilen von HBM, ist für Nvidia hauptsächlich die Effizienz sehr wichtig, gerade im professionellen Bereich.
Deshalb haben sie sich ja die Mühe gemacht das beim Vortrag vorzustellen.

HBM aber auch GDDR haben Vor-, und Nachteile, und werden entsprechend eingesetzt.
 
Zuletzt bearbeitet:
Der Vergleich kommt von Nvidia, die angeblichen Pläne wieder auf GDDR zu setzen aber woher?

Die Folie stellt im Prinzip nur genauer die Verbrauchswerte von unterschiedlichen Standards dar und zeigt auf absehbare Zukunft Skalierungsprobleme selbst mit theoretisch 50% effizienteren HBM2-Speicher.
Nicht mehr und nicht weniger.
Daraus wird(wurde) aber Unsinn extrahiert, wie Nvidia ist ein HBM-Hasser, HBM ist nicht gut, GDDR ist eine bessere Alternative oder angebliche Pläne von Nvidia im Notfall wieder auf GDDR zu setzen.
Das gibt die Folie alles nicht her.
 
^^ Auf jeden Fall wollte man auf diesen möglichen Nachteil hinweisen.
Und es sieht auch nicht danach aus, dass man endlos begeistert von HBM ist, und grundsätzlich auf diese Technologie setzen will.
Sonst hätten sie sich diesen Vortrag auch locker sparen können.

Und welche Alternative hat denn Nvidia außer GDDR, wenn HBM nicht mehr die erste Wahl ist?
 
Es ist eine Eigenschaft, die HBM vor Skalierungsprobleme stellen wird, wenn man sich aber die anderen Standards davor ansieht, sieht man doch offensichtlich das die schon deutlich zuvor limitieren.
Aus dem Gesichtspunkt hat man aktuell gar keine Alternative, außer zu hoffen das irgendein neuer Standard oder eine Verbesserung in naher Zukunft existieren wird, die uns auf über 4TB/s bringen kann, ohne 200W zu fressen.
HBM kann es aus heutiger Sicht nicht, GDDR erst Recht nicht.
 
Zurück