GDDR6: Micron will HBM2 angreifen und schlagen

beziehen sich die "15% weniger" auf dein Bild und GDDR6 vs GDDR5?
Ja, bei 14 Gbps (GDDR6) vs. 8 Gbps (GDDR5) benötigt GDDR6 pro übertragenen Bit nur 15% weniger Energie, insgesamt ist die Leistungsaufnahme bei dem Beispiel dennoch 50% höher für die GDDR6 Konfiguration.
Es hilft in Fällen wo die Leistungsaufnahme limitiert also nicht wirklich viel, wenn der Speicher über zwei mal soviel Bandbreite liefern könnte, aber nur ~15% effizienter ist, entsprechend erreicht man nie und nimmer eine Verbesserung von Faktor 2, sondern maximal die 15%.
Indem Fall macht es aber einem das Design einfacher, wenn man für die gleiche Bandbreite nur ein halb so breites Interface benötigt.
 
Ja, bei 14 Gbps (GDDR6) vs. 8 Gbps (GDDR5) benötigt GDDR6 pro übertragenen Bit nur 15% weniger Energie, insgesamt ist die Leistungsaufnahme bei dem Beispiel dennoch 50% höher für die GDDR6 Konfiguration.
Es hilft in Fällen wo die Leistungsaufnahme limitiert also nicht wirklich viel, wenn der Speicher über zwei mal soviel Bandbreite liefern könnte, aber nur ~15% effizienter ist, entsprechend erreicht man nie und nimmer eine Verbesserung von Faktor 2, sondern maximal die 15%.
Indem Fall macht es aber einem das Design einfacher, wenn man für die gleiche Bandbreite nur ein halb so breites Interface benötigt.
Wie verhält sich der Verbrauch zwischen 1 GByte vs 2 GByte Chip? Da gibts doch bestimmt auch nochmal vorteile ggü GDDR5(X).
 
Um es mal mit den Worten der NV-Fanboys zu sagen:
Ich hab mit HBM2 die Bandbreite schon seit 1 Jahr und nicht erst 2019.

Bei 1100 MHz HBM2 hat meine Vega 64 knapp 563GB/s Speicherdurchsatz. Und ich glaube das geht noch mehr.
 
Wie verhält sich der Verbrauch zwischen 1 GByte vs 2 GByte Chip? Da gibts doch bestimmt auch nochmal vorteile ggü GDDR5(X).
Der Verbrauch hängt zu 99% von der Leitung und der Frequenz ab, die Speichergröße hat praktisch keine Relevanz.
Bezüglich GDDR5X sieht der Standard auch 2GB große Chips vor, bei GDDR6 aktuell bis zu 4GB.
Sowohl GDDR5X, als auch GDDR6 spezifizieren darüber hinaus noch "krumme" Speicherbestückungen, sprich es ist laut Standard auch möglich 1,5GB oder 3GB an einer 32-Bit Leitung anzuschließen, damit wären bei 256-Bit wie bei einem GP104 auch 12 oder 24GB Speicher möglich.
Es hängt aber natürlich davon ab was in der realen Welt gebaut und verkauft wird, wenn kein Speicherhersteller "krumme" Bausteine anbietet gibt es auch nicht die Option dafür.
 
Sowohl GDDR5X, als auch GDDR6 spezifizieren darüber hinaus noch "krumme" Speicherbestückungen, sprich es ist laut Standard auch möglich 1,5GB oder 3GB an einer 32-Bit Leitung anzuschließen, damit wären bei 256-Bit wie bei einem GP104 auch 12 oder

weiß man eig was im Hynix Nvidia Vertrag bezüglich GDDR6 steht?

vllt hamm se auch 1,5GB Chips bestellt, damit se an nem 256Bit Interface 12Gb hamm können

damit 2080 mehr Ram hat als 1080Ti aber auch nicht zu viel
 
Zuletzt bearbeitet:
Indem Fall macht es aber einem das Design einfacher, wenn man für die gleiche Bandbreite nur ein halb so breites Interface benötigt.

Und den Punkt muss man halt bei aller Theorie noch mit einrechnen und hab so das Gefühl (genaue Werte gibts ja nicht) dass der HBM von GP100 den Chip nicht sparsamer macht als auf dem GP102.
Und der HBM2 bei Vega relativ ineffizient ist, da man Performance/Watt mäßig nichts auf Polaris drauflegt, zudem sich die ASIC vom Gesamtverbrauch der Karte schon deutlich unterscheidet.
 
Und AMD und Nvidia haben beide ungefähr einen Perf/Watt Vorsprung von Faktor 3 angegeben

Ja die geben viel an, wenn der Tag lang wird, dennoch sehe ich HBM2 insgesamt nicht wirklich im Vorteil gegenüber GDDR6.
Die fehlende Flexibilität und der höhere Preis verhindern einen breiten Einsatz von HBM2 und vermutlich auch die Bandbreite, weil man hier bei Gaminglösungen nicht mehr mit GDDR6 begrenzt sein wird.
Den Löwenanteil zieht das Speicherinterface und wenn man das mit 256bit schlank hält, rechnet sich wohl für einige Profi u. Gamingkarten auf die nächsten Jahre wohl kein HBM2 Einsatz.
Die Schere was Bandbreite angeht geht dann spätestens mit HBM4 sehr weit zu GDDR6 auseinander, die Frage die ich nur stelle ist: Wie will man das auf geringsten Raum noch zuverlässig kühlen?

Und dann kommt wieder der theoretische max Bullshit, wo man 20 Gbps unter spezifischen Laborbedingungen mit einem 512-Bit Interface verrechnet = 1280 GB/s.

Naja, GDDR6 mit 8000MHz @ 512Bit SI würde 1024 GB/s schaffen, selbst mit einem 384Bit SI kommt man theoretisch an ein TB/s heran.
Wer weiß was sich in Zukunft hier noch tun wird und wie man Wege findet die Leistungsaufnahme des Speicherinterfaces zu beschränken, oder ob man auf Octa-Data-Rate geht.

Die Bandbreite schießt mit HBM3 vielleicht mit geschätzt 1500MHz mit 8192bit und ~3TB/s durch die Decke, aber mit HBM2 geht nicht mehr wirklich viel mehr und trotzdem geht der Verbrauch deutlich hoch.
Wir erinnern uns nochmal an diese Folie hier:

nVidia-Looming-Memory-Power-Crisis.jpg


Die Frage ist wer will 160 Watt Energiebudget für HBM 3 Speicher ansetzen?
In einem Rahmen von 250 bis 300 Watt, wird das sicherlich niemand für eine GPU für sinnvoll erachten.
Also was bringt HBM2 heute großartig gegenüber GDDR6 und wird man HBM3 dann noch kühlen können oder muss man sich nicht wieder eine neue Technologie überlegen, die deutlich sparsamer zu Werke geht?
Die Frage ist, ob sich das auf das ganze Energiebudget gerechnet lohnt?
 
Zuletzt bearbeitet:
Mittlerweile ist GDDR6 auch von der Effizienz fast schon an HBM2 dran, GDDR6 soll nochmals mit niedrigeren Spannungen arbeiten und somit den Strombedarf nochmals bei gleicher Bandbreite zu früher senken.
Zudem sind nun Kombinationen mit kleinem 128bit Interface und dem neuen Speicher möglich, theoretisch auch bei der Mittelklasse.

Mit einem 512bit Interface und vollen 20GB/sec ist HBM2 klar in der Bandbreite geschlagen.

Soll, könnte, würde, wäre, fast, irgendwann.
 
Ja, ich weiß, weil es AMD mitentwickelt hat? Das ist doch der Grund.
HBM 2 ist weder aus Sicht der Bandbreite, noch aus Sicht der Kosten lohnenswert.
Mittlerweile ist GDDR6 auch von der Effizienz fast schon an HBM2 dran, GDDR6 soll nochmals mit niedrigeren Spannungen arbeiten und somit den Strombedarf nochmals bei gleicher Bandbreite zu früher senken.
Zudem sind nun Kombinationen mit kleinem 128bit Interface und dem neuen Speicher möglich, theoretisch auch bei der Mittelklasse.

Mit einem 512bit Interface und vollen 20GB/sec ist HBM2 klar in der Bandbreite geschlagen.

Wenn ich einen Thread einsteige und auf den ersten Beitrag von Schaffe stoße, denke ich manchmal: oh, das wird amüsant, Schaffe ist wieder am Start. Was haut er jetzt wohl wieder raus?

Ich hätte ja wirklich nicht gedacht, dass du dich noch steigern kannst. Was soll ich sagen? Hast es geschafft. Beachtlich!
 
Man will doch bei HBM eher die Bandbreite erhöhen als den Takt anzuheben oder? Dann steigt der Stromverbrauch auch nicht.
 
Wenn ich einen Thread einsteige und auf den ersten Beitrag von Schaffe stoße, denke ich manchmal: oh, das wird amüsant, Schaffe ist wieder am Start. Was haut er jetzt wohl wieder raus?

Das denke ich mir bei jedem deiner Beiträge,Games werden ganz bald so und so viele Kerne unterstützen, ganz genauso.:rollen:
Die 20 Watt was HBM2 gegenüber GDDR6 bei ~512 GB/s noch einsparen mag, sind ja ganz toll, aber gerechnet auf den Gesamtverbrauch einer High End Karte sind das sicher nicht mal 10%.
AMD gab ähnliches auf ihrer Präsentation an, wo sie 4GB HBM und 4GB DDR5 verglichen, da waren es bei gleicher GDDR5 Konfiguration auch unter 10% Einsparung auf die komplette Karte gerechnet.
 
Zuletzt bearbeitet:
Inhaltlose Phrasen kommen doch meistens nur von dir.:schief:
Aber klar, HBM ist ja so geil, weil es von AMD kommt.:P

What? Er sagt doch gar nichts von wegen AMD?!?! Kannst du mal aufhören anderen Leuten irgend etwas in den Mund zu legen was sie gar nicht gesagt haben. Du nervst.

In jedem Thema machst du eine unnötige Überleitung zu Intel vs AMD und Nvidia vs AMD obwohl davon überhaupt keine Rede war.

Und überhaupt solltest du mit deinen ganzen Vorhersagen vorsichtiger sein. Meistens liegst du ja ziemlich daneben.

Ich erinnere daran wie du vor einiger Zeit behauptet hast Pascal wird längst nicht mehr produziert (seit Ende 2017) und im April würden die neuen Karten von Nvidia kommen. Das wüsstest du aus einer sicheren Quelle. Haha...

und die benötigte Energie zieht HBM aus dem Ether oder was

Was? Ein größeres Speicherinterface bei geringerem Speichertakt ergibt weniger Stromverbrauch. Oder habe ich da jetzt einen Denkfehler?
 
Zuletzt bearbeitet:
What? Er sagt doch gar nichts von wegen AMD?!?! Kannst du mal aufhören anderen Leuten irgend etwas in den Mund zu legen was sie gar nicht gesagt haben. Du nervst.

Natürlich sagt er das nicht, deswegen auch der Smiley, aber sry ich lasse mich nicht so dumm von der Seite anmachen, weil ihr euch wieder in eurer AMD Ehre angetastet fühlt.:)
Mir ist es völlig egal welche Speichertechnologie auf meine nächste Grafikkarte kommt und wenn er mich schon so persönlich anquatscht, dann werde ich wohl einen Scherz machen dürfen.

In jedem Thema machst du eine unnötige Überleitung zu Intel vs AMD und Nvidia vs AMD obwohl davon überhaupt keine Rede war.

Ich hab überhaupt nicht eine Überleitung zu AMD vs Nvidia gemacht, sondern er.

Andere Leute in vielen News konstant belehren und dann solche inhaltslosen Phrasen raushauen. Pfff...
Genauso viel heiße Luft wie die Titan V die aus deiner Signatur verschwunden ist:devil:
Wurde bestimmt verkauft... Bla ba...

20 Cent ins Phrasenschweinchen, was mein Kaufverhalten angeht, joa, soll er sich doch aufregen, aber hier ist das OT.

Und überhaupt solltest du mit deinen ganzen Vorhersagen vorsichtiger sein. Meistens liegst du ja ziemlich daneben.

Ich sprach im Prinzip nur von HBM2 in der ursprünglichen Aussage.:rollen:
Und ja ich denke dass sich GDDR6 und Nachfolger dessen, aufgrund Kostengründen, Flexibilität und dem nicht ständig ansteigenden Hunger nach mehr Bandbreite, außerhalb des Profi-Segments noch länger als erste Wahl halten werden.
Und es darf bezweifelt werden dass HBM mittelfristig die "bessere" Speichertechnologie für den Massenmarkt sein wird und es überhaupt irgendeinen tiefergehenden Sinn ergeben hat, dass AMD dort verfrüht eingestiegen ist.

Ich erinnere daran wie du vor einiger Zeit behauptet hast Pascal wird längst nicht mehr produziert (seit Ende 2017)

Hab ich nie behauptet, wenn dann wurden GP102 Bestellungen nicht mehr angenommen.

und im April würden die neuen Karten von Nvidia kommen. Das wüsstest du aus einer sicheren Quelle. Haha...

Zeig mir mal meine Aussage diesbezüglich, da bin ich gespannt.:)
 
Ich hab überhaupt nicht eine Überleitung zu AMD vs Nvidia gemacht, sondern er.

??? Geh weg. In meinem ganzen Post ist nicht einmal das Wort AMD zu finden und erst Recht keine Äußerung zum Thema Nvidia vs AMD.

Frechheit. Das ist wieder glatt gelogen!

Und das mit dem Launch der neuen Karten im April hast du wirklich behauptet:

März bzw April war schon immer für den Launch angepeilt. Seit November gibt es keine neuen Bestellungen für GP102 mehr und die Partner bereiten sich schon länger auf Ampere vor, das war zumindest das was man schon hätte mitbekommen können.

Naja, jemand der 3x 1080, 4x1070, 1x RX Vega 64, 1x RX 480, 1x R9 Fury, 2x1080 Ti und eine Titan V besitzt weiß sowieso alles. Ja ich zähle immer noch mit:lol:

Und auf den Youtoube Channel dazu warte ich auch noch:devil:

Egal, du solltest dir mal überlegen warum du in jedem zweiten Thema bei irgend jemanden aneckst. Es liegt ja bekanntlich immer an den anderen.

Anstacheln und anderen dann die Schuld zuschieben. Sowas kann ich gar nicht ab.
 
Zuletzt bearbeitet:
Zurück