HBM hat sich bisher leider nicht als Vorteil bewährt. // Das wird in diesem Thread oft behauptet.
Und das ist (mit Blick auf den Mainstream) auch korrekt, wenn auch nur indirekt. Die R9 Fury X konnte damals mit der GTX 980 Ti nicht mithalten und die RX Vega 64 lag nur in etwa auf den Niveau einer GTX 1080 (teilweise gar etwas darunter). Und seitdem verwendete AMD kein HBM mehr in Consumer-Designs. (
1) Die Karten hatten im Vergleich zu ihrer Konkurrenz jeweils das deutlich schnellere Speicherinterface (
2), was ihnen jedoch schlussendlich wenig nützte, da es an der Architektur und der Chipskalierung mangelte und entsprechend konnte HBM hier auch nicht sein volles Potential entfalten, ergo ist die Aussage mit Blick auf den Mainstream und Gaming auch zulässig und weitestgehend korrekt.
> "
1. die klar zukunfstweisendere Technik"
Technik muss im jeweiligen Kontext sinnvoll eingesetzt werden und wirtschaftlich sein. Schlicht nur das vermeintlich Beste um seiner selbst willen verbauen zu wollen ist dagegen unwirtschaftlich und daher auch in der freien Wirtschaft nur in Ausnahmefällen zu beobachten (bspw. einige Luxusartikel). HBM hat einige Vorteil, die es in bestimmten Anwendungsfällen zur ersten Wahl machen, trotz der höheren Kosten, aber eben nicht in allen. Hier wird dann weiterhin auf GDDR oder gar LPDDR und manchmal auch auf einfaches DDR gesetzt.
> "
2. selbst NV wird in ihrer Topkarte HMB2 verbauen. Wenn es keine Vorteile mit sich bringen würde, warum dann?"
Entweder setzt du hier auf falsche Informationen oder hast dich im Tempus vertan. nVidia's kleinere Ampere-Chips werden ausschließlich auf GDDR6(X) setzen nach aktuellem Kenntnisstand, d. h. Consumer-Karten und Quadro's werden ausschließlich GDDR verwenden. Einzig der GA100, der jedoch ein reines Datacenter-Produkt mit zusätzlich einer Auskopplung für HighEnd-Workstations darstellt, verfügt über ein HBM-Interface, wurde aber auch schon vor drei Monaten veröffentlicht (Vergangenheit
). (
3)
Und natürlich hat dieser Speicher in diesem konkreten Anwendungsfall Vorteile, jedoch sind die ebenso offensichtlich nicht auf im Consumer-Segment vertriebene Chips übertragbar (da wie allgemein üblich Kosten und Nutzen in ein Gleichgewicht gebracht werden müssen).
> "
3. wenn MS eine abgewandelte Form des HBCC in WIN10 implementieren wird (möglicherweise bedingt durch die neue Konsolengeneration)"
Das hat zum einen überhaupt nichts mit HBM zu tun und darüber hinaus handelt es sich hierbei um eine AMD-spezifische Funktionalität, die AMD zudem mit jedem beliebigen Speichertyp hätte realisieren können. Zudem vermute ich, dass du dich hier mit Microsoft's DirectStorage API vertust. Bei diesem geht es primär um eine direkte Kontrolle über den NVMe-Controller für die Steuerung multipler I/O-Ströme mitsamt Priorisierung und zur Verringerung von Latenzen.
Ob es hier mal auch so etwas wie eine Art "Cache" geben wird, ist unklar, auf der Xbox macht der jedoch zudem auch wenig Sinn, denn auf der Xbox gibt es nur einen Hauptspeicher (GDDR6) sowie den Massenspeicher (SSD). Ob MS ein etwaiges Caching in eines seiner DirectX-APIs packen will oder es doch lieber den Entwicklern direkt überlassen wird, wird man abwarten müssen. (
Solltest du zufälligerweise einige detailiertere Quellen zu etwaigen Plänen haben, bitte posten, würde mich interessieren.)
> "
4. HBM2 in Verbindung mit einem schnellen Speicherinterface reißt da schon ganz anständig was"
Zweifelsfrei, jedoch ein Formel-1-Wagen zum Brötchenholen im Stadtverkehr bringt auch wenig und kostet unverhältnismäßig mehr als jeder andere PKW. HBM nur um seiner selbst willen ist nicht sinnvoll und dementsprechend hat es nVidia bisher noch nie in Consumer-Produkten eingesetzt und AMD hat sich davon (anscheinend) wieder distanziert.
> "
Meine Meinung: Bei AMD kein HBM2 zu verbauen, mit so neuen und schnellen Karten, ist ein Rückschritt."
AMD ist da offensichtlich anderer Meinung. Im Wesentlichen dürfte es sich hier eher um einen "gefühlten Rückschritt" handeln, weil einige der verwendeten Speicherttechnik eine zu große Bedeutung beimessen. Dass die im Mainstream jedoch nur sekundär ist, hat nVidia in den letzten Jahre fortwährend demonstriert, also warum sollte AMD hier seine Marge unnötig beschneiden, nur um ein paar Enthusiasten ein Buzzword mitgeben zu können?
Wenn ein BigNavi 18 Gbps-GDDR6 nutzt, wären das mit 12 BGAs bereits 864 GiB/s und mit 16 BGAs gar 1152 GiB/s, also im Vergleich zu Navi 10 +93 % oder gar +157 % mehr Speicherbandbreite. Selbst ersteres würde bei einer gut ausgelegten GPU-Architektur mehr als genügend Bandbreite für Gaming bieten (auch in 4K).
(
1) Die Radeon VII war kein Consumer-Design, sondern Vega 20 wurde explizit für die Instinct-Beschleuniger (Datacenter only) entwickelt. Bei der Radeon VII handelt es sich lediglich um eine kurzfristige Auskopplung der Instinct MI50 mit identischem Chip und nahezu unverändertem PCB und war daher für dieses Marktsegment viel zu teuer. (Ggf. blieb AMD auf zu vielen Karten sitzen, denn die MI60/50 hat sich nicht übermäßig im Markt verbreitet trotz auf dem Papier guter Leistungsdaten.)
(
2) Beispielsweise die R9 Fury X lieferte rd. 512 GiB/s in 2015, die GTX 980 Ti hatte dagegen nur 337 GiB/s und dennoch half der AMD-Karte der um +52 % schnellere Speicher nichts mit Blick auf die Gesamtleistung. Noch eklatanter wird der Unterschied bei der Radeon VII, die sich typischerweise bestenfalls mit einer RTX 2080 messen kann. Ihre Bandbreite ist um +128 % höher, was für den Mainstream-typischen Gaming-Workload jedoch offensichtlich keine Rolle spielt. Hier bleibt am Ende nur der größere Speicher als effektiver Zugewinn. (Selbst in 4K konnte sich die VII nicht wirklich gegen die nVidia-Karte behaupten.)
(
3) Hinzu kommt hierbei noch, dass dies Produkte im Bereich um die 10.000 US$ sind (die PCIe-Karte, als leistungsfähigere SXM4 wohl noch mehr), d. h. die Kosten für HBM spielen hier nur eine untergeordnete Rolle.