Geforce RTX 3080: Neues Renderbild zum Leak mit HBM-Speicher

Knapp 27$ kostet 1GiB GDDR6 bei 14gbps, dann kannst du dir vorstellen was 18 oder 20 kostet. Vermutlich nimmt sich das mit HBM nichts, aber so einfach ist das nicht weil die große Stückzahlen abnehmen und du für HBM ja den Interposer brauchst (jedenfalls bisher) und einen MC der damit umgehen kann.

Edit sagt: ...Hinweis am Rande, denkt daran was die Moderation geschrieben hat, ihr/wir sollt/sollen themenlose Disput's per PN/PM klären, sonst gibt es ab sofort Punkte. Muss nicht sein.

Von wo stammen diese Fantasie-Zahlen?
27$/GB?
Poste mal einen Link ich bin schon gespannt.
 
Knapp 27$ kostet 1GiB GDDR6 bei 14gbps, dann kannst du dir vorstellen was 18 oder 20 kostet. Vermutlich nimmt sich das mit HBM nichts, aber so einfach ist das nicht weil die große Stückzahlen abnehmen und du für HBM ja den Interposer brauchst (jedenfalls bisher) und einen MC der damit umgehen kann.

Edit sagt: ...Hinweis am Rande, denkt daran was die Moderation geschrieben hat, ihr/wir sollt/sollen themenlose Disput's per PN/PM klären, sonst gibt es ab sofort Punkte. Muss nicht sein.

Wie kommst du auf 27$?
1 GiB GDDR6 (14 gbps) kostete Anfang 2019 "nur" 11,69$.
Heute dürfte er sogar (wesentlich) günstiger sein, wenn z.B. bereits die PS5 16GB davon haben wird, denn sonst würde die Konsole ja alleine wegen ihrem RAM schon über 400$ kosten...
 
Das mit der PS5 / XBox ging mir auch gerade durch den Kopf.
Da würden alleine die 16GB bereits 432$ kosten.

Das sieht für Grossabnehmer wie Sony, Asus etc. wohl eher in etwa so aus: 16 x 11.7$ = 187$ - (Die Handelsüblichen 40% Rabatt für Großabnehmer +/-) --> = 112$ (GDDR6X oder 18gbps darf es auch noch etwas mehr sein )
 
hatte die Bilder ja schon am Do. gepostet mit einem anderen noch dazu.
Jedenfalls ergibt es mehr Sinn, als die komische Seite wo verlinkt wurde, wo die 3060 6GB hatte und die 3070 8. und die 3080 8.
Hier hat ja die 3070 12GB und somit wäre wahrscheinlich diese Karte "Der Verkaufsschlager" denn die wird die die Leistung einer 2080ti haben, oder leicht überholen.
Die 3080ti mit 16GB, wäre auch wie erwartet locker an der Spitze. Auch vom Preis her denke ich mal.
 
Zuletzt bearbeitet:
Das mit der PS5 / XBox ging mir auch gerade durch den Kopf.
Da würden alleine die 16GB bereits 432$ kosten.

Das sieht für Grossabnehmer wie Sony, Asus etc. wohl eher in etwa so aus: 16 x 11.7$ = 187$ - (Die Handelsüblichen 40% Rabatt für Großabnehmer +/-) --> = 112$ (GDDR6X oder 18gbps darf es auch noch etwas mehr sein )
Und wer verlötet den? Du? Das sind die Preise für ein Speichersystem im Vergleich mit Vega und Nv. Also nochmal! 165-175$ inklusive Interposer Package usw., der Rest kostet 45$ und dann kommt die GPU dazu. Welche Rabatte AMD oder Nv als Großabnehmer bekommen ist unklar, hängt aber von der Bestellung ab.

Dazu gibt es keinen Link. Und ja das Speichersystem kann gut und gerne die Hälfte der Kosten ausmachen. Dazu wurden 4 Hersteller befragt, die ähnliche Kosten angaben. AMD lieferte soweit ich weiß bei der Xbox Chipsatz und APU inklusive Subsystem für um 100$.

Also das ganze Gesülze HBM wäre doch so teuer ist einfach nur ein *urz. Eher ist er kaum zu bekommen, wenn Datacenter rapide wächst und da für's Gaming auch GDDR Alternativen reichen, nimmt man halt den.

Und was handelsüblich angeht ist das nicht handelsüblich was Nv oder AMD zahlen müssen, sondern die Partner. Die großen bekommen gesonderte Deals. Und das soll's zu dem Thema auch gewesen sein.
 
Zuletzt bearbeitet von einem Moderator:
hatte die Bilder ja schon am Do. gepostet mit einem anderen noch dazu.
Jedenfalls ergibt es mehr Sinn, als die komische Seite wo verlinkt wurde, wo die 3060 6GB hatte und die 3070 8. und die 3080 8.
Hier hat ja die 3070 12GB und somit wäre wahrscheinlich diese Karte "Der Verkaufsschlager" denn die wird die die Leistung einer 2080ti haben, oder leicht überholen.
Die 3080ti mit 16GB, wäre auch wie erwartet locker an der Spitze. Auch vom Preis her denke ich mal.

dachte, da kommt noch eine 3090 auf den Markt ? die Titan wird vermutlich wieder hochpreisig ausfallen ?
 
Und wer verlötet den? Du? Das sind die Preise für ein Speichersystem im Vergleich mit Vega und Nv. Also nochmal! 165-175$ inklusive Interposer Package usw., der Rest kostet 45$ und dann kommt die GPU dazu. Welche Rabatte AMD oder Nv als Großabnehmer bekommen ist unklar, hängt aber von der Bestellung ab.

Dazu gibt es keinen Link. Und ja das Speichersystem kann gut und gerne die Hälfte der Kosten ausmachen. Dazu wurden 4 Hersteller befragt, die ähnliche Kosten angaben. AMD lieferte soweit ich weiß bei der Xbox Chipsatz und APU inklusive Subsystem für um 100$.

Also das ganze Gesülze HBM wäre doch so teuer ist einfach nur ein *urz. Eher ist er kaum zu bekommen, wenn Datacenter rapide wächst und da für's Gaming auch GDDR Alternativen reichen, nimmt man halt den.

Und was handelsüblich angeht ist das nicht handelsüblich was Nv oder AMD zahlen müssen, sondern die Partner. Die großen bekommen gesonderte Deals. Und das soll's zu dem Thema auch gewesen sein.

Eigentlich bin ich wohl einer der wenigen, der bei den meisten Punkten ganz bei dir ist und ebenfalls behauptet das die gleiche Menge HBM2 wohl nur marginal teurer als GDDR6 ist. Wenn man es jetzt noch mit GDDR6X oder 18 Gbps vergleicht wird die Preisdifferenz wohl nur noch relativ gering sein.

Das einzige was ich in Frage gestellt habe sind die 27$/GB GDDR6 weil die sich wohl auf Zahlen von 2018: Hardware- und Nachrichten-Links des 11. Juli 2018 | 3DCenter.org beziehen.
"ergo dürften sehr erhebliche Rabatte im Spiel sein – sicherlich bezahlen Grafikchip-Entwickler und Grafikkarten-Hersteller nur die Hälfte (oder gar weniger) der Preise bei Digi-Key."

Bezüglich der Rabatte hast du natürlich recht das hängt entscheidend von der Ordermenge ab und hätte, obwohl ich +/- 40% geschrieben habe besser nur deutliche Rabatte geschrieben weil so wirklich ohne insider-Wissen kann diese Frage wohl Niemand beantworten.

Ach ja, Interposer and packaging should be $25 (laut veralteten Informationen von 2017 kann daher heute natürlich differieren)

Dann wäre da noch Micron das ebenfalls dieses Jahr mit der Produktion von HBM2 beginnen wird und sich somit ein dritter Player am Spiel beteiligt, dies sollte dem Preis eigentlich auch förderlich sein.

Daher finde ich es wirklich schade das wohl NVIDIA wie auch AMD wohl bei den Gaming-Karten wohl nur auf GDDR6 setzen werden.

HBM2 = deutlich geringerer Die Size, geringere Energieaufnahme, deutlich grössere Speicherbandbreite und damit verbundener Leistungsseigerung.
Der geringere Die Size den man nicht unterschätzen sollte, kann man dann entweder bei gleichbleibender Fläche zur Leistungssteigerung (mehr Shader) oder bei geringerer Fläche zur Kostenersparnis verwenden.

Daher ist es mir unbegreiflich. Gut NVIDIA traut es sich anscheinend auch ohne HBM zu die Performance-Krone erringen zu können.
Aber gerade bei AMD hätten sie die Möglichkeit, mit diesem Husarenstück seit gefühlt einer ewigen Zeit wieder die Krone zu übernehmen.

Aber warten wir es mal ab, die Würfel sind noch nicht gefallen., aber zur Zeit deutet nicht viel auf die Verwendung von HBM hin.



 
Zuletzt bearbeitet:
dachte, da kommt noch eine 3090 auf den Markt ? die Titan wird vermutlich wieder hochpreisig ausfallen ?

Entschuldige wenn ich mal ein wenig OT betreibe aber was genau bist du? Ein moderner BOT? Ich hab mir mal deine Beiträge angesehen und hier dreht es sich eigentlich immer um das gleiche: ich kaufe mir die 3080, ich kaufe die 3090, weiß man schon wann die 3090 kommt? Hat die 3090 schon ein Releasedatum? Ich kaufe mir die 3090 will 4K spielen, Hoffe die 3090 kann in 4K alles, Gibt es schon News zur 3090? Hoffe die 3090 kommt mit 24 GB Speicher! Ich kaufe mir die 3090, Ich kaufe mir die 3090, Ich kaufe mir die 3090!

Und vor ein paar Monaten war das ganze auch von dir mit der 2080TI. Ich kann deine Freude auf die nächste Karte verstehen aber wenn immer die gleichen Texte kommen bin ich mir nicht sicher ob da nicht ein Mitarbeiter dahinter steht der einfach Adwords betreibt^^ Denn ich wüsste auch nicht was man dir auf die immer wieden gleichen Fragen oder Wortfetzen antworten sollte^^

@Sandworm ich habe auch bis Heute keinen Vorteil bei HBM feststellen können. Ich wüsste nun nicht was mir dieser für einen super Vorteil gebracht hätte bei meiner Vega64 damals und der Vorteil das es auf den Arbeitsspeicher auch zugreifen kann wenn es eng wird gibt es sogar weniger Spiele oder Programme als RT Games, also kann ich dem nachtrauern hier absolut nicht nachkommen.
 
Zuletzt bearbeitet von einem Moderator:
Aber warten wir es mal ab, die Würfel sind noch nicht gefallen., aber zur Zeit deutet nicht viel auf die Verwendung von HBM hin.
Ja o.k. ich gebe zu, ich bin nicht immer einfach und habe auch meine Macken. Meine es aber nicht so. Halt gerade heraus, was ich besser finde.

Ich bin was die Flächenverhältnisse angeht, anderer Meinung, denn gerade weil Nv deutlich wächst ist HBM vllt. die beste Option. Man hatte schon beim GT102 gewisse Probleme plane zu sein. Vor allem auf einem üblichen PCB Formfaktor kann es bei großen GPU's (Diesize) da viele Schwachstellen geben, oder es kostet immens.

Was man sich vllt. sparen könnte, wäre Backdrill dessen zusätzliche Arbeitsschritte nicht nur Geld kosten, sondern auch Zeit. Übrigens braucht man Backdrill nicht nur, um einfach störende Interferencen zu beseitigen (wie Igor bekannterweise ausführte), denn es gibt dbzgl. einen kausalen Zusammenhang bei der Auslegung der Platinendicke. Erst wenn diese ein bestimmtes Maß überschreitet, können Stubs zu unerwünschten Induktivitäts-/Kapazitäts-/Impedanzstörungen führen die die Signalintegrität negativ beeinflussen und dann muss man sich langsam fragen, ob GDDR da noch die richtige Wahl ist und die Kosten mal gegenrechnen. Nur für dessen Verwendung, müsste man nämlich einen erheblichen Mehraufwand betreiben (Material und Arbeitsschritte), der bei Nutzung von HBM vllt. sogar geringer ausfällt und die PCB sowie Fertigungskosten senken könnte.
 
Moin,

ich hab mal durchgewischt. ;)

Kurze Anmerkung zur News-Kritik. Bereits im Startpost steht:
Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Gruß
Pain
 
Okay, nun wird ein Kommentar darüber, wie unsinnig diese News ist, gelöscht?

Nun wird hier also alles, was negativ für PCGH/Computec sein könnte, zensiert?

Wunderbar, macht Euch selbst noch angreifbarer, ab sofort werde ich auch das Heft nicht mehr kaufen.
 
@Jukko unsinnig ist immer eine Ansichtssache. Der eine fängt was mit News an, für den anderen sind es sein tägliches Brot und dann gibt es welche die interessieren sich nicht dafür muss man sich doch nicht aufregen oder? Dann liest man es halt nicht zu ende und gut ist es.
 
Er hat es doch extra dazu geschrieben:
Wenn du eine Kritik zu der News äussern willst, dann mach das hier [Feedback-Thread] Kritik/Fragen/Anregungen zu Artikeln auf www.pcgameshardware.de


Das Problem an dieser Art und Weise ist, dass nur ein absoluter Bruchteil der User dort vorbeischaut und dementsprechend auch absolut angebrachte Kritik sieht, da viele nicht extra bewusst in den Kritikthread zum Lesen gehen. Wenn jemand dort vorbeischaut, dann um selbst Kritik zu üben (oder weil er/sie ein Mod ist).

Man lässt also zwar grundsätzlich Kritik zu, verschiebt diese aber von vornherein so, dass sie kaum einer zu Gesicht bekommt. Das ist eine ganz simple Manipulation um selbst möglichst gut darzustehen und Kritik eher auszublenden.

Gibt es eigentlich auch einen Lob-Thread und wird ansonsten jedes Lob, dass nicht dort erscheint, kommentarlos gelöscht? Ist nur ne kleine Denksportaufgabe. ;)
 
Oh BITTE, ist das dein Ernst?
Kein Mod der Welt löscht dein Posting wenn du MAL sagst dass du was doof findest.
Wenn du den Threadfluss störst, weil du nicht aufhörst zu meckern, ist das eine ganz andere Sache.

Der Kritikthread ist insofern sinnvoll, dass das Forum dort konstruktive Kritik sammeln kann, ohne quer durch das ganze Forum suchen zu müssen.
Warum sollten sie auch den Usern hinterher rennen, wenn du willst dass sich was ändert, poste dort. Ganz einfach.
Zumal du nicht der Nabel der Welt bist und nicht jeder, den das derzeitige Thema interessiert, dein Genöle lesen will.

Und warum positives Verhalten nicht sanktioniert wird, negatives aber schon, ist eine kleine Denksportaufgabe für DICH.
Können wir dann wieder zum Thema zurückkommen?
 
  • Like
Reaktionen: Ion
Oh BITTE, ist das dein Ernst?
Kein Mod der Welt löscht dein Posting wenn du MAL sagst dass du was doof findest.
Wenn du den Threadfluss störst, weil du nicht aufhörst zu meckern, ist das eine ganz andere Sache.

Der Kritikthread ist insofern sinnvoll, dass das Forum dort konstruktive Kritik sammeln kann, ohne quer durch das ganze Forum suchen zu müssen.
Warum sollten sie auch den Usern hinterher rennen, wenn du willst dass sich was ändert, poste dort. Ganz einfach.
Zumal du nicht der Nabel der Welt bist und nicht jeder, den das derzeitige Thema interessiert, dein Genöle lesen will.

Und warum positives Verhalten nicht sanktioniert wird, negatives aber schon, ist eine kleine Denksportaufgabe für DICH.
Können wir dann wieder zum Thema zurückkommen?


Ich habe den Fluss hier nicht gestört, denn der besagte Kommentar war der hier allererste. Jegliche Diskussion danach hatte wenig mit meinem Kommentar zu tun. Gelöscht wurde dieser erst, nachdem hier einer meinte sich aufregen zu müssen (dessen Kommentare übrigens komplett gelöscht wurden).

Die Denksportaufgabe meinerseits hast Du offenbar nicht verstanden und wirst es offenbar auch nicht, wenn ich mir Deine Antwort ansehe.

Wenn alles Negative verschoben wird, alles Positive aber bestehen bleibt, was für ein Bild zeichnet das dann von einer Seite, wenn neue User dazu kommen? Hm? Verstanden? Verzerrt diese Art und Weise das tatsächliche Bild vielleicht e......twas? ;)

Im Grunde kannst Du das beinahe mit Produktbewertungen gleichsetzen. Was hältst Du denn von einem Hersteller, der auf seiner Seite jede negative Bewertung löscht oder ins quasi unsichtbare verschiebt und alles Positive stehen lässt? Hat ein potenzieller Kunde dann einen vernünftigen Überblick und kann entscheiden ob er das Produkt kaufen und nutzen möchte oder nicht?
Und sehr ähnlich ist das logischerweise auch bei Webseiten.

Aber gut, vermutlich möchte die halbe Welt verarscht werden und sieht das daher nicht kritisch. ;)


BTW: Es geht nicht um positives oder negatives User-Verhalten, sondern um Kritik, die geäußert wird. ;)
 
@Sandworm ich habe auch bis Heute keinen Vorteil bei HBM feststellen können. Ich wüsste nun nicht was mir dieser für einen super Vorteil gebracht hätte bei meiner Vega64 damals und der Vorteil das es auf den Arbeitsspeicher auch zugreifen kann wenn es eng wird gibt es sogar weniger Spiele oder Programme als RT Games, also kann ich dem nachtrauern hier absolut nicht nachkommen.

Allein schon die Flächenersparnis um den Faktor 1.5-175 für den PHY Controller, würde hochgerechnet in etwa der benötigten Fläche für die RT / Tensor cores entsprechen.
Bei der Energieersparnis wird man bei einem kolportierten 627mm2 Chip wohl auch in etwa 50W* im Vergleich zu einem 384Bit Si einsparen können.
* Relativer Controller PHY Verbrauch (GDDR6/HBM2) entspricht Faktor 3.5-4!
hbm2 rambus.png


Ein kleines Beispiel was man mit der gesparten Fläche anstellen könnte:

TU106 = 445mm2, TPCs 18, Shaders 2304, Tensor cores 288, RT cores 36

Nvidia benötigt z.B. eine Fläche (12nm) von ca. 1.95mm2 pro TPC (tensor 1.25 / RT 0.7) ---> 1 x TPC = 10.89mm2 TU106 - 1.95mm2 = 8.94mm2 (21.8%)
Bzw. 10.89 x 18 = 196mm2 davon sind 1.95 x 18 = 35mm2 (7.9% relativ 445mm2) für tensor / RT reserviert.

Das GDDR6, Speicherinterface macht ca. 20 - 30%, je nachdem ob ein 384 oder 512Bit SI verwendet wird an der Gesamtfläche aus.

Wenn jetzt (siehe Folie Rambus) der Flächenbedarf für ein analoges HBM2 Interface um den Faktor 1.5-1.75 kleiner wird, dann käme man z.B. bei einem GA102, 627mm2 und 384Bit SI auf die folgende Differenz:

20% von 627 entspricht 125mm2, wenn nun ein Faktor von 1.5-1.75 angewendet wird dann sieht es in etwa so aus: 125 / 1.5 = 83mm2 bzw. 125 / 1.75 = 71mm2 was wiederum einer gesparten Fläche (relativ 384Bit GDDR6) von 42 - 54mm2 resp. (6.7 - 8.6% relativ 627mm2) entsprechen würde.

Wenn man nun davon ausgeht, das der GA102 prozentual gesehen für seine tensor / RT cores einen ähnlichen Flächenanteil wie es beim TU106 der Fall ist benötigt, dann könnte man die durch HBM2 gesparte Fläche z.B. für eine relative Verdoppelung (ca 5x TU106)
verwenden.

Am Ende hätten wir also z.B.: Eine Verdoppelung der Tensor / RT Kerne bei gleichbleibender Fläche und eine mehr als signifikante Stromersparnis (Die ich eigentlich als noch viel wichtiger erachte) die wiederum in mehr Leistung umgewandelt werden kann.

Ach ja, Die Berechnung habe ich anhand eines 384Bit SI durchgeführt, bei einem 512Bit SI würde es noch viel extremer sein.

Nun zu deiner Vega. Die hatte gerade Mal eine Speicherbandbreite von 484 GB/s (HBM) , die hatte z.B. die gtx1080ti mit seinen GDDR5 X auch.
Des Weitern war die Vega (Wenn es um Gaming geht) auch sehr ineffizient und konnte die PS nicht auf die Strasse bringen. (zum Glück wurde der Raja als Trojanisches Pferd zu Intel verfrachtet)
Heute sieht das anders aus:

352 Bit 18 Gbps ----> 792 GB/s
384 Bit 18 Gbps ----> 864 GB/s
4 Stacks a 307 GB/s ----> 1229 GB/s inkl. die nötige Energieersparnis die es erst ermöglicht dies auch auszunützen.

Oder der von SK Hynix angekündete mit 2 Staks (Total 16GB) und 920 Gbps ausgestattete HBM2 (E) <30W

SH Hynix 2020 mass production: Press Release < PR < SK hynix

Was die Kosten für HBM2 anbelangt :

What&#8217;s Next For High Bandwidth Memory

Three years ago, HBM cost about $120/GB. Today, the unit prices for HBM2 (16GB with 4 stack DRAM dies) is roughly $120, according to TechInsights. That doesn&#8217;t even include the cost of the package.

The Cost of HBM2 vs. GDDR5 & Why AMD Had to Use It | GamersNexus - Gaming PC Builds & Hardware Benchmarks

+ interposer and packaging should be $25

HBM2 (E) könnte wohl noch ein paar $ mehr kosten, aber von deutlich unter 200$ ist wohl auszugehen.
Wenn man bedenkt das die 16GB GDDR6 auch nicht gratis sind und
16 -18 Gbps schneller GDDR6 wohl auch nicht günstiger als 14Gbps wird (100-160$)
stellt der Preis meiner Meinung nach, kein K.O. Kriterium für eine voraussichtlich ca. 1000€ + Karte dar.

 
Zuletzt bearbeitet:
Zurück