Samsung kündigt HBM2E mit bis zu 538 GB/s an

AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an


Ich habe hier auf Basis 10 gerechnet, was bei solchen Low-Level/Bit/s-Angaben eigentlich mal üblich war. Anscheinend hat sich das nun auf Basis 2 geändert. Mit 18 Gbps (auf Basis 2) ergeben sich für GDDR6 damit 352 Bit = 792 GiB/s, 384 Bit = 864 GiB/s und theoretisch für 512 Bit = 1152 GiB/s (aber "nur" 1,125 TiB/s ;-)) *)

Deine untere/zweite Frage verstehe ich nicht. Bezog sich die überhaupt auf mich?
Abseits dessen, die JEDEC-Spezifikation JESD235B und C **) definiert pro Stack/Package bis zu 12 Lagen mit maximal 24 GiB Kapazität (die Höhe des Package bleibt jeweils die gleiche). Hersteller können hier 1- oder 2-GiB-Dies pro Lage verwenden. Entsprechend Fertigungseffizienz wird es aber nicht jede mögliche Kombination am Markt geben. Aktuell kann man 8 und 16 GiB-Chips erwarten, die voraussichtlich am meisten nachgefragt werden dürften. Bereits der Markt für aktuelle HBM2E-4GiB-Stacks dürfte recht klein oder gar nicht existent sein (und ist zu unterschieden von altem HBM2). Den Vollausbau mit 24 GiB hat bspw. Samsung Ende letzten Jahres angekündigt.

Also mit 4 Stacks (4096 Bit-Interface) sind aktuell bis zu 64 GiB möglich, was in kürze erscheinende HPC-Beschleuniger bereits ausnutzen werden. Basierend auf HBM2E sind etwas später damit gar bis zu 96 GiB möglich.

*) Entsprechend darf man sich nicht von den auf Wikipedia teilweise verwendeten GT/s- und MT/s-Angaben verwirren lassen, die ausschließlich 10^9 und 10^6 bezeichnen und in diesem Kontexten offensichtlich falsch verwendet werden, so bspw. in
High Bandwidth Memory - Wikipedia
wo man bspw. die 3,2/3,6 Gbps mit 3,2/3,6 GT/s gleichsetzt.

**) B vom Dez.'18 definiert bis zu 2,4 Gbps und C vom Jan.'20 bis zu 3,2 Gbps. Darüber hinaus ist C nur ein minor Update bzgl. der Geschwindigkeit pro Pin. Die Industrie ist der Standadisierung jedoch schon voraus, denn bspw. Micron und SK Hynix werden dieses Jahr schon reguläre 3,6 Gbps-Chips fertigen und dementsprechend erwähnte Samsung nicht umsonst die Übertaktbarkeit seiner Module.


Naja, wie sich dann schon aus deiner eigenen Aussage ableitet ... offensichtlich gibt es keinen Markt für ein derart teueres Design im Consumer-Markt.
AMDs Fury X vom Juli 2015 war das "Erstlingswerk" mit HBM(1). Den musste man natürlich mal verbauen, denn einen neuen Standard kann man nur schwer etablieren, wenn man den nicht auch mal konkret in einem Produkt anwendet. Über AMDs Marge kann man nur spekulieren, aber am Ende konkurrierte man hier mit der gleichteueren GTX 980 Ti mit GDDR5, die oftmals gar etwas schneller war (trotz -34 % weniger Speicherbandbreite).
Und nach Vega 10 war bei AMD das Ende von HBM bereits wieder erreicht und nVidia hat sich gar noch nie berufen gefühlt HBM in Consumer-Karten zu verbauen.

Ich denke eine Verwendung in der ps5 ist nicht unwahrscheinlich [...]

Eine Verwendung in den neuen Konsolen war bisher nicht Teil des Threads hier, ist aber auch ein vollkommen anderes Thema, da der Konsolenmarkt als vollkommen eigenständig anzusehen ist.
AMD dürfte in den letzten Jahren weitaus mehr Konsolen-APUs als dGPUs abgesetzt haben.
Beispielsweise der 2016er Jahresabschluss weist für die Computing und Graphics-Sparte 1,97 Mrd. Net Revenue aus, die neben allen GPUs zudem auch sämtliche Consumer-CPUs, (Mobile-)APUs und Chipsätze enthält. Dagegen die Enterprise, Embedded and Semi-Custom-Sparte verbuchte 2,31 Mrd. US$ Net Revenue und enthält die Konsolen-APUs, wohingegen AMD bekanntermaßen serverseitig nichts erwähnenswertes in dem Zeitraum anzubieten hatte.
Dass HBM2 in den Konsolen möglicherweise auch verwendet wird, ist nicht auszuschließen, stellt die Hersteller aber gleichermaßen vor das Kostenproblem, den insbesondere die Konsolenhardware ist extrem preissensitiv. Was die Möglichkeit jedoch im Vergleich zu dGPUs erhöht, ist die weitaus größere Verhandlungsbasis, da man hier über Jahre hinweg die Abnahme von hohen Stückzahlen verhandeln kann. Man wird abwarten müssen ... aktuell ist das jedoch dennoch nur ein von Fans ausgehobenes Gerücht ohne Substanz ... das kann so kommen, muss es aber nicht ...
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Die sollten die HBM Produktion aufbauen und die Produktion von GDDR/DDR abwracken. Von der DDR hat eh jeder die Nase voll. Das ist etwas von vorgestern.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Das sehe ich ebenso. So lange HBM auch nur einen einzigen Vorteil bietet, verstehe ich nicht warum man eine minderwertigere Lösung bevorzugen sollte. Die Karten sind teuer genug, da sind die 20 Euro für den besseren RAM doch wohl kein Ausschlusskriterium.

Gesendet von meinem HTC U12+ mit Tapatalk

Eben. Und auch wenn ichs mir nicht kaufen werde, um 1000 und mehr Euro will ich nicht den zweitbesten RAM sondern das beste was technisch möglich ist.
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Für die Kohle die man momentan hinblättern muss, sollte nach dem Kauf ein Cyborg-Ingenieur mit Lötkolben eingelassen im Oberschenkel (da wo Robocop [das Original] seine Wumme hatte), bei einem an der Haustüre klingeln und fragen was es denn sein darf: "HBM2 oder der andere Plunder?"

Edit
Der Gedanke gefällt mir. Ich glaube das mache ich für mich ab jetzt zur Grundvoraussetzung für Käufe bei grün. Jedes einzelne Mal wenn Lederjacken-Pinocchio irgendwo auf ner Bühne wieder erzählt was sein Unternehmen doch alles so tolles kann und bringt, rufe ich hoch: "Immer noch keinen Cyborg? . . . Dann halt die Klappe kleiner und räum dein Zimmer auf!"

Gesendet von meinem HTC U12+ mit Tapatalk
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Also wenn ich mir allein die Probleme ansehe die NV und AMD mit dem GDDR6 haben und hatten, ist mir HBM einfach wesentlich symphatischer.
HBM kühlt man einfach über den GPU Block mit und fertig. Via Baseplate mal noch nebenbei die SpWas abdecken und fertig.

Die sterbenden NV Karten und die Temperaturprobleme bei AMD mit dem GDDR6 machen einfach kein gutes Bild.
Mit HBM ist zudem auch eine deutliche Steigerung der Bandbreite möglich, für die 1,2TBps meiner Seven muss GDDR 6 schon ganz schön fleißig stricken gehen, ich will auch gar nicht wissen wie schwer die 2GB Module von GDDR6 zu kühlen sind im Alltag wenn das jetzt schon Probleme macht.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Das wird dann zum Problem, wenn die Karte deshalb abschmiert/throttelt/aufheult, während bei HBM der Speicher einfach mit der Gpu gekühlt wird.
Wenn der Designer mehr auf den Ingenieur hört, ist das kein Nachteil von GDDR6.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Das wird dann zum Problem, wenn die Karte deshalb abschmiert/throttelt/aufheult, während bei HBM der Speicher einfach mit der Gpu gekühlt wird.
Wenn der Designer mehr auf den Ingenieur hört, ist das kein Nachteil von GDDR6.
Gab übrigens grad am Anfang einige Probleme mit Fury und Vega wegen dem HBM. SPeicher verschiedener Bauhöhe und Co.

HBM hat prinzipiell potential: das Speicherinterface braucht wesentlich weniger Energie und ist am Chip auch kleiner. Somit kann der Chip sowohl höher Takten, als auch mehr Hardwareeinheiten (Shader und Co) packen im Vergleich zu einem vergleichbaren 512bit Interface.
Fazit: HBM ist teuer - ja, aber es ist in vielerlei Belangen besser. Und bei einer GPU ab einem gewissen Preis möchte ich schon wissen, dass der Hersteller mit dem besten verfügbaren Material seinen Kunden lockt. Wie oben schon erwähnt:
Für 1000€ (eigentlich auch schon drunter, ich würde sagen ab 500), ist es mir egal, ob der Hersteller 30€ mehr für SPeicher hinblättert: ich will dann den besten Speicher, ich will die beste Kühlung und nicht so eine billige Wärmeleitpaste wie sie immer haben. Ich will die besten Bauteile. Ich hasse es, eine neue Karte einzubauen und das erste was mir auffällt ist Spulenfiepen.
Ob die Karte dann die schnellste ist, ist mir sogar noch zweitrangig, wenn sie dafür unglaublich effizient läuft (eben, weil sie überall sonst die besten Bauteile hat usw).
Die 1060 meiner Frau habe ich nach mehreren Versuchen nun ordentlich undervoltet und sie läuft eigentlich ohne die PCIe Stecker in Spielen bei 90% der Leistung (also bei ca 75 Watt). Die Leistung einer 1060 mag 2020 jetzt nicht mehr so beeindruckend sein, aber die Karte ist ja auch von 2016 und wenn man bedenkt, dass die Leistung quasi passiv gekühlt werden kann zeigt das schon, was man mit Effizienz eigentlich erreichen kann.
Mit HBM geht eben noch mehr.

Mit HBM wäre es eben möglich, nochmal 15-25% mehr rauszuholen was Leistung betrifft. Oder eben mehr Effizienz. Gerade bei den mit Turing hochgezogenen Leistungen würde ich gerne schon bei der Nachfolgergeneration 30xx in der 3080 und darüber HBM sehen. Könnte wie gesagt eben den Verbrauch runter oder die Leistung hochdrücken.
Ist natürlich eine reine Gedächtnisspinnerei. Aber wenn genug Konkurrenzdruck da wäre, und jeder zu allen Mitteln greifen würde, die er/sie müsste die bestmögliche Technologie einsetzen.
Aber bislang ist Nvidia zu nichts gezwungen und man weiß noch nicht ob AMD nochmal was mit HBM machen wird
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Spaceinvaders ist dir doch sicher ein Begriff. Eine Navikarten die schlecht konstruiert sind wie die ASUS TUF oder die MSI Evoke leiden unter hohen Memtemperaturen. Bei den NV Karten gibt es leider keine Sensoren, da sind sicher aber auch einige Kandidaten dabei die vor sich hin bruzzeln.

Die Kombination aus hoher density gepaart mit dem im weg stehen zur Spannungsversorgung macht den Speicher anfällig. Bin mal gespannt wie das aussieht wenn der ein paar Jahre im Einsatz war,wie gut die Karten halten.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Ich hab die komplette Sammlung, Fiji mit HBM1@682GB/s :devil: Vega10 mit HBM2@484GB/s und Vega20 mit HBM2@1024GB/s.
Hoffe sehr, dass ich nach drei Generationen mit HBM nicht wieder auf GDDR zurückgehen muss und AMD doch wieder eine entsprechende Karte mit HBM auf den Markt wirft.
Wird sowieso spannend, was bieten Sie uns nach 1024GB/s und 16GB VRAM als nächstes an?^^

edit: 666 auf 682GB/s Korrektur (666MHz@4096-bit)
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Ich hab die komplette Sammlung, Fiji mit HBM1@666GB/s :devil: Vega10 mit HBM2@484GB/s und Vega20 mit HBM2@1024GB/s.
Hoffe sehr, dass ich nach drei Generationen mit HBM nicht wieder auf GDDR zurückgehen muss und AMD doch wieder eine entsprechende Karte mit HBM auf den Markt wirft.
Wird sowieso spannend, was bieten Sie uns nach 1024GB/s und 16GB VRAM als nächstes an?^^
Wäre schon cool,und sei es nur eine kaufbare Machbarkeitsstudie. 16 oder mehr GB um Nvidia in die Schranken zu weisen. Gerade weil RT viel Bandbreite und Speicher braucht wird der Kampf vielleicht mit HBM weitergeführt werden
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Was am Ende einige wenige Interessenten bereit wären zu zahlen, interessiert weder AMD noch nVidia. Deren Consumer-GPUs werden am Massenmarkt ausgerichtet (auch wenn das nVidia zurzeit erfolgreicher als AMD gelingt ;-) Und entsprechend preissentiver ist AMD ...) und hier ist zudem eine gewisse Marge angepeilt. Ein zu teueres Design passt da schlicht nicht ins Programm (wie die Radeon VII eindrucksvoll demonstiert hat, die AMD nach bereits wenigen Monaten wieder aus dem Programm nahm).

In Anlehnung an Edelhamster's "Wird sowieso spannend, was bieten Sie uns nach 1024GB/s und 16GB VRAM als nächstes an?"
Wie schon zuvor geschrieben, 1 TiB/s Speicherbandbreite sind auch gar nicht erforderlich, wenn die Architektur entsprechend effizient ist. Die RTX 2080 Ti hat nur 60 % der Speicherbandbreite einer Radeon VII, erzielt im PCGH-Index aber dennoch eine um +44 % höhere Leistung als letztere. (Selbst wenn man sich 4K-Benchmarks im Einzelnen ansieht, ist letztere hier deutlich abgeschlagen.) Solange die Hersteller mit GDDR6 nicht in harte Limits laufen *), werden sie auch nicht zu einer teueren Technik greifen, die zudem ihre Chipentwicklung verteuert und die Fertigung verteuert und noch verkompliziert.

Zur Kapazität: Mehr als 16 GiB wird es mit ziemlicher Sicherheit nicht geben. Bei GDDR5/6 konnte AMD in der Vergangenheit leicht 2 GiB drauflegen (bspw. 8 anstatt 6 GiB) weil es hier noch vergleichsweise günstig ist und weil es AMD auch schlicht als zusätzliches Vertriebsargument nötig hatte. Bei einem HBM-Design wird das aber ungleich teuerer.
Ich wäre nicht überrascht, wenn die HighEnd-Consumer-Modelle es gar bei 12 GiB und einem 384 Bit-Speicherinterface belassen würden. Ein noch breiteres Interface erscheint eher unwahrscheinlich (aus bereits zuvor diskutierten Gründen), d. h. der nächste Schritt wären 2 GiB-Chips und damit 24 GiB, was für ein Massenprodukt jedoch schon zu exotisch und teuer wäre. **)
Entsprechend wäre ein mögliches Argument für HBM2 eine anvisierte Kapazität von 16 GiB, die sich mit GDDR6 kaum sinnvoll realisieren lässt, jedoch ob sich die Hersteller jetzt schon im Consumer-Segment dazu berufen fühlen, bleibt vorerst abzuwarten. ***)

Wenn ich raten müsste, wäre die Wahrscheinlichkeit für ein HBM2-HighEnd-Modell bei AMD am höchsten, schlicht weil sie es aus architektonischer und vertriebstechnischer Sicht am Nötigsten haben. Auf BigNavi wird man hier jedoch mit hoher Wahrscheinlichkeit vergeblich hoffen, sodass frühestens ein RDNA2-Design, grob zum Jahresende hin, die früheste Möglichkeit für eine derartige Karte darstellen dürfte. Man wird sehen ...


*) Gegenüber dem aktuell üblicherweise verbauten 14 Gbps-GDDR6 könnte man bei den Top-Modellen mit dem neuesten 18 Gbps-GDDR6 noch einmal bis zu +28,6 % Speicherbandbreite hinzufügen.

**) Dagegen 2 x 8 = 16 GiB mit einem 256 Bit-Speicherinterface wäre nur eine sehr spezifische Lösung für bspw. etwas wie eine mögliche RTX 3080. Für eine Ti-Variante wäre die Bandbreite dann voraussichtlich aufgrund des zu kleinen Interfaces zu gering.
Eine konstruierter, nicht vollkommen abwegiger Mittelweg wären 320 Bit und 2 GiB-Chips also 20 GiB und 720 GiB/s, aber hier erscheint der Speicherausbau kostentechnisch zu teuer zu werden und zugleich ist der Bandbreitenzugewinn ggf. zu gering. (Ausdenken kamm man sich hier durchaus einiges, im Zweifelsfall würde ich den Herstellern aber eher ein konservativeres Vorgehen unterstellen. ;-))

***) Die paar Modder, die sich auch noch die letzte 8K-Textur-Mod installieren gehen auch schon weit am Massenmarkt vorbei und dürfte daher keine nennenswerte Bedeutung aus Sicht der Hersteller haben.
Entsprechend beschränkt ist auch die verfügbare VRAM-Kapazität in der Steam-Statistik. 11 GiB treten hier nur zu 3,8 % auf, d. h. mit einem breiteren Ausrollen von bereits 11 oder 12 GiB könnten die Hersteller den Markt bereits signifikant "aufwerten".
Angemerkt sei, dass es noch die VRAM-Kategorie "Other" mit 3,3 % gibt, die aber größtenteils krumme BIOS-iGPU-Settings enthalten wird, denn in den GPU-Statistiken sieht man, dass bspw. eine 16 GiB-Karte wie die Radeon VII mit weniger als 0,15 % vertreten ist (ebenso wie mögliche Titan's oder dedizierte Quadro's), d. h. "Other" enthält hauptsächlich kleinere Kapazitäten und nicht etwa größere als 11 GiB.
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Ich kauf keine Karte mehr mit GDDR6, der Speicher ist heiß, ******* zukühlen und auch nicht sonderlich schnell.
GDDR6 ist also schuld, wenn die Hersteller schlechte Kühllösungen konstruieren? Ah ja :schief:. Und nicht sonderlich schnell? Ich bin hier mit zusätzlichen 1000 MHz auf dem Speicher bei 704 GB/s. Für ein 352-Bit SI finde ich das durchaus beeindruckend.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

@gerX7a: Was Du unterschlägst, ist die weit im Markt verbreitete Optimierung auf NV-Karten. Würde man das gleiche bei einer R VII machen, würde die 2080Ti kein Land sehen(vllt etwas überspitzt :D ). Denn wie AMD bereits seit Jahren zeigt, gibts Leistung auch ohne hohen Takt. > siehe Bandbreite z.B. einer R9 390(X) mit 512 Bit. Wir sehen hier ein ähnliches Problem wie bei den CPUs. Solange Entwickler auf IPC und Takt programmiert haben, waren die Intels überlegen. Jetzt wo Kernskalierung "in" ist relativiert sich das dann alles und selbst ein oller FX 8350 überrascht in manchen Szenarien.
@Atma: Du bist sehr stolz auf Deine Karte. Das solltest Du auch, denn schließlich hast Du eine Menge dafür bezahlt :-)

HBM2 kann sooo teuer nicht sein, wenn ich meine 64 für knapp €330,- gekauft habe. Ich kann mir nicht vorstellen, das da AMD draufgelegt hat, nur um die Lager zu leeren. Und bei 400% Aufpreis der 2080Ti wäre eine 16GB HBM-Bestückung schon drin gewesen.

Ich würde auch, wie schon weiter oben erwähnt, sehr ungern auf GDDR6 zurückgehen wollen.
Vllt haben wir ja mit "Big Navi" Glück und bekommen wieder HBM auf einer Graka zu kaufen.
Gruß T.
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

@gerX7a: Was Du unterschlägst, ist die weit im Markt verbreitete Optimierung auf NV-Karten. Würde man das gleiche bei einer R VII machen, würde die 2080Ti kein Land sehen(vllt etwas überspitzt :D ). Denn wie AMD bereits seit Jahren zeigt, gibts Leistung auch ohne hohen Takt. > siehe Bandbreite z.B. einer R9 390(X) mit 512 Bit. Wir sehen hier ein ähnliches Problem wie bei den CPUs. Solange Entwickler auf IPC und Takt programmiert haben, waren die Intels überlegen. Jetzt wo Kernskalierung "in" ist relativiert sich das dann alles und selbst ein oller FX 8350 überrascht in manchen Szenarien.
@Atma: Du bist sehr stolz auf Deine Karte. Das solltest Du auch, denn schließlich hast Du eine Menge dafür bezahlt :-)

HBM2 kann sooo teuer nicht sein, wenn ich meine 64 für knapp €330,- gekauft habe. Ich kann mir nicht vorstellen, das da AMD draufgelegt hat, nur um die Lager zu leeren. Und bei 400% Aufpreis der 2080Ti wäre eine 16GB HBM-Bestückung schon drin gewesen.

Ich würde auch, wie schon weiter oben erwähnt, sehr ungern auf GDDR6 zurückgehen wollen.
Vllt haben wir ja mit "Big Navi" Glück und bekommen wieder HBM auf einer Graka zu kaufen.
Gruß T.

Insgesamt hast du zwar Recht, aber in Details miss ich widersprechen:
1. Kernskalierung- auch trotz Mehrkernoptimierung ist der Bulldozer ein Griff ins Klo. Dass Intel nur 4 Kerme angeboten hat lag ja rein daran, dass man nicht mehr benötigt hat, nicht, dass man es nicht gekonnt hätte. So oder so hätte Bulldozer nie eine Chance gehabt. Zumal man immer bedenken muss, dass viele Probleme sich nicht parallelisieren lassen. Also:
Eine hohe IPC per Core bzw pro Kern Leistung ist weiterhin absolute Pflicht. Deshalb hat AMD auch genau hier angesetz.
2. Nein, Vega ist wie GCN generell einfach eine unterlegene Architektur. Dass Entwickler so viel mehr aus Nvidia rausholen ist ein Märchen: die Architektur von Nvidia schafft einfach mehr bei weniger Verlustleistung/Tajt/Ausführungseinheiten. An der Optimierung der Software liegt das nicht, denn zum einen gibt es dann ein paar AMD optimierte Titel, die aber (mit Ausnahmen) auch nicht besser auf AMD laufen, zum Abnderen ist JEDER Crossplattformtitel Low Level einzig und allein AMD Optimiert. Weil Hersteller auf die schwächste Plattform hin optimieren, auf der das Spiel laufen muss. Und das ist nunmal die Konsole mit GCN Architektur.
Das gute Abschneiden von Ncidiakarten zeigt eher, dass sie auch ohne große Optimierung automatisch viel Performance abrufen können.
Was auch der Grund ist, warum Nvidia bei Nicht-AAA Spielen oder Indiespielen oft besser laufen. Zum anderen natürlich auch deswegen, weil Entwickler mit sehr begrenztem Budget wohl eher auf die Firma hin testen, die 80% Marktanteil hat, nicht die mit 20%.
Deshalb hat AMD hier einen doppelten Nachteil: Spiele laufen von Haus aus mit etwas mehr Potential bei der Konkurrenz und zum anderen durch die Marktanteile hat man mit AMD Karten teils auch mehr Bugs.
Mich stört das 0brigens nicht (bin ja AMD User), da ich Spiele eh nicht mehr gleich bei Release kaufe. Sind heutzutage oft Betaprodukte.
Ich kaufe meist kurz danach, wenn sie schon gemeinsam mit den DLCs im Steam Sale um unter 20 Euro kommen- und sowohl die Bugs behoben als auch Treiber optimiert sind und ich auch nicht wenn ich endlich spielen will zuerst mal 20 GB Patches laden muss
 
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

Edit: ich habe keine Ahnung, warum der Beitrag 2x abgesendet wurde
 
Zuletzt bearbeitet:
AW: Samsung kündigt HBM2E mit bis zu 538 GB/s an

@Rollora. Gebe Dir ja auch recht. Aber so war das mit dem FX gar nicht gemeint. Der war schon ab Erscheinungsdatum eher suboptimal. Worauf ich hinaus wollte, das der FX TROTZ der miesen Architektur in manchen Szenarien profitiert hat.
Zum Thema NV bleibe ich bei meiner Überzeugung. Hervorragendes Beispiel: GTX 970>R9 390 oder DX11-Overhead>Drawcalls. Seit DX12 läufts ja auch mit alten GCN-Karten deutlich performanter.
Und wie Du selbst schreibst, wer die Musik bezahlt (80% Marktanteil), bestimmt auch, was gespielt wird.
Gruß T.
 
Zurück