AMD Vega: Beim HBM2 tut sich immer noch wenig

Also laut Nvidia ist HBM gar nicht soooo zukunftsweisend. Eher ein Lückenfüller bis GDDR6.
HBM kommt nämlich aufgrund der hohen Dichte und in Zukunft des hohen Verbrauchs auch von der Verlustleistung her sehr "teuer".
nVidia sieht langfristig Stromverbrauchsprobleme bei HBM-Speicher | 3DCenter.org
GDDR6 ist aber auch wieder dediziert.
HBM hat ja den Vorteil des drastisch kürzeren Übertragungsweges, da er über den Interposer direkt an die GPU angebunden ist.
Nachteil ist halt aktuell noch die Massentauglichkeit und dass große Speichermengen noch problematisch sind. Bis das aber behoben ist, sehe ich bei "dediziertem" RAM keinerlei Vorteile mehr.:ka:
Wie will denn der Geschwindigkeitsverlust beim Übertragungsweg überbrückt werden? Mit noch höheren Taktraten? Noch breiterem Interface?
 
Spitze, mit einer Schnittstelle die nur in einem einzigen Spiel in der Release Fassung verwendet wird. Wäre da nicht der Rest von knapp 4200 neuen Spielen im Jahr 2016 auf Steam mit dx 11...

Und was hat das genau mit dem Thema zu tun? Es ist nur eines von vielen Beispielen. Natürlich ein Extremfall aber das sind all die Gegenbeispiele der ganzen nV-Fans doch auch (eben typischer Gameworks Schrott)...

Mir ist auch klar, dass du etwas gegen die neuen APIs hast aber sie sind die Zukunft. Genauso, wie es DX 11 2009 schon war aber selbst ein Jahr nach Vorstellung gab es nur eine Handvoll Spiele. Und bis 2015 wurden immer noch Spiele mit der Vorgängerversion DX 9 veröffentlicht.
 
ich denke nicht, dass er was gegen neue APIs hat. sondern vielmehr über das Argumentieren damit innerhalb der aktuellen Situation (die nun mal nach wie vor zum Löwenteil aus DX11-Spielen besteht).
 
Mein Argument ist simpel. Man sollte den aktuellen Markt betrachten mit 99,9% Dx 11 und nicht nach hätte hätte Fahrradkette hoffen, dass im vermeintlichen Lieblingsspiel Vulkan zum Einsatz kommt.

Insofern ist Doom Stand jetzt die Königin des Cherry pickens ;). Wenn irgendwann mal low level zum Standard avanciert (was ich scho aus wirtschaftlicher Sicht stark bezweifle), können wir uns darüber nochmal unterhalten; insbesondere wie dann die zu diesem Zeitpunkt aktuelle Grafikkarten-Generation sich schlägt. Zumindest ich kaufe Grafikkarten für mich und nicht für den Wiederverkaufswert
 
Das Problem ist doch eher, dass NV theoretisch eine 980 8GB bauen könnte und damit auf Augenhöhe zur RX480 wäre.

Und das mit einem Chip der nun beinahe 2,5 Jahre alt ist.
 
Wenn AMD Vega 10 mit GDDR5(X) geplant hätte, wann hätte man ihn auf den Markt bringen können?
Behauptung ohne Beleg, nicht seit Mitte 2016.
Ich habe nur behauptet, dass Vega mit GDDR5X früher marktreif gewesen wäre und nicht, dass es schon Mitte 2016 der Fall gewesen wäre.

Das Problem ist doch eher, dass NV theoretisch eine 980 8GB bauen könnte und damit auf Augenhöhe zur RX480 wäre.

Und das mit einem Chip der nun beinahe 2,5 Jahre alt ist.
Die GTX 1060 spielt in der Liga der RX480. Einen Chip im veralteten 28 nm Verfahren noch mal zu veröffentlichen macht absolut keinen Sinn.
 
Und was hat das genau mit dem Thema zu tun? Es ist nur eines von vielen Beispielen. Natürlich ein Extremfall aber das sind all die Gegenbeispiele der ganzen nV-Fans doch auch (eben typischer Gameworks Schrott)...

Eigentlich ist es lächerlich mit den paar DIrectx12 Spielen die es gibt und einen AMD Titel (Vulkan mit Shader Intrinsics, Doom) zu argumentieren.
Dasselbe wäre es mit Nvidia Games zu argumentieren, das tut auch niemand.
Schonmal geprüft welchen Prozentsatz diese Games ausmachen? Abseits der Benchmarkparcours ist der Anteil verschwindend gering und der letzte Test zu Directx12 zeigte auch ein eher gemischtes Bild.
Deus Ex läuft immernoch nicht rund, genausowenig wie Battlefield4, RotTR ist auch nicht schneller. Langsam frage ich mich wieso der ganze Aufwand, man hätte genausogut bei Directx11 bleiben können.
Mir ist auch klar, dass du etwas gegen die neuen APIs hast aber sie sind die Zukunft.

Das kann gut sein, allerdings sehe ich es nicht als die Zukunft wenn die Spielehersteller zu viel Kontrolle über die Hardware haben.
Man sieht bei Nvidia dass das auch zu weniger Leistung führen kann, weil deren Treiber ausgereifter sind als das was die Spieleentwickler hinbekommen.
 
Das kann gut sein, allerdings sehe ich es nicht als die Zukunft wenn die Spielehersteller zu viel Kontrolle über die Hardware haben.
Man sieht bei Nvidia dass das auch zu weniger Leistung führen kann, weil deren Treiber ausgereifter sind als das was die Spieleentwickler hinbekommen.
Also weiterhin mit eingeschränkten Bibliotheken und hohem CPU-Limit arbeiten, sodass ein Großteil der Hardwareleistung brach liegt? So wie die letzten 25 Jahre?
Kein Wunder, dass heute alle Spiele immernoch gleich aussehen.:schief:
 
Natürlich ein Extremfall aber das sind all die Gegenbeispiele der ganzen nV-Fans doch auch (eben typischer Gameworks Schrott)...

Falls du mich meinst, geht es nicht um GameWorks Spiele, das sind Spiele die eine hohe CPU Last generieren, die Nvidia besser mit Multithreading verteilen kann.
Das hat mit Gameworks gar nix zu tun. Und ich bin auch kein Fan, sondern von der Tatsache angetan, dass ich in den Spielen die ich aktuell Spiele deutlich besser mit Nvidia um die Runden komme.
Nenne mir mal bitte ein Spiel in denen Nvidia stärker im CPU Limit hängt und daher die Frames nach oben deckelt? Ich kenne außer Black Ops3 in der Anfangsphase wo alles an einem Thread hing kein Gegenbeispiel und ich vertrat damals die gleiche Meinung, dass das alles Panikmache ist. Ist es definitiv nicht. Nur werden solche Early Access Spiele selten gebencht.

Nur hier hat mans getan:

Early Access Benchmarks: Nvidia liegt in der Testphase teils deutlich vor AMD (Seite 3) - ComputerBase
 
Ich habe nur behauptet, dass Vega mit GDDR5X früher marktreif gewesen wäre und nicht, dass es schon Mitte 2016 der Fall gewesen wäre.
[...]
Da das Tapeout sowieso Ende 2016 stattgefunden hat, wäre Vega so oder so 2017 erschienen, außer man möchte so krass spekulieren, dass alle chiparbeiten Monatelang auf den Memory-Controller gewartet haben.
Dann kann man sich die Frage stellen, wie viele Monate AMD früher hätte launchen können?
Ein Monat ist praktisch geschenkt, drei wären schon respektabel aber auch nicht die Welt wenn man GDDR5X vs. HBM2 vergleicht.
 
... und die erreicht dann wann den Markt? Wird doch nicht wieder ein Holzmodell sein?
Ach nee, hat ja keiner hoch gehalten. :D
 
... und die erreicht dann wann den Markt? Wird doch nicht wieder ein Holzmodell sein?
Ach nee, hat ja keiner hoch gehalten. :D

Im März soll sie erhältlich sein, für lumpige 7000 €,
fast Geschenkt wenn man bedenkt was ein Leopard Kampfpanzer kostet.
Fang schon mal an dein Sparschwein zu schlachten.......
 
Zurück