...Trotzdem dürften die Performance-Verbesserungen durch die höheren Taktraten ausreichend sein, um beide neuen Grafikkarten interessant zu positionieren: Die Radeon R9 380 hat das Potential, einen Performance-Index von ~490% zu erreichen – dies wäre genauso viel wie die derzeit wenig geliebte GeForce GTX 970 (Perf.Index 490%). Die Radeon R9 380X könnte bei irgendwo ~550% herauskommen, was etwas mehr als bei der (auslaufenden) GeForce GTX 780 Ti ist (Perf.Index 530%), dafür etwas weniger als bei der (deutlich teureren) GeForce GTX 980 (Perf.Index 570%). Letztere kann AMDs Hawaii-Refresh wohl nicht gänzlich erreichen, aber man kommt nahe genug dran, um dann über einen (deutlich) besseren Preis punkten zu können. Allerdings wären natürlich noch die exakten Benchmarks zu den neuen Grafikkarten abzuwarten, es kann trotz der geringen und damit eigentlich gut kalulierbaren Taktratensteigerungen durchaus noch kleinere Überraschungen nach unten und oben hin geben.
Als echtes Verkaufsargument oben drauf soll AMD seinen Hawaii-Refresh dann mit gleich 8 GB Grafikkartenspeicher vom Start weg mitgeben – dies wäre natürlich eine dicke Duftmarke, die AMD da setzt. Extra 4-GB-Versionen sind derzeit nicht explizit in der Mache, diesbezüglich wird AMD wahrscheinlich schlicht abwarten, wie sich die Sache entwickelt. Mit ziemlicher Sicherheit wird AMD jene 4-GB-Versionen sowieso erst dann nachschiessen können, wenn die letzten Radeon R9 290/290X Karten abverkauft sind – danach könnten sich günstigere 4-GB-Versionen lohnen, das positive Launch-Echo ob der gleich 8 GB Grafikkartenspeicher hat AMD dann sowieso schon einkassiert. Dabei spielt es kaum eine Rolle, ob sich 8 GB Grafikkartenspeicher gerade beim Hawaii-Chip wirklich lohnen – gerade im Massenmarkt wird die Leistungsfähigkeit eines Grafikchips nun einmal nach der Speichermenge beurteilt, egal wie irrational dies erscheint. Außerdem muß AMD als der kleinere der beiden Grafikchip-Entwickler wenigstens in einer Frage etwas deutlich besseres als nVidia bieten – die Speichermenge bietet sich hierfür an, da nVidia hierbei eher konservativ vorgeht.