AW: AMD Radeon RX Vega: Gerüchteweise mit hervorragendem Preis-Leistungs-Verhältnis
Fakt ist nun mal, dass eine FuryX mit HBM nur minimal schneller als eine 390X ist. Obwohl sie eigentlich - dank Speicherbandbreite - viel schneller sein müsste.
Erstmal, ~20% ist gewiss nicht minimal. Und das Problem der Fury X ist auch nicht die Speicherbandbreite. Die reizt sie sowieso nicht aus. Die Auslastung der vorhandenen Einheiten ist bei Fiji zu gering. Zumindest in Spielen.
Und wenn für GV104 -und damit für 2070/2080 - einfach GDDR5X verwendet, dass bereits lieferbar ist.....? Dann könnten Voltakarten auch zu Weihnachten erhältlich sein. Das wäre ein paar Wochen nach Vega-Launch.
Monate, nicht Wochen.
Nein, ist es nicht. Siehe Startpreis für FuryX, Fury und Fury Nano.
Doch, ist es. Der Startpreis für Fury hat sich an Konkurrenzprodukten orientiert und nicht an den Kosten für HBM.
Mit Kepler, als NVIDIA angefangen hat auf Effizienz zu achten und die Tegra-Erfahrungen in die großen GPUs mit hat einfließen lassen.
Mit Kepler hat Nvidia nicht nur angefangen AMD zu kopieren, weg von wenig Shadern und Hot Clock, hin zu vielen Shadern und Core Clock. Sie haben vor allem angefangen Pro Features aus der Architektur zu schmeissen und voll auf Gaming zu trimmen. Deshalb waren die Nvidia Karten seit Kepler hardwareseitg auch klar den AMD Karten beim Computing unterlegen. Mit Tegra hat das herzlich wenig zu tun. Umgekehrt wird ein Schuh draus, die Erfahrungen der Desktop und Pro Chips sind in Tegra eingeflossen.
Stimmt, bei AMD ist ja gern mal Verbrauch > TDP und vor allem PCIe Spec
Schlechter Versuch. AMD hält die TDP für gewöhnlich ein, da sie wirklich mit Maximalwerten kalkulieren. Im Gegensatz zu Intel oder Nvidia, die gerne mal geschönte Werte angeben. Wie war das denn mit den 165W einer GTX 980, die mit GPGPU Last mal locker >250W ziehen konnte? Und dass die 140W eines i9-7900X ein schlechter Scherz sind, sollte auch bekannt sein. Von Fermi, Netburst usw will ich gar nicht erst anfangen.
HBM ist halt ein Holzweg, und AMD stiefelt ihn gemütlich weiter.
Da spricht ja die geballte Kompetenz. Nicht. Schon komisch, dass selbst Nvidia mittlerweile HBM2 nutzt.
Und HBM3 ist auch schon in der Pipeline, für 2019-2020. Genauso wie mit Low Cost HBM2 verliert GDDRx dadurch weiter an Attraktivität.
Minimum 375 Watt? Im Durchschnitt? Maximum?
Kannst du das belegen?
Nein. Dachte ich mir.
Lass Schaffe ruhig weiter phantasieren. Dass seine Beiträge keinerlei Substanz haben, weil er Fakten ignoriert, Zusammenhänge nicht versteht und obendrein rumstänkern will, sollte ja bekannt sein. Jeder mit ein bisschen Verstand sollte wissen, dass die Board Power lediglich das Maximum darstellt, zumindest bei AMD, und nicht die tatsächliche Leistungsaufnahme in jedem Szenario wiedergibt. Und über die generelle Energieeffizienz der Architektur sagt das auch nicht viel. Schon bei Polaris hatte AMD die Taktraten über dem Sweetspot angesetzt. Mit gut 300 MHz weniger konnte man dort die Board Power praktisch halbieren.
Und Schaffe hat da durchaus recht: Der Skyfail X hat einen eigentlich inakzeptablem Stromverbrauch, er bietet dafür aber auch in einigen Anwendungsfeldern brachiale leistung, und wird sich dadurch wahrscheinlich doch gut Verkaufen.
Brachiale Leistung? Gegen einen 1950X sieht der 7900X doch wie Kinderspielzeug aus. Selbst der 18-Kern SKL-X muss aufgrund der geringeren Taktraten erstmal zeigen, dass er mehr kann.