Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Die derzeit gezeigten spiele mit vega liefen ja noch mit Treibern die nur insoweit fertig gemacht wurden das man spielen konnte das hatte man auch bei der gezeigten Szene gesagt also sind diese Werte noch nicht Aussage kräftig im Moment das aber in diesem Stadium schon das Niveau einer gtx 1080 erreicht wird ist doch ein großer Schritt für amd. Ich erwarte ja nicht viel von amd aber die Hoffnung besteht das es im cpu und auch im gpu Markt interessant wird

GS6 via Web
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Selbst wenn sie lediglich auf Niveau der 1080 ist, dafür aber maximal 500€ kostet, würde mir das reichen.
Wobei ich die selbstgesteckte Grenze von 500€ auch eher zähneknirschend hinnehmen würde, eigentlich hatte ich noch nie eine Grafikkarte die teurer als 400€ war.
Da ich aber größer als 24" gehen möchte, mir aber der Sprung auf 27" WQHD zu wenig ist, denke ich über 31,5" und 4k nach, ich denke in Anbetracht dessen ist eine Erhöhung des Budgets bei der Grafikkarte auch sinnvoll.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

500 Euro für ~500mm² Diefläche, Interposer + HBM2. Du magst AMD aber gar nicht.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Ich würde auch mehr zahlen, wenn die Leistung zur GTX 1080 dementsprechend höher wäre.
Aber im Großen und Ganzen würde ich eher von 4k abrücken als für eine Grafikkarte so viel zu zahlen.
Ist halt alles relativ, aber als Mensch mit Familie denke ich dreimal darüber nach ob ich mehr als 1000€ für Monitor und GPU ausgebe.
Und immerhin mag ich AMD genug, um auf Vega zu warten...
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Vega 10 spielt mit <500mm² und HBM2-Speicher einfach in einer anderen Preisliga.
Eine 1080 bekommt man für 600€ und das ist aktuell der günstigste Preis bei Mindfactory.
In wenigen Monaten eine ähnliche Leistung für maximal 500€ zu erwarten, bei deutlich höheren Herstellungskosten, ist viel zu optimistisch gedacht, wobei V10 sehr wahrscheinlich am Ende ein Stück mehr leisten sollte.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Ja, das fürchte ich auch...
Hoffentlich stimmt die Leistung auch, im Endeffekt sind 100€ hoch oder runter dann auch egal bei meinem gesteckten Budget.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Hands LITERALLY On AMD Vega!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Selbst wenn sie lediglich auf Niveau der 1080 ist, dafür aber maximal 500€ kostet, würde mir das reichen.
Wobei ich die selbstgesteckte Grenze von 500€ auch eher zähneknirschend hinnehmen würde, eigentlich hatte ich noch nie eine Grafikkarte die teurer als 400€ war.
Da ich aber größer als 24" gehen möchte, mir aber der Sprung auf 27" WQHD zu wenig ist, denke ich über 31,5" und 4k nach, ich denke in Anbetracht dessen ist eine Erhöhung des Budgets bei der Grafikkarte auch sinnvoll.

Das Problem ist nur, dass der Benchmark, in dem sie an die GTX1080 rankommt, auch der ist, der AMD-Karten gut zu Gesicht steht.
AMD-Karten skalieren unter DOOM mit Vulkan sehr gut. Eine Fury X unter 4K ULTRA / Vulkan ist in DOOM grade mal 9% hinter einer GTX1080 (Doom mit Vulkan: Performance-Analyse mit Benchmarks und Frametimes) Aus diesem Blickwinkel betrachtet würde Vega grade mal eine Steigerung gegenüber dem Vorgänger von 10% bedeutet, während nVidia mit der GTX1080 zum Vorgänger-Spitzenmodell (Titan X Maxwell) schon an die 25% hingelegt hat.

Wenn man das jetzt auf andere Games projeziert, dann wird Vega so ein Schuss in den Ofen, dass alle mit den Ohren schlackern werden. Daher würde ich aktuell noch keine Lobeshymnen auf Vega anstimmen und erst Recht noch keine Kaufentscheidung treffen, bevor nicht realistische Benchmarks von einer breite Variation von Spielen nach Release der Karte auf dem Tisch liegen.

Ich hoffe sehr, dass meine Analyse nicht zutrifft, und AMD hier ein großer Wurf gelingt und das 2. die AMD-Fangemeinde dann auch bereit ist den aufgerufenen Preis ohne großes Murren zu akzeptieren, damit wieder mal Geld in die Kriegskassen gespült wird.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Hands LITERALLY On AMD Vega!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Immerhin sieht man da, dass die 2 Frontlüfter laufen und auch mit Luft versorgt werden.Geht man davon aus, dass es ein Blower-Design ist, dann hatte die Karte ein fast optimalen Lufttunnel durch die Abklebungen.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

die karte wird trotzdem stark throttlen, 225W bei dem wintzigen Kühler ... wird sicherlich recht heiß werden
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Wer sagt dass die Karte 225W verbaucht?
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

stand doch auf den vor kurzem geleakten Folien

http://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-specifications-1000x546.jpg

vllt gibts ja auch ne neue 150W Nano ... wenn x2 Vega bis 300W ziehen soll

und beim Linus Video geht von NT nur einmal Sata und einmal 8 Pin weg

allerdings könnte sich das noch in 2x 8Pin aufsplitten

375W wären aber ganz schön overkill

zumindest da AMD seit Polaris ja auf Effizienz macht (nur einmal 6 Pin obwohl bis 160W gezogen werden)
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Kannte ich nicht die Folie.
Kann aber max Aufnahmen, durchschnittliche Aufnahme oder was ich nicht hoffe, der Verbrauch der GPU sein.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

die karte wird trotzdem stark throttlen, 225W bei dem wintzigen Kühler ... wird sicherlich recht heiß werden

Das grössere Problem um diese "Benchmarks" richtig einzuschätzen sehe ich an den notdürftig zusammen gestrickten Treibern. Könnte sein das die Karte dadurch nur 5% verliert, aber es könnten auch viel viel mehr sein.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

[...] Aus diesem Blickwinkel betrachtet würde Vega grade mal eine Steigerung gegenüber dem Vorgänger von 10% bedeutet,[...]
Es sollte offensichtlich sein, dass der Blickwinkel der Realität bzw. dem finalen Produkt keinesfalls entsprechen wird.

Kannte ich nicht die Folie.
Kann aber max Aufnahmen, durchschnittliche Aufnahme oder was ich nicht hoffe, der Verbrauch der GPU sein.
Es ist einfach eine TDP-Einstufung.
225W wäre an sich nichts ungewöhnliches, könnten auch 250W am Ende sein, die Titan X (Pascal) hat Nvidia mit 250W eingestuft.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

TDP ungleich TDP bei NV und AMD. Bei NV ist es ein relativ fester Peakwert, bei AMD meist ein Typcial Gaming Power, der in Spitzen auch überschritten wird.

Wobei ich sagen muss, dass ich Ryzen, wenn es die CPU im System ist, beeindruckender finde. Mit dem putzigen Kühler in dem stark ab geklebten Gehäuse und mit 8 aktiven Kernen nicht stark zu throttlen ist stark.

Bei der GPU, sieht es ja nach einem normalen AMD Referenzkühler aus.
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Das Problem ist nur, dass der Benchmark, in dem sie an die GTX1080 rankommt, auch der ist, der AMD-Karten gut zu Gesicht steht.
AMD-Karten skalieren unter DOOM mit Vulkan sehr gut. Eine Fury X unter 4K ULTRA / Vulkan ist in DOOM grade mal 9% hinter einer GTX1080 (Doom mit Vulkan: Performance-Analyse mit Benchmarks und Frametimes) Aus diesem Blickwinkel betrachtet würde Vega grade mal eine Steigerung gegenüber dem Vorgänger von 10% bedeutet, während nVidia mit der GTX1080 zum Vorgänger-Spitzenmodell (Titan X Maxwell) schon an die 25% hingelegt hat.

Wenn man das jetzt auf andere Games projeziert, dann wird Vega so ein Schuss in den Ofen, dass alle mit den Ohren schlackern werden. Daher würde ich aktuell noch keine Lobeshymnen auf Vega anstimmen und erst Recht noch keine Kaufentscheidung treffen, bevor nicht realistische Benchmarks von einer breite Variation von Spielen nach Release der Karte auf dem Tisch liegen.

Ich hoffe sehr, dass meine Analyse nicht zutrifft, und AMD hier ein großer Wurf gelingt und das 2. die AMD-Fangemeinde dann auch bereit ist den aufgerufenen Preis ohne großes Murren zu akzeptieren, damit wieder mal Geld in die Kriegskassen gespült wird.
Das sehe ich ähnlich. AMD neigt sehr dazu, sich optimale Settings herauszupicken, was dann in der Realität hängen bleibt, sieht man dann ja...

Ich wollte auch weder hypen, noch (m)eine definitive Kaufentscheidung, sondern lediglich meine jetzigen Gedanken zu dem ganzen zum Ausdruck bringen.
Wenn das Teil released wurde und sich in Tests herausstellt, dass die GTX 1080 für mich attraktiver ist, wirds eben eine 1080 Palit Gamerock, was solls.
Ich brauche ohnehin noch ein paar Monate um das Geld für GPU und Monitor zu sammeln (Weihnachten und 2 Geburtstage schlagen zu buche :D), daher blicke ich mit salomonischer Gelassenheit auf das Ganze. ^^
 
AW: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt

Nun ja, man muß aber neidlos annerkennen, dass Nvidia einen deutlichen Sprung geschafft haben.
Wenn sie nur nicht so größenwahnsinnig wären... ^^
 
Zurück