AMD Radeon Vega Frontier Edition: Typischer GPU-Takt bei knapp 1.400 MHz

Ich hatte ja schon mal berechnet, dass bei einem ähnlicher Verhältnis TFlops zu Spieleleistung, wie es bei der 580 (im Vergleich zur 1060) der Fall ist, die Vega rund 18TFlops Rohleistung bieten müsste, um mit Nvidias High-End-Karten mithalten zu können. Selbst bei einer Verbesserung dieses Verhältnisses kann man nicht davon ausgehen, dass AMD plötzlich einen >40% Unterschied ausgleichen kann und wird darum wohl über den Preis gehen müssen.
Nach der langen Wartezeit, welche noch nicht mal vorüber ist, ist alles andere als die Leistungsspitze eine Enttäuschung. Auch wenn vielleicht das Preis/Leistungs-Verhältnis besser sein wird, bleibt dann ein fader Beigeschmack.

man testet eine Karte mit einem Gaming Benchmark ohne ausgereifte Treiber
 
vega muss schon 100€ billiger sein als ne 1080Ti, damit das teil interessant wird.
sind immerhin auch 3gb weniger an vram.
 
Zeig mir ein Spiel in dem das der Fall war! (Du wirst keins finden.) Vorallem unter dem Gesichtspunkt, dass die auf 175 Watt abgeriegelte Nano nur 10 bis 15% niedriger als die Fury X taktet, sollte jedem einleuchten, dass dieser Wert Blödsinn ist.

Ich hoffe du kommst jetzt nicht mit ner Furmark Messung an. Dann wird es komplett lächerlich.

Der Gaming Verbrauch der Fury X liegt je nach Auflösung (je höher, desto mehr Verbrauch, da bessere Shader-Auslastung) zwischen 220 und 270 Watt.

Und täglich grüßt das FuryXtier:
Radeon R9 Fury X im PCGH-Test: Die leiseste High-End-Grafikkarte seit fast einer Dekade

Und ja, ich hab vom FurMark gesprochen, es ging einfach darum dass die Karte 383W zieht und das ist eine Tatsache, auch wenn sie dir nicht in den Kram passt (selbst eine gekauft?).

Nicht der Wert ist Blödsinn, sondern die Karte, jedenfalls stinkt sie im Vergleich zur GTX 980Ti einfach nur ab, ein gutes Beispiel, dass Rohleistung nicht alles ist. Wenn man bedenkt was für ein (unverdienter) Shitstorm über der GTX 480 losgegangen ist, dann hätte man die Firmenzentrale von AMD, für die Fury X, wenigstens mit Eiern bewerfen müssen. Das die Nano gut ist steht auf einem anderen Blatt, allerdings war sie damals, für die Leistung, gut 200€ zu teuer.
 
man testet eine Karte mit einem Gaming Benchmark ohne ausgereifte Treiber

Das ändert nichts an der Tatsache, dass eine 580 wesentlich höhere TFlops bietet als eine 1060 (6,2 zu 3,8), aber der Spieleleistung nach in der selben Liga spielt. Glaubst doch nicht wirklich, dass AMD den hohen Unterschied durch Designänderungen und erst recht nicht durch Treiberanpassungen ausgleichen kann...

Find es befremdlich, dass einige AMD Fanboys sich noch viel vorzumachen zu scheinen und die Nvidia Fanboys auf der anderen Seite AMD runter machen und tun als wären sie große Nvidia-Anteilseigner.
 
Das ändert nichts an der Tatsache, dass eine 580 wesentlich höhere TFlops bietet als eine 1060 (6,2 zu 3,8), aber der Spieleleistung nach in der selben Liga spielt. Glaubst doch nicht wirklich, dass AMD den hohen Unterschied durch Designänderungen und erst recht nicht durch Treiberanpassungen ausgleichen kann...

Find es befremdlich, dass einige AMD Fanboys sich noch viel vorzumachen zu scheinen und die Nvidia Fanboys auf der anderen Seite AMD runter machen und tun als wären sie große Nvidia-Anteilseigner.

die Flops sind in diesem Fall eh nicht vergleichbar, Nvidia steckt mehr in Logik als zum Beispiel in Shader, die AMD Karten sind mehr generisch dafür sind Nvidia Karten mehr spezialisiert, hat Vor und Nachteile für beide Seiten, Tesselation berechnen zum Beispiel die AMD Karten selbst, während bei Nvidia ein fest verdrahtete Logik vorhanden ist


Nicht umsonst sind Karten von AMD für das Mining so attraktiv
 
vega muss schon 100€ billiger sein als ne 1080Ti, damit das teil interessant wird.
sind immerhin auch 3gb weniger an vram.

So wie es aussieht auch noch weniger Leistung und noch 50 bzw. 125W mehr Verbrauch, sowie im Falle der großen Version auch noch eine Kompaktwasserkühlung (die auch recht ungeliebt ist)

Wer reitet denn bitte auf den 8 GB HBM Ram rum ? HBCC regelt :cool:

Da ist nur die Frage wie effektiv das wirklich ist. Die angeblichen 50% wird man wohl nur in ein paar Spielen sehen, wie dem ungepatchten Mittelerde: Mordors Schatten, vor allem wenn man bedenkt das Nvidia schon seit einiger Zeit ungenutzte Texturen in den RAM befördert. Auch ist die Frage wie die sich selbst optimierenden Spiele damit umgehen werden, wenn die erkennen das die Karte "nur" 8GB hat, dann begrenzen die es darauf.
 
Das ändert nichts an der Tatsache, dass eine 580 wesentlich höhere TFlops bietet als eine 1060 (6,2 zu 3,8), aber der Spieleleistung nach in der selben Liga spielt. Glaubst doch nicht wirklich, dass AMD den hohen Unterschied durch Designänderungen und erst recht nicht durch Treiberanpassungen ausgleichen kann...
Eine Standard GTX 1060 mit 1800 Mhz Takt hat 4.6 Teraflops.
 
Die HBCC demo von Deus Ex hat ja gezeigt das es was bringt. Ist doch IMHO eh eine Treibergeschichte / Hardwaresache. Was die Games / Anwendungen sehen ist in dem Fall eigentlich uninteressant ?!? Auf jeden Fall bin ich gespannt drauf.

So lange es funktioniert ist es egal wie viel Speicher die Karte hat. Vega wird so oder so gekauft, für WQHD wird sie schon reichen :daumen:
 
Lieferung erst zum 20.07. und das für 1199€



Vega.jpg

hätte schon lust drauf, aber Ich kann mir nicht vorstellen das hier noch der 1080ti Gefahr droht.

Bei dem Preis von 1199€ muss eigentlich viel mehr Leistung drin sein.

der Aufpreis zu einer Liquid Edition mit einer AiO mit 120-mm-Radiator finde ich ja schon sehr absurd mit 550€ (gibt es einen Durchlaufkühler dazu)

Die Features der AMD Radeon Vega Frontier Edition Air:

AMD Radeon Pro Frontier Edition
Brandneue Vega-Architektur
Enorme 16 GB HBM2-Speicher
64 Next-Gen Compute Units (NCUs; 4.096 Shader)
Pixelfüllrate von 102.400 MPix/s
Texelfüllrate von 409.600 MTex/s
FP32 Compute Performance: bis zu 13.1 TFLOPS
High Bandwidth Cache Controller (HBCC)
Rapid Packed Math (RPM) der NCUs
New Programmable Geometry Pipeline
Enhanced Pixel Engine
Luftgekühlt mit Radiallüfter
Die AMD Radeon Vega Frontier Edition "Air"

Die AMD Radeon Vega Frontier Edition Air baut auf der Vega-Architektur auf und ist mit 16 GB High Bandwidth Memory der 2. Generation (HBM2) bestückt, die sich direkt auf dem GPU-Die befinden. Der Speicher ist über ein riesiges 2.048-Bit-Interface an den Grafikchip angebunden und die Speicherbandbreite beträgt ca. 483 GB/s. Der HBM2-Speicher taktet mit 945 MHz, während der Grafikchip in der Regel mit 1.382 MHz arbeitet und auf maximal 1.600 MHz boosten kann. Die FP32 Compute Performance liegt bei bis zu 26.2/13.1 TFLOPS und die Pixelfüllrate beträgt 102.400 MPix/s, während die Texelfüllrate bei 409.600 TPix/s liegt.

Mit dreimal DisplayPort 1.4 und einmal HDMI stellt die AMD Radeon Vega Frontier Edition Air vier Video-Ausgänge zur Verfügung. AMD Radeon Vega-Grafikkarten unterstützen zudem die APIs (Application Programmer Interface) OpenGL 4.5, OpenCL 2.0 und Vulkan.

Gekühlt wird die AMD Radeon Vega Frontier Edition Air mit einem effizienten Radiallüfter. Sowohl die Front als auch die mit Lüftungsschlitzen versehende Backplate sind in Blau gehalten und die Oberflächenstruktur erinnert an eloxiertes Aluminium. Die Kühlerabdeckung wird von einem gelben Vega-Logo verziert und in der rechten oberen Ecke sticht ein gelb leuchtendes "R" hervor. Die Stromversorgung erfolgt durch den PCIe-Slot und zwei zusätzliche 8-Pin PCIe-Stecker.
 
Zuletzt bearbeitet:
Ein Versprechen darauf, das jene 22-27% gegenüber der GeForce GTX 1080 Ti für die Radeon Vega Frontier Edition bzw. vielmehr für die Radeon RX Vega aufgeholt werden können, kann damit aber auch nicht abgegeben werden. Dafür ist es viel zu unbestimmt, was Gaming-Optimierungen in den Treibern im Einzelfall letztlich noch herausholen können – dies ist dann doch sehr schwankend je nach Spiel bzw. Benchmark. Hier ist faktisch alles von +10% bis +30% noch drin. Eine realistische Performance-Schätzung augehend von diesen Werten könnte also lauten: Mindestens irgendwo in der Mitte zwischen GeForce GTX 1080 & 1080 Ti, gut möglich auf Augenhöhe mit der GeForce GTX 1080 Ti, mit kleiner Chance auch auf darüber hinaus. Was ja nun nicht wirklich davon abweichend ist, in welche Richtung man die Radeon Vega Frontier Edition schon seit einiger Zeit einschätzt.
Erste 3DMark13-Benchmarks zur Radeon Vega Frontier Edition aufgetaucht | 3DCenter.org

Auch Leo hat eine Einschätzung dazu gemacht.
Und seine Einschätzung ist, dass man es nicht einschätzen kann.

Wenn man den Gaming-Vega 10 erst im August kaufen kann, müssen wir halt noch 4-6 Wochen auf die Tests warten.
Dann gibt es sowieso erst nur ein Ref-Design, und die Custom-Designs kommen deutlich später.
Das wird also eher ein Thema für Q4 2017 werden.

Und Q4 sollten eigentlich schon die ersten Leaks zu Nvidias GV 104/106 bekannt werden.
 
...

hätte schon lust drauf, aber Ich kann mir nicht vorstellen das hier noch der 1080ti Gefahr droht.

Bei dem Preis von 1199€ muss eigentlich viel mehr Leistung drin sein.

Sie sollte auch keine Konkurrenz in dieser Ausführung sein. Das hier ist eine Profikarte dafür ist der Aufschlag sogar relativ gering.

Die Vega für den Consumer Markt kommt noch, wenn diese dann kommt bzw. Der Treiber(dürfte auch der FEzu gute kommen) für selbige sehen wir dann die auch die Gaming Leistung.
 
Das ändert nichts an der Tatsache, dass eine 580 wesentlich höhere TFlops bietet als eine 1060 (6,2 zu 3,8), aber der Spieleleistung nach in der selben Liga spielt. Glaubst doch nicht wirklich, dass AMD den hohen Unterschied durch Designänderungen und erst recht nicht durch Treiberanpassungen ausgleichen kann...
[...]
FLOP-Vergleiche sind wie PS-Vergleiche unter Autos, sehr unbrauchbar, wenn andere Parameter noch entscheidend sind und das sind bei GPUs viele.
Nvidias Architektur ist unter Spielen teilweise deutlich überlegen, wegen dem besseren Geometrie-Front-End und Pixel-Back-End, bei Teraflop-Vergleichen wird beides aber gar nicht erst beachtet.
Und selbst bei TFLOP-Vergleichen ist es mittlerweile sehr wichtig den Takt von der Praxis zu wissen.
Die Pascal-GPUs boosten alle deutlich über den angegeben Basis-Takt, die TFLOPs liegen entsprechend höher.
Z.B. meine 1060 besitzt einen angegeben Basis-Takt von 1518 Mhz ~3, 89 TF, in der Praxis liegt der Takt aber meist bei über 1,8 Ghz ~ 4,6 TF.

die Flops sind in diesem Fall eh nicht vergleichbar, Nvidia steckt mehr in Logik als zum Beispiel in Shader, die AMD Karten sind mehr generisch dafür sind Nvidia Karten mehr spezialisiert, hat Vor und Nachteile für beide Seiten, Tesselation berechnen zum Beispiel die AMD Karten selbst, während bei Nvidia ein fest verdrahtete Logik vorhanden ist


Nicht umsonst sind Karten von AMD für das Mining so attraktiv
Tessellation berechnen AMD und Nvidia gleichermaßen über Fixed-Function-Geometrie-Blöcke, wo bis Heute Nvidia ein deutlich besseres Design aufweist.

Keine Ahnung was Mining-Algorithmen ausmacht, aber AMDs GPUs besitzen häufig mehr Rohbandbreite, wo Nvidia unter Spielen effektiv viel gewinnt durch einen Tiled-Based-Rasterizer und einem effizienteren Pixel-Backend-Design, aber unter reinem Rechenaufgaben, wo man nicht geschickt Pixel- und Geometriearbeit sparen kann, hilft das natürlich nicht.
Ansonsten bietet GCN viel Rechenpower an, wenn die Register nicht überstrapaziert werden und die Arbeitsgröße vom Kernel passt, dann kann man die Pipeline richtig auslasten und bekommt viel mehr Threads durch, als Pascal.
 
Und ja, ich hab vom FurMark gesprochen, es ging einfach darum dass die Karte 383W zieht und das ist eine Tatsache, auch wenn sie dir nicht in den Kram passt (selbst eine gekauft?).

Ist doch völlig egal wie viel die Karte bei FurMark braucht oder lässt du den ganzen Tag FurMark laufen? In den meisten Spielen braucht eine Fury X selbst in UHD nicht mal 300W (Leistungsaufnahme im Detail - AMD Radeon R9 Fury X 4GB im Test: Fiji und HBM auf einer Karte). Das ist zwar nicht so effizient wie eine 980 Ti aber bei weitem nicht so schlimm wie du es hier darstellen willst.

Glaubst doch nicht wirklich, dass AMD den hohen Unterschied durch Designänderungen und erst recht nicht durch Treiberanpassungen ausgleichen kann...

Genau das war sicherlich eines der wesentlichen Ziele bei der Entwicklung von Vega. Wie weit AMD mit dem Ziel gekommen ist bleibt bis zum Release der finalen Treiber zusammen mit der RX Vega wohl noch ein Geheimnis. Dennoch wird sich in der Hinsicht einiges getan haben.

Auch ist die Frage wie die sich selbst optimierenden Spiele damit umgehen werden, wenn die erkennen das die Karte "nur" 8GB hat, dann begrenzen die es darauf.

Im Zweifelsfall kann man dem Spiel immer noch vorgaukeln, dass bspw. 12 GB VRAM vorhanden sind.

hätte schon lust drauf, aber Ich kann mir nicht vorstellen das hier noch der 1080ti Gefahr droht.

Bei dem Preis von 1199€ muss eigentlich viel mehr Leistung drin sein.

Wart wenn dann lieber auf die RX Vega. Außer du hast zu viel Geld übrig :D Wieso willst du denn überhaupt eine Vega, wenn du schon eine 1080 Ti hast?
 
Hört doch auf mit den Tflops-Vergleichen, das sagt gar nix aus.
Glaubst Du Nvidia zaubert die Leistung aus der Luft?
Die haben offensichtlich sowas wie application specific integrated circuit für bestimmte Berechnungen.
Gut für spezielle Aufgaben schlecht für alles andere (Mining)

Wenn Leude mit dem T. Argument kommen kann ich auch mit dem T Argument kommen (Anzahl Tansistorschaltungen) vergleichen und Mhz, ist im Zweifel vlt. näher an der Wahrheit
 
Und Q4 sollten eigentlich schon die ersten Leaks zu Nvidias GV 104/106 bekannt werden.
Und genau das ist das große Problem von Vega. Es dauert alles viel zu lange. Anfang 2018 kommt Nvidia schon mit Volta um die Ecke und AMD bringt frühstens im Q3/2017 erst mal den Gaming Vega. Es ist so absurd wie weit AMD hinterher hängt. Meine 1080 habe ich seit gut 7 Monaten und mindestens genauso lange heißt es schon, dass Vega bald kommt, Vega wird alles plattmachen, poor Volta etc.

Wartet mal schön weiter, alle mit einer 1080 (Ti) zocken schon lange ...
 
Die HBCC demo von Deus Ex hat ja gezeigt das es was bringt. Ist doch IMHO eh eine Treibergeschichte / Hardwaresache.

Wie ich gesagt habe:
das ganze wird wohl in ein paar Spielen etwas bringen.

Die Nachricht, dass AMD es jetzt auf magische weise geschafft hat, den Grafikspeicher zu verdoppeln, glaube ich nicht wirklich. Das hat Nvidia softwaremäßig schon gemacht, AMD versucht es jetzt eben hardwaremäßig.

Was die Games / Anwendungen sehen ist in dem Fall eigentlich uninteressant ?!?

Wenn die Spiele erkennen, dass die Graka 8GB hat und sie deshalb den VRAM "nur" mit 7,5GB vollmachen, dann kann der HBCC nichts mehr ausrichten. Im Gegenteil, wenn dann texturen ausgelagert werden, dann kommt es zu Leistungseinbrüchen, etwas anderes ist nicht möglich. Von daher sollte sich AMD eine Liste, von Spielen anlegen, die den HBCC nicht brauchen.

Ist doch völlig egal wie viel die Karte bei FurMark braucht oder lässt du den ganzen Tag FurMark laufen? In den meisten Spielen braucht eine Fury X selbst in UHD nicht mal 300W (Leistungsaufnahme im Detail - AMD Radeon R9 Fury X 4GB im Test: Fiji und HBM auf einer Karte). Das ist zwar nicht so effizient wie eine 980 Ti aber bei weitem nicht so schlimm wie du es hier darstellen willst.

Es ging hier ursprünglich rein um eine technische Fragestellung und die war ob AMD schon mal mehr als die maximalen 375W gezogen hat und das war mit 383W schonmal der Fall.

Im übrigen hat dies durchaus Praxisrelevanz, da ich z.B. das Netzteil so dimensioniere, das es auch mit Spitzenverbrauch zurechtkommt. Mit anderen Worten, die Fury X braucht ein 130W stärkeres Netzteil, was z.B. bei meinem auf einen Neukauf hinauslaufen würde und ansonsten ca. zwei Leistungsklassen ausmacht.

Im Zweifelsfall kann man dem Spiel immer noch vorgaukeln, dass bspw. 12 GB VRAM vorhanden sind.

Das kannst du machen, zum einen steht dann allerdings in der Systeminfo 12GB VRAM, was für Verwirrungen sorgt. Zum anderen hebelst du Optimierung des Spiels aus, was für große Probleme sorgend dürfte. Ich kann mir schon vorstellen wie dämlich es aussieht, wenn das Spiel auf Vega ruckelt, während man es mit einer GTX 1060 3GB noch auf Ultra Texturdetails zocken kann, obwohl Vega 5GB mehr Speicher hat.
 
Zurück