RX Vega: Silberfarbene Sonderedition, GPU Tach zeigt Auslastung

Wegen der Leistungseinschätzung von Vega... ich denke einfach, warum hat NVidea jetzt eine 1080Ti rausgebracht? Vielleicht um eine Situation wie bei der 290X zu vermeiden? Vielleicht wissen die mehr? Ich bin gespannt auf Vega und Sicher das dann auch die 1080Ti im Preis fällt.:D
 
@Locuza:
Eine spezielle SE gab es ja bei Fury nicht.
Und das AMD Fury mit einer Wakü gekoppelt hat, kam auch nicht besonders gut an.
Dazu war kaum oc-Potential vorhanden, wenig VRAM, und die ältere 980ti war deutlich schneller.
Der hohe Preis anfangs für die Fury gab dann den Rest.
Im 3dcenter wurde das auch mehrfach bemängelt, und man empfahl AMD den Preis zu senken.
Einzig die Nano war rückblickend eine gute GPU, aber auch zu teuer.
Fury hat sich so nur in kleinen Stückzahlen verkauft.

Bei Vega wird AMD hoffentlich aus den Fehlern gelernt haben.
Das Design ist relativ, ich finde die SE aber gelungen, Kühlleistung und Lautstärke kann man nur hoffen dass es überzeugt.
Die SE definiert sich aber anders, wahrscheinlich eine limitierte Auflage, spezielles Design, und eine besondere Verpackung, plus Gimmicks.
 
Zuletzt bearbeitet:
@Locuza:
Eine spezielle SE gab es ja bei Fury nicht.
[...]
Bei Vega wird AMD hoffentlich aus den Fehlern gelernt haben.
Das Design ist relativ, ich finde die SE aber gelungen, Kühlleistung und Lautstärke kann man nur hoffen dass es überzeugt.
Die SE definiert sich aber anders, wahrscheinlich eine limitierte Auflage, spezielles Design, und eine besondere Verpackung, plus Gimmicks.
Es hat dennoch einen Premium-Touch dargestellt und war wie bei den Titan-Modellen von Nvidia eine fest vorgeschriebene Version ohne Custom-Modelle.
Im Prinzip auch alles da, um sein Image zu verbessern.

Mit der SE hat AMD vielleicht ein größeres Potential, weil es nur eine limitierte Version darstellt und AMD theoretisch auf die Kacke hauen könnte, eine richtig gute Lösung verbauen, die in Reviews glänzt, aber nicht zur Massenfertigung im großen Stil eingesetzt wird.
 
SE bedeutet vielleicht aber auch nur die andere Farbgebung die nur an Reviewer rausgegeben wird und mehr nicht.
 
Ob gelb, schwarz oder lila: Die Leistung muss überzeugen!

Ne, es hat seinen Grund, warum etwa nvidia auch seine Karten optisch pimpt. Wer sich ne Karte für 700-800 Euro kauft, der erwartet zu Recht ansprechendes Design und hochwertige Materialien/Verarbeitung. Vega wird wie Fury teuer und High End und da geht ein Plastikbomber gar nicht. Nicht mehr. Die Zeiten sind vorbei.
 
Sehr komisch für mich zählt Leistung bei geringer Lautstärke meine Gamerock 1080 sieht nicht sehr pralle aus läuft aber wunderbar. Wenn die nächste Titan endlich genug Leistung bietet ist es mir wurscht wieviel Plastik da verbaut ist, Leistung und Lautstärke müssen passen, der Rest verschwindet im Gehäuse.

Wir sind hier nicht bei West Coast Customs und Nvidia pimpt schonmal gar nichts die liefern nur die Chips für die Custom Designs der einzelnen Hersteller. ;)
 
...von wem kommen die gepimmten 1060/1070/1080/1080ti/Titan X "Founders Edition"?;)

Mit ultraharten Titan/Magnesium- Gehäuse und Stealth-Protection ;)

Muss sagen, die Fury-Line hat mich damals wirklich beeindruckt seit langem mal wieder, es war m.E. wichtig für AMD, mal was edles und gleichzeitig technisch innovatives (HBM) zu machen. Es war wie eine Offenbarung: AMD kann es noch. Daß sie den Anspruch auf technologische Führerschaft nicht aufgegeben haben. Und habe mich nicht getäuscht, insbesondere Naples wird der Hammer.
 
Zuletzt bearbeitet:
[...]
Muss sagen, die Fury-Line hat mich damals wirklich beeindruckt seit langem mal wieder, es war m.E. wichtig für AMD, mal was edles und gleichzeitig technisch innovatives (HBM) zu machen. Es war wie eine Offenbarung: AMD kann es noch. Daß sie den Anspruch auf technologische Führerschaft nicht aufgegeben haben. Und habe mich nicht getäuscht, insbesondere Naples wird der Hammer.
Das kann ich jetzt nicht so ganz nachvollziehen.
Bei Tahiti vs. Kepler GK104 lag AMD unter Spielen auf einem Niveau, bot aber starke Compute-Performane an, eine hohe Double-Precision-Performance, 1GB mehr VRAM (3 vs. 2) und effektiv mehr Bandbreite.
AMD hatte ein gutes Produkt für mehrere Märkte.

Hawaii als Nachfolger hat zwar im Vergleich zu Nvidias High-End-Produkten etwas auf sich warten lassen, die Leistungsaufnahme war hoch, aber erneut bot man 1GB (4 vs. 3) mehr Speicher an, effektiv mehr Bandbreite, starke Compute-Performance, bessere DP-Leistung und lag erneut grob auf einem Leistungsniveau.

Es war Fiji der häufiger inkonsistente Performance gezeigt hat, weniger VRAM bot (4 vs. 6) und dank Maxwell auch nicht mehr so stark in Führung bezüglich Compute und effektiver Bandbreite lag.
HBM war technisch zwar führend, der Chip selber leider nicht.
 
  • Like
Reaktionen: hfb
Es war Fiji der häufiger inkonsistente Performance gezeigt hat, weniger VRAM bot (4 vs. 6) und dank Maxwell auch nicht mehr so stark in Führung bezüglich Compute und effektiver Bandbreite lag.
HBM war technisch zwar führend, der Chip selber leider nicht.
Warum, unter Vulkan ist die doch superschnell? AMD hat nicht erst seit Ryzen den Schwerpunkt auf zukunftsorientierte Konzepte und Technik wie GCN gesetzt. Pascal ist bezüglich Async Compute ja bekanntlich etwas fußlahm. Wer würde sich heute etwa eine 1060 statt 480 kaufen?

Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS - ComputerBase
 
mal ehrlich gesagt das einzige ausschlusskriterium bei den furys war/ist die 4gb hbm hätte ne fury (non x) 8gb vram wäre sie noch heute eine der besten und beliebtesten karten überhaupt , in hohen auflösungen hats sie nach wie vor gut power nur eben die 4gb hbm sind zu wenig

die neuen vergas müssen bald kommen (am besten gestern ) oder sonst wird ess für amd markttechnisch sehr schwierig , amd rfan hin oder her ; irgendwann muss mal was bei rum kommen nur der hypetrain verkauft nicht (polaris war enttäuschend meine persönliche meinung )

mfg
 
Warum, unter Vulkan ist die doch superschnell? AMD hat nicht erst seit Ryzen den Schwerpunkt auf zukunftsorientierte Konzepte und Technik wie GCN gesetzt. Pascal ist bezüglich Async Compute ja bekanntlich etwas fußlahm. Wer würde sich heute etwa eine 1060 statt 480 kaufen?

Doom mit Vulkan: Benchmarks zeigen bis zu 66 Prozent mehr FPS - ComputerBase
Nö, eine 980Ti ist unter Vulkan schneller:
Dota 2 Benchmark: Vulkan ist schneller und langsamer als DirectX 11 - ComputerBase
(Ich bin auch ein großer Fan von Generalisierung)

Was bedeutet übrigens "fußlahm unter Async Compute", gibt es denn dazu ein brauchbares Rating?

Und ich würde mir lieber eine 1060 GTX kaufen, als eine RX480.
Ich vertraue nicht auf AMDs Treiberqualität (Stabilität, Features, Performance unter DX9/10/11/OGL, robustes erzwingen von AF, MSAA, Vsync), den höheren Verbrauch, den schlechteren Videodecodern und insgesamt sind dann auch die 2GB weniger VRAM für mich nicht so wichtig.
 
Zuletzt bearbeitet:
Nö, eine 980Ti ist unter Vulkan schneller:
Dota 2 Benchmark: Vulkan ist schneller und langsamer als DirectX 11 - ComputerBase
(Ich bin auch ein großer Fan von Generalisierung)
Ich generalisiere nicht. Unter Doom ist Fiji schneller, was sicherlich an der besseren Optimierung des Spiels auf Vulkan durch id software liegt. Unter Doom macht das ja 66% Mehrleiustung aus, bei Dota wesentlich weniger als die Hälfte, was für die bessere Qualität der Optimierung spricht, als das was Valve in Dota 2 geleistet hat. Unter Vulkan zu programmieren soll ja wegen des Aufwands nicht die reine Freude sein.

Unter OpenGL ist die TI in Dota 2 sogar schneller, was ja gerade dafür spricht, daß nvidia bzgl. AsyncCompute noch kein Konzept hat, jedenfalls nicht in Hardware und nichts, was bereits released wäre.

Also unter OldGL und DX11 haben die fähigen Treiberentwickler von nvidia sicherlich gute Arbeit geleistet, aber sie können nicht hexen. Mit GCN wird ein sauber optimiertes Spiel wie etwa Doom unter den neuen, aktuellen Apis immer schneller sein, selbst wenn die Treiberabteilung von AMD nicht die Mannstärke und Ressourcen haben sollte, wie nvidia. Du kannst mir natürlich noch eine Reihe von Vulkan bzw. DX12 Titeln um die Ohren hauen, wo das offenbar nicht der Fall ist, aber die Wahrheit ist doch, wenn Du ehrlich bist, daß die Spielentwickler in solchen Fällen handwerklich versagt haben, daß sie die neuen Apis (noch) nicht auszunutzen verstehen, teils auch, weil das Zeit, Aufwand und Geld kostet. Nicht ohne Grund setzt id ja beim Arena-Shooter nicht auf Vulkan-Optimierung und nicht auf die Engine, die sie für Doom benutzt haben. Das hat ausschließlich finanzielle Gründe.
 
Zuletzt bearbeitet:
Du hast eben unter Vulkan geschrieben und Doom stellt nicht allgemein Vulkan dar.
Doom verwendet auch für AMD exklusive Shader-Intrinsics und das ist Vulkan unabhängig.

Wenn wir uns die Beispiele mit Async Compute on anschauen, kommt da ungefähr 5-15% heraus, häufig ändert das kaum etwas am Ranking.
 
Du hast eben unter Vulkan geschrieben und Doom stellt nicht allgemein Vulkan dar.
Doom verwendet auch für AMD exklusive Shader-Intrinsics und das ist Vulkan unabhängig.

Wenn wir uns die Beispiele mit Async Compute on anschauen, kommt da ungefähr 5-15% heraus, häufig ändert das kaum etwas am Ranking.
Richtig, Doom ist ein Spiel und Vulkan eine Render-API. AC ist zunächst mal eine Technik der Parallelisierung, damit Du das richtig verstehst, die bei AMD über GCN in Hardware ausgeführt werden kann, bei nvidia offensichtlich nur in Software, weswegen Pascal von gestern ist.id macht in Doom von AC unter Vulkan exzessiv Gebrauch, was id software ja selbst betont.

Falls das für Dich unbekannt war, nachlesen! Irgendwo müssen die 66% Mehrleistung ja herkommen, wobei von seiten von id in Bezug auf die Auswirkungen der Parallelisierung von ca. 50 Prozent Mehrleistung gesprochen wird. Ich gehe daher davon aus, daß Deine Behauptung, von den 66 Prozent Mehrleistung unter Doom seien nur 5-15% auf Async Compute zurückzuführen, aus der Hüfte geschossen war und Du mir keine Quelle als Beleg nennen kannst.

Die Lederjacke/nvidia sieht einfach bzgl. der Nutzung der Möglichkeiten der Parallelisierung, die die neuen aktuellen Apis bieten, ziemlich alt aus.;)
 
Zuletzt bearbeitet:
Die Sonderedition könnte auch eine Art "Founders Edition" von AMD sein, limitiert müsste sie nicht unbedingt sein, etwas teurer als das Referenzmodell (für die bessere Optik) für die AMD-Fans. Videocardz ist keine Quelle der ich bezüglich der limitierung glauben würde. Sollte das mit der VEGA-Auslastung stimmen, könnte man sagen "Poor Volta" (also mindestens Volta-Performance zu früherem Zeitpunkt) könnte drin sein. VEGA 4K im CPU-Limit (könnte bei Ryzen hinkommen :P).
 
Richtig, Doom ist ein Spiel und Vulkan eine Render-API. AC ist zunächst mal eine Technik der Parallelisierung, damit Du das richtig verstehst, die bei AMD über GCN in Hardware ausgeführt werden kann, bei nvidia offensichtlich nur in Software, weswegen Pascal von gestern ist.id macht in Doom von AC unter Vulkan exzessiv Gebrauch, was id software ja selbst betont.

Falls das für Dich unbekannt war, nachlesen! Irgendwo müssen die 66% Mehrleistung ja herkommen, wobei von seiten von id in Bezug auf die Auswirkungen der Parallelisierung von ca. 50 Prozent Mehrleistung gesprochen wird. Ich gehe daher davon aus, daß Deine Behauptung, von den 66 Prozent Mehrleistung unter Doom seien nur 5-15% auf Async Compute zurückzuführen, aus der Hüfte geschossen war und Du mir keine Quelle als Beleg nennen kannst.

Die Lederjacke/nvidia sieht einfach bzgl. der Nutzung der Möglichkeiten der Parallelisierung, die die neuen aktuellen Apis bieten, ziemlich alt aus.;)
Bei der Parallelisierung hat man sich sicher auf die CPU bezogen und nicht GPU, Async Compute war zu Beginn auch nur bei keinem AA oder nur TSSAA verfügbar und ich erinnere mich noch an Videos mit anderen AA-Modi, wo man grob herausrechnen konnte, dass AC jedenfalls nicht mehr als 15% hilft, wenn es wirklich notwendig ist, wühle ich mich dann sogar noch durch YouTube.
Die 66% Mehrleistung kommen primär von der Vulkan API vs. OGL, etwas von Async Compute und dann noch einmal von den Shader-Intrinsics.

Du kannst ja auch die Benchmarks von CB unter 4K anschauen, am Ende bleibt im GPU-Limit nur noch ein Vorsprung von 11%.
Man kann auch die Fury X mit einer 980Ti unter OGL und Vulkan vergleichen, während unter OGL der Abstand ziemlich groß ausfällt, wird er mit steigender Auflösung immer geringer.

Und bezüglich der Lederjacke und alt aussehen:
Gears of War 4 DX12 mit Async Compute:
Gears of War 4 Benchmark: Eine uberraschend gute PC-Version mit UWP (Seite 2) - ComputerBase

Nützt den Radeons 7-9%, den Pascals nur 2%, dennoch ist eine 1060 GTX schneller als eine RX 480.

Sniper Elite 4 DX12 mit Async Compute:
Sniper Elite 4 Benchmark: Schneller mit DirectX 12 – immer! - ComputerBase

Die RX 480 gewinnt alleine durch DX12 16%, AC im Anschluss hilft nur noch um 3%.
Bei der GTX 1060 sind es 3% und im Anschluss 2%.
Insgesamt reicht es um das Ranking von 7% Rückstand gegenüber der 1060 GTX unter DX11 in 5% Vorsprung unter DX12 umzuwandeln.

Ashes of the Singularity war praktisch das erste Spiel mit AC on/off-Vergleich:
Ashes of the Singularity: Leistungsexplosion durch DirectX 12 (Seite 2) - ComputerBase

Die Fury X gewinnt z.B. im worst case wahnsinnige 82% unter Full-HD, primär dank dem CPU-Overhead der wegfällt, AC selber steuert insgesamt nur ~10% zum Ergebnis bei.
In dem Spiel setzt sich aber die Fury insgesamt deutlich an die Spitze.

Bei Hitman gab der Entwickler grob 10% an, ich erinnere mich das selbst unter DX11 Radeons über Geforce-Modellen dastanden, manchmal ist es auch einfach nur die allgemeine Optimierung bzw. der Code ob Radeon oder Geforce gewinnt.
 
Man könnte auch noch Halo Wars 2 erwähnen. Dieses spiele ich im Moment und als ich angefangen hatte, hatte ich noch meine RX480 verbaut und danach eben die GTX1080

HW2 nutzt DX12, welche Techniken genau, weiss ich nicht, allerdings soll ja DX12 im allgemeinen weniger vom Treiber beeinfluss werden.

Wenn man nun Benchmarks ansieht, ist die GTX1060 wieder schneller als die RX480.

Selbst kann ich sagen dass die RX480 bei diesem DX12 Titel sehr komische Drops verursacht, welche noch nicht einmal durch zu geringe Performance zu erklären sind. Das Spielgeschehen wurde deutlich beeinflusst und sicher nicht um guten.

Als ich meine GTX1080 installiert habe (AMD Treiber normal de-installiert, kein DDU, kein Windows neu aufspielen... Nvidia Treiber installiert) und alle Probleme waren verschwunden! Die Mehrleistung konnte getrost in 4K (Downsampling) investiert werden.

Wenn nun immer gesagt wird, dass die AMD Karten besser für die zukünftigen Spiele wären, wo bleiben diese denn? In einem der aktuellsten DX12 Titel hinken sie wieder hinterher.

Das wirklich einzige Spiel wo sie wirklich ihre stärken zeigen können ist nun mal Doom in Vulkan.

Hier steckt aber auch viel AMD Arbeit mit drin, wie Locuza schon angedeutet hat. Wenn ich nun betrachte wie schwer es Nvidia hat, verschiedene "Techniken" (z.b. PhysX, welches richtig eingesetzt einen riesen Mehrwert haben kann) voran zu bringen und sie habe die Richtigen Argumente ($$$), wie soll es AMD dann schaffen die jetzt schon von den Publisher gehetzten Game-Entwickler zu motivieren auch hier noch vermehr Arbeit zu investieren? Es braucht einfach mehr als nur ein Vorzeigetitel.
 
Zurück