Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Das ist leider nicht "neutral", denn das ist absolut beschönigend: JEDE Architektur ist im Sweet Spot effizient (und darunter sowieso), die Frage ist ob dann auc hdie Leistung ausreicht um die Konkurrenz zu einer Reaktion zu zwingen.
Vega ist aber in dieser Konstellation noch weniger Performant und so oder so, braucht man um die Konkurrenz zu erreichen einen 50% größeren Chip (was massiv mehr kostet, vermutlich das doppelte), Spezialram (kostet auch massiv), spezielle Herstellung usw usf.
Gemessen am Ingenieursaufwand ist Vega einfach keine gute Architektur geworden, die Konkurrenz in jedem Fall sowohl bei Kosten als auch bei der Perf/W deutlich besser.
Einen riesen Chip effizient zu machen ist keine Kunst, außer er muss wieder Super-Effizient sein und in ein Smartphone.

Da scheinst du wie viele andere ein paar Aspekte völlig ausser acht zu lassen und nicht über einen Gamerhorizont schauen zu können.Vega ist ein allround Chip der ob für Gamer als Vega oder im Profibereich als Frontier genannt unverändert verbaut wird .Bei NV sind die Chips auf Gamerkarten nicht identisch bzw. müssen nicht über die selben features wie von Profikarten benötigt verfügen .Vergleicht man die 1060/70/70ti/80/80ti gegen Vega im Profibereich sieht die Sache sicher nicht zu gunsten der NV Chips aus .Sieht man sich die Profi orientierten NV Karten deren Chipgrösse sowie deren Leistungsaufnahme an ist man hier auf dem selben level wie AMD mit Vega dazu ihre exorbitant hohen Preise .
Ja für Spieler hat NV die leistungsfähigeren Karten weil diese Karten nur für diesen einen Zweck optimiert sind .Nein und Minen ist kein ursprünglich angedachtes Betriebsumfeld hier werden Karten beider Hersteller lediglich zweckenfremdet .Aber hier erkennt man trotzdem das selbst die günstigeren AMD Karten ihren teuren Konkurenten überlegen sind was ebenfalls ein Zeichen ist das NV GTX 1060/70/70ti/80/80ti reine Gamerkarten sind und Gamen machen sie super kein Zweifel .Wäre aber auch traurig wenn es anderst wäre .
Für einen allround Chip mit tendenziell eher Profiausrichtung macht Vega seine Sache beim Gaming eigentlich recht gut .
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Da scheinst du wie viele andere ein paar Aspekte völlig ausser acht zu lassen und nicht über einen Gamerhorizont schauen zu können.Vega ist ein allround Chip der ob für Gamer als Vega oder im Profibereich als Frontier genannt unverändert verbaut wird .
Ja, das lasse ich außer acht. Ganz bewusst. Denn da ist AMD selbst Schuld, wenn sie Dinge mitschleppen die sie in 99% der Fälle nicht brauchen. Denn der Profimarkt ist klein und dort hat Nvidia 95%, obwohl AMD seit 2011 ihre tollen zusätzlichen Features mitschleppen.
AMD hat im Profimarkt nach zig versuchen keinen Erfolg, es bleibt ihnen selbst überlassen ob sie einsehen, dass im Gamingmarkt mehr zu holen ist im Moment (und mit dem dann verdienten Geld man sich eine bessere Fokussierung auf den Profimarkt leisten kann), oder ob man weiterhin mit Features für die sich nur 1% der Käufer interessieren den Chip größer machen möchte, ohne dass es für die anderen 99% einen Mehrwert hat.

Bei NV sind die Chips auf Gamerkarten nicht identisch bzw. müssen nicht über die selben features wie von Profikarten benötigt verfügen .Vergleicht man die 1060/70/70ti/80/80ti gegen Vega im Profibereich sieht die Sache sicher nicht zu gunsten der NV Chips aus .
Das ist leider nicht richtig.
Natürlich entwickelt Nvidia alle 2 Generationen auch Ableger für den Profibereich, aber es kommen auch oft die zu den Spielerkarten identen Chips in diesen Bereich und umgekehrt.
Nicht alle, aber einige.
Meistens sind die Quadro Graifkkarten dieselben wie im Desktop mit anderem Treiber.

Sieht man sich die Profi orientierten NV Karten deren Chipgrösse sowie deren Leistungsaufnahme an ist man hier auf dem selben level wie AMD mit Vega
Aber gut, sehen wir uns deine Behauptungen an:
AMD Radeon Vega Frontier Edition 16GB Review
Performance knapp an Nvidia dran, sofern der Treiber mitspielt, Verbrauch deutlich höher, das trotz größerem Chip HBM usw.Also: nein, auch für den angeblich ausgelegten Bedarf im Vergleich zu Chips die ausm Gamingsegment kommen nicht wirklich eine Alternative im Profibereich.
In den verschiedenen Spec viewperf tests klatscht es teilweise von einer 1080 basierenden Grafikkarte so richtig The Radeon Vega Frontier Edition 16GB Air Cooled Review | Professional Testing: SPECviewperf, LuxMark, Cinebench


dazu ihre exorbitant hohen Preise .
Wenn über 90% der Kunden das bereit sind zu zahlen, sind die Preise nicht exorbitant, sondern offenbar genau richtig um den Kunden die gewünschte Qualität und Services zu liefern.

Ja für Spieler hat NV die leistungsfähigeren Karten weil diese Karten nur für diesen einen Zweck optimiert sind .
Wie gesagt: Nvidia bietet die Karten mal so mal so an, sie unterscheiden sich in Treiber und Bios und ansonsten kaum, und im jeweiligen Bereich sind sie absolut in führender Position.
Für einen allround Chip mit tendenziell eher Profiausrichtung macht Vega seine Sache beim Gaming eigentlich recht gut .

Vega performt unterdurchschnittlich (gemessen an den Physikalischen Gegebenheiten) in Spielen und auch im Profibereich. ich weiß nicht, was konkret daran nun gut sein soll

AMD ist im Profibereich immer noch Jahre hinter Nvidia her. Das kann man sich mit reinen Balkenvergleichen natürlich schönreden, aber die Tatsache ist, dass Nvidia auf der Softwareseite einen riesen Vorsprung hat. Außerdem im Servicebereich (was aufgrund des Geldes kein Wunder ist, aber das Geld holt man sich ja vorrangig von den Spielern und dort will AMD ja deiner Aussage nach nicht extra Chips bringen).

Die Karte kostet nicht umsonst nur 1000€, was echt schon nach "TRAP!" Schreit im Profibereich. Dass die Produktqualität dann nicht die erreicht von einem 5000€ Produkt ist klar, dann kommen solche Fehler daher (wobei ich Linus nicht besonders mag, weil er immer ein bisschen gekauft wirkt).
YouTube
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Diverse Chipgrössenunterschiede der Gamer und Profikarten funktionale Hardwareeinheiten ect. Profikarten die mit 300+ W TDP laufen alles gleich lass einfach gut sein .Die NV Profikarten ebenfalls mit GDDR5(X) wie Gamerkarten bestückt sind .Nein halt da ist blödsinnigerweise HBM2 verbaut der bei dir nur teuer und nutzlos rüberkommt kein Ding .Sicher wieder nur ein Kommunikationsfehler wie damals beim Ram der 970 .Tests die keine CAD oder andere Profianwendungen wo Software und Treiber spezifisch auf die Hardware angepasst werden beinhalten alles wumpe .Weil deine Tests nur Programme sind für die Gamingkartentreiber ausreichend sind .Auch das die benötigten Profitreiber nicht auf Consumerkarten laufen und die Karten wo die Treiber freigegeben sind mit teuer noch als untertrieben zu bezeichnen sind alles wurscht .Ich mit keinem Satz in irgendeiner Weise etwas über Marktanteile gesagt habe was dich aber nicht davon abhält drüber zu referieren supi passt schon .Ich nichts gegenteiliges was die Vormachtstellung von NV im Gaming betrifft sagte ,was dir aber auch nicht recht gewesen zu sein scheint .Muss ich mich natürlich für entschuldigen das das nicht eindeutiger rüberkam werd mich bessern .
Scheinbar glaubst du alles was du schreibst da muss man auch nicht weiter diskutieren und wäre wohl ergebnislos .
Du darfst gern mit deinem unerschütterlichen Gamerhorizont Glauben bis ans ende deiner Tage leben .Wünsche dir nur das beste und möge die Macht mit dir sein .

Mfg

Edit:
Zu was Vega auch beim Gaming zu leisten im Stande ist sieht man bei entsprechend angepassten Spielen wie z.B. Wolfenstein .Das die technischen Möglichkeiten die Vega als Chip implementiert hat leider bei den meisten Spieleentwicklern keine Berücksichtigung finden kann man nur als schade bezeichnen .Im Hinblick bezüglich der benötigten Mehrarbeit beim implementieren zur im Gamingbereich verkauften Anzahl leider jedoch verständlich .
NV verdient anteilig das meiste Geld mit Profi und Deeplerning Server Hardware .Gaming ist sicher auch kein unerheblicher Anteil aber nicht der Gewinnträchtigste .
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

ich will Vega mit Aquabolt ... mach ma AMD!
Würde im Schnitt Vega10 auch nicht retten. :-|

Ich glaub Amd entsorgt auf der zusätzliche Chipfläche Atommüll und macht so Gewinn.
Der Chip hat ca 40-50% mehr Transistoren pro Shader im Vergleich zu AMDs Fiji-Chip.
Die komplette Fiji GPU umfasst 8,9 Milliarden Transistoren auf 596 Quadratmillimeter Chipfläche.
Was Amd mit den Milliarden Transistoren macht, ist die Frage , es könnten 2mal Fiji Shader untergebracht werden,das ist ne Menge Chipfläche die bisher "nix" bringt.

Die Ipc ist nicht "BESSER" bei Vega als bei Fij also wozu so viele Transistoren? der Takt kann auch mit 28nm auf 14nm besser werden, Mehrleistung kommt nur vom Takt+ und HBM2.
IPC-Test zur Radeon Vega Frontier Edition zeigt sehr ineffektiven Vega-10-Chip | 3DCenter.org
YouTube
Die FE ging an den Start mit unfertigen Treibern, Vega10 war zum launch z.B. im Schnitt 6% schneller beim gleichen Takt, Spiele wie BF1 und Titanfall 2 sogar über 20%:
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 7) - ComputerBase

Laut AMD ist das meiste Budget für die höheren Taktraten draufgegangen und seit GCN Gen 3 hat sich schon eine Menge getan.
Die Geometrie-Engines sind besser geworden, die Parameter-Caches deutlich größer, die Instruction-Buffer pro CU sind größer, bei Vega10 gibt es im Vergleich zu Fiji auch mehr I$ und K$, da nur noch von 3 CUs geteilt und nicht mehr 4.
Der L2$ ist doppelt so groß und es gibt eine Menge neuer Features wie Draw-Stream-Binning-Rasterizer, Double-Rate FP16, Conservative-Rasterization, ROVs usw. was DX12 anbelangt und andere APIs.

Die Transistoren sind nicht im schwarzen Loch gelandet, die Leistungsskalierung leider irgendwie schon.

Die Ipc kann so auch nicht besser sein als die von Fiji. Die zusätzlichen Tansistoren sind nur für das Routing da, um Vega mehr Takt zu entlocken.

Nochmal ( sollte ich hier große Schnitzer drin haben bitte Korrigieren! ):

GCN ist von der Idee her super. Der Hardware scheduler von GCN macht eine super Arbeit für die geringe Menge die er an Strom frisst. NV ist da mit Fermi bisschen auf die Nase gefallen ...

Das Frontend ist okay, allerdings geht hier schon das debakel von GCN los. Vereinfacht ausgedrückt ist es so ( nehmen wir mal Polaris 10 XT als Beispiel ) das wir einen Chip mit 2304 Shadern haben. Das sind 36 "Shader-Cluster" ( grob gesagt skaliert AMD über die Anzahl an Cluster die "größe" des entsprechenden Chips. Wenn ich nicht ganz falsch liege hat Tonga und Fiji sogar das exakt gleiche Frontend obwohl Fiji doppelt so groß ist :ugly: ) welche aus 4 x 16 SIMD Blöcken besteht also 64. Diese Aufteilung ist bei allen GCN Produkten identisch, wenn das jemand nachrechnen möchte.

Vereinfacht ausgedrückt ist es halt so das jeder Shader-Cluster 4 verschiedene Befehle gleichzeitig abarbeiten kann. Ohne jetzt weiter ins Detail gehen zu wollen ist es aktuell AMDs Problem das die SIMD Einheiten nicht ausgelastet werden wenn die "Berechnung" weniger als 16 Befehle in Anspruch nimmt. Das müsste ( bin dann bei der Vorlesung wo es um uArch ansich ging eingeschlafen :> ) auch der Punkt sein wo AsyncCompute in Spiel kommt. Uns wurde da das Beispiel Pentium 4 ans Herz gelegt
welcher unter seiner langen Pipeline lit welche seine Ipc kaputt gemacht hat. Dafür wurde der Leerlauf für SMT benutzt :P Natürlich ist die entsprechende Technik eine ganz andere ( CPU serieller Workload, GPU parallel ) und es sollte nur zur Anschaung dienen.

Ich hab mir das laienhaft so übersetzt das GCN in den wichtigen Bereichen "nicht breit genug" und "zu lang" ist um eine höhere Auslastung zu erzeugen.

Das ist zumindest das was mir im Kopf geblieben ist. Sollte hier jemand lesen der noch mehr Wissen als ich hat bitte ich darum das alles zu korigieren bevor ich Unwahrheiten im Netz verbreite.

AMD kann an GCN festhalten wenn sie diese Baustelle mit Navi angehen. Allerdings wird es nicht reichen die Shader zu verändern, das ganze Routing und Latenzen und und und müssen neu überarbeitet werden.
Die "IPC" bzw. sagen wir einfach effektive Leistung pro Takt ist höher und müsste eigentlich im Schnitt viel höher ausfallen.
Letztendlich kann man sich nur die Endleistung anschauen, die sich aus unzähligen Faktoren zusammensetzt und besonders bei Spielen wird es kompliziert, weil dann schauen wir uns die ganze Pipeline einer Architektur an und können Fixed-Function-Einheiten nicht ignorieren, die einen wesentlichen Faktor bezüglich der Performance und Effizienz darstellen.

Seit GCN Gen 3/Fiji hat sich an sehr vielen Stellen etwas getan.

GCN Gen 5/Vega10 vs. 3/Fiji:

- Der Draw-Stream-Binning-Rasterizer reduziert den Overdraw stark und erhöht die Perf/Watt, laut der Hot Chips-Präsentation gewinnt die Vega FE dadurch 7% Performance und auch ungefähr 7% Perf/Watt.
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/505503-amd-radeon-vega-20-und-vega-12-linux-patches-vermerkt-6.html#post9311413

- Die Geometrie-Engines sind deutlich besser, die Parameter-Caches größer, das Strip-Format führt nicht mehr zu massiven Performance-Verlusten, Dreiecke werden verworfen, wenn sie kleiner als ein Pixel sind und nicht zum Bildinhalt beitragen:
Benchmarks und Fazit

Und das merkt man dann auch besonders bei Tessellation:
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#abschnitt_vega_legt_bei_tessellation_zu

RoTR Tess Off = 29% schneller, Tess on = 54% schneller, TW3 Tess Off = 46% schneller, Tess on = 61%.

- Unterstützt Instruction-Prefetching, erhöht effektiv die Performance der CUs und das sieht man bei so Demos wie 2nd Stage Boss, die nur aus Compute bestehen und der ganze Inhalt in die Caches passt:
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a4

- Hat 33% größere Instruction-Wave-Buffers
- Das Infinity-Fabric hat deutlich bessere Schreib/Leselatenzen was die TMUs betrifft (siehe Hot Chips Präsentation, erster Link beim DSBR)
- Die Delta-Color-Compression unterstützt weitere Kompressionsformate und ist effizienter geworden, erhöht effektiv die Bandbreite.
- Die ROPs halten ihre Caches nun L2$ kohärent, Vega muss seinen L2$ bei Deferred-Rendering deutlich seltener leeren, erhöht die Performance und Effizienz, Sebastian Aaltonen hat wenn ich mich richtig erinnere ~1/3 weniger Cache-Flushes im Vergleich zu Polaris bei seinem kommenden Spiel Claybook gemessen.

Das sind alles Dinge, welche die Performance in vielen Situationen verbessern und an vielen Stellen auch nachgemessen werden konnten, dass am Ende im Schnitt aber die Performance ~6% besser ausfällt, ist ein Trauerspiel, da hängt dann irgendwo an anderer Stelle etwas oder AMD ist mit den Treibern noch nicht soweit (gewesen).


-----

Was GCNs Design-Schwächen angeht wird es sehr akademisch und da braucht es dann wahre Experten, um das seriös einschätzen zu können.
Bezüglich des Hardware-Schedulers kann man aber schon mal die Frage aufstellen, welcher?
Jeder Chip hat zig unterschiedliche Hardware-Scheduler, egal von welchem Hersteller.
Bezüglich der Compute-Unit hat GCN einen Scheduler, welcher jeden Takt eine SIMD-Einheit mit einer Wavefront bzw. Arbeitsbündel aus 64 Threads versorgt und jede SIMD-Einheit rechnet ihre 64 Threads in 4 Takten statisch durch ohne auf die Instruktionen zu achten.
Bei Nvidia sind das Scheduler, welche 32 Threads an die SIMD-Einheiten verteilen und die nicht nur auf Thread-Level-Granularität arbeiten, sondern auch schauen, welche Instruktionen am Besten ausgeführt werde sollten.
Bei Fermi hat sich die Hardware noch darum gekümmert, um zu überprüfen, welche Instruktion als nächstes ausgeführt werden sollten, ab Kepler übernimmt das die Hardware nicht mehr, da eine so komplexe Überprüfung nicht notwendig ist und unnötig Komplex ausfällt und Energie kostet.
Siehe Seite 10 aus dem Whitepaper zu Kepler:
https://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Teilweise haben einige es in den Kopf bekommen, dass Nvidia seit Kepler irgendwie allgemein keinen Hardware-Scheduler mehr hat und deswegen die DX12-Performance so schlecht im Vergleich zu AMD ausfällt.
An der Stelle ein völlig falsches Bild.

------

Bezüglich der SIMD-Units, dass ist natürlich ein komplexes Thema und es gibt Vor- und Nachteile bei den Gründen für das Design.
AMD z.B. verwendet Arbeitsbündel von 64 Threads, dass führt schon einmal generell dazu, dass bei AMD im Schnitt prozentual mehr Leerlauf existiert, als bei Nvidia, welche nur 32 verwenden.
Ein anderes Problem ist die Lebenszeit von einem Arbeitsbündel, bei 64 werden mehr Register reserviert, bevor der Platz wieder freigegeben wird, dass kann dann auch wieder zu niedrigerer Performance führen.
Vorteile sind z.B. sind das man aber bei 64 Threads eben 64 verteilt werden und nicht nur 32, damit kann AMD sicherlich Scheduling-Logik sparen, wenn sie nur einen Verteiler und notwendige Funktionen pro 64 Threads brauchen und nicht pro 32, im Optimalfall, wenn es wenig bis keinen Leerlauf gibt, ist das auch effizienter.

AMD kann und muss auch deutlich mehr Threads aktiv im Pool haben, um Latenzen zu verstecken.
Bei AMD kann eine Compute-Units aus 64 "ALUs" 2560 Threads in flight haben, Nvidia 2048 pro 128 "ALUs" (GP102 und GV100 haben nur 64 ALUs pro CU = deutlich mehr Threads möglich)
10 Wavefronts a 64 Threads pro SIMD-Unit = 10 x 64 x 4 = 2560 pro Compute-Unit x 64 im Falle von Fiji/Vega10 = 163.840 Threads in flight.
Bei Nvidia sind es 16 Warps a 32 Threads pro SIMD-Unit = 16 x 32 x 4 = 2048 x 20(1080) = 40.960 Threads bzw. x28 (1080 Ti) = 57.344 Threads.

Bei beiden hängt es davon ab, wie hoch die Registerlast pro Threadgroup ausfällt, denn das theoretische Maximum kann nur erreicht werden, wenn es genug Register bzw. Slots gibt.
Wenn es 256 Slots gibt und ein Arbeitsbündel schon 128 belegt, dann gibt es nur Platz für zwei Arbeitsbündel und damit sehr wenig Potential Latenzen zu verstecken, wenn eine Threadgroup auf die Ergebnisse warten muss und man in den Leerlauf kommt und stattdessen keine andere Wavefront abarbeiten kann.
Es ist aber nicht notwendig die maximale Anzahl an Threads im Pool zu haben, um die maximale Performance zu erreichen, nur nicht zu gering sollte es ausfallen.

Hier werfe ich mal das Thema Async Compute hinein.
Soweit ich das verstanden habe kann AMD mit sehr wenig Overhead zwischen GFX-State und Compute-State hin und her wechseln.
Eine CU kann gleichzeitig Wavefronts von 3D-Workgroups abarbeiten und Compute-Aufgaben.
Das hat dann explizit eine Bedeutung bei Spielen und APIs wie bei den Konsolen und DX12/Vulkan, denn bei Spielen kommen die Fixed-Function-Einheiten zum Einsatz, wie Vertex-Assembly, Rasterizer, TMUs, ROPs usw. und führen notwendige Vor- und Nacharbeiten durch, wo Instruktionen natürlich davon abhängig sein können.
Wartet man auf die Fixed-Function-Hardware können die Shader nichts machen, bei Async Compute kann AMD den Leerlauf damit effektiv fühlen, indem sie währendessen Compute-Aufgaben abarbeiten.

Vor Pascal hat Nvidia das Problem das ihre Hardware nicht "gleichzeitig" GFX- und Compute-Workgroups auf einer Compute-Unit ausführen kann und auch jetzt mit Pascal nicht, aber vor Pascal hat der notwendige Switch Nvidia bei Nvidia viel Zeit gekostet, da es länger gedauert hat bis der Arbeitsmodus gewechselt werden konnte und die Ressourcen für Compute und GFX-Aufgaben konnten nur statisch reserviert werden.
Pascal kann das dynamisch und schaltet wesentlich schneller um, sodass Nvidia jetzt auch schnell genug ist um von Async Compute zu profitieren, wenn man auch dort auf die Fixed-Function-Hardware warten muss.

Soweit ich das sehe, ist das aber nur am Rande ein Problem von GCN, denn wenn man GCN anschaut, dann ist das Herz davon eigentlich die ISA und der Shader-Aufbau und weniger wie die Grafikpipeline aussieht.
Deswegen ist es auch seit Jahren meine Vermutung, dass AMD nicht notwendigerweise von GCN wegkommen muss und eine völlig neue Architektur und Shader benötigt, sondern ihre Grafik-Pipeline auf Trab bekommen muss.
Vega hat hier am meisten verbessert und die Resultate zeigen es teilweise, aber wie gesagt die Endperformance und Effizienz ist miserabel.

Weil der Beitrag wohl schon lange genug ist, schneide ich nur grob noch weitere Themen an, die man natürlich nicht vergessen darf.
Wie der Cache-Aufbau, die Bandbreite pro Unit, welche Formate wie schnell berechnet werden können, die Skalare-Unit bei GCN, welche gewisse Sachen berechnen kann, ohne das man die SIMD-Units dafür braucht und teilweise Probleme mit 64 Thread großen Arbeitsgruppen negiert.
Dann so API und Shader-Sprachen Limitierungen, womit nicht jede Eigenart spezifisch optimiert werden kann und jede Architektur mehr oder weniger deswegen direkt leidet.

Wie gesagt, ohne einen Experten wird man wohl kaum eine seriöse Einschätzung abgeben können, dass Zeug was ich hier geschrieben habe, kann man teilweise sicherlich auch in die Tonne werfen, da es etliche Variablen gibt und grobe Überstellungen ein völlig falsches Bild abgeben könnten, wo Probleme bzw. Vor- und Nachteile herrschen.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

@Locuza: mal wieder danke, dass du dir stets die Mühe machst. Ich hoffe du kopierst vieles der täglich gleich beantworteten Fragen nur noch zusammen. Bei dir ist das halt keine Wall of Text sondern eine Wall of Information. Wieder was gelernt

Die NV Profikarten ebenfalls mit GDDR5(X) wie Gamerkarten bestückt sind .Nein halt da ist blödsinnigerweise HBM2 verbaut der bei dir nur teuer und nutzlos rüberkommt kein Ding
Und mit solchen und weitern völligen falschaussagen und Wahrheitsverdrehern hast du dich selbst für jegliche weitere Diskussion disqualifiziert. Natürlich nutzt Nvidia im Profisegment nicht statt GDDR5(X) HBM, sondern in einer speziellen Karte (die es auch für Spieler gibt).
Aber das ignorierst du, genauso, dass ich Tests verlinkt habe die sich mit Profianwendungen beschäftigen - was du bemängelst.
Die Mängel die in den Tests erwähnt werden einfach mal ignorieren usw usf.
Und, dass HBM Nutzlos ist habe ich nie behauptet, eine weitere Lüge die du mir einfach in den Mund legst, damit du es so darstellen kannst, als hättest du irgendeine Art Argument gewonnen.

Wenn du nicht verkraftest, dass dein (gekürztes) Argument "Vega FE ist im Profisegment genauso gut wie Nvidias Pendants" grundlegend falsch ist, dann lass es doch einfach sein.

Ich mit keinem Satz in irgendeiner Weise etwas über Marktanteile gesagt habe was dich aber nicht davon abhält drüber zu referieren supi passt schon .
Deine argumentative Basis warum Vega so groß ist, ist weil es so viele Profi-Features mitschleppt. Und das eigentlich seit Einführung von GCN. Und dann darf man beim Marktanteil im Profisegment und im Spielesegment (und der Effizienz in den beiden Märkten) durchaus mal fragen: ja aber macht das Sinn das zu tun, wenn man trotzdem total versagt in dem wo man eigentlich "besser" sein will.
Ich habe dir ja gezeigt, dass die Gaming-Karten von Nvidia mit den speziellen Treibern sehr wohl genauso und besser performen als die mit Spezialfeatures bespickte, und mit 50% mehr Transistoren ausgestattete Vega.

Du darfst gern mit deinem unerschütterlichen Gamerhorizont Glauben bis ans ende deiner Tage leben .Wünsche dir nur das beste und möge die Macht mit dir sein .
Das ist lustig, weil ich 5 von 10h die ich arbeitend am PC sitze wohl an einer Quadro sitze. Aber ja, ich bin ja nur ein Gamer ;)

Zu was Vega auch beim Gaming zu leisten im Stande ist sieht man bei entsprechend angepassten Spielen wie z.B. Wolfenstein .Das die technischen Möglichkeiten die Vega als Chip implementiert hat leider bei den meisten Spieleentwicklern keine Berücksichtigung findet kann man nur als schade bezeichnen .Im Hinblick bezüglich der benötigten Mehrarbeit beim implementieren zur im Gamingbereich verkauften Anzahl leider jedoch verständlich .
Nvidia hat hier natürlich dank besserer Softwareoptimierung und Ökonomie einen riesen Vorteil, keine Frage. Aber sehen wir uns die Sache in Wolf 2 an:
Es ist richtig, dass in dem einen von 100 Spielen, das mal von AMD gesponsert ist, und spezielle AMD Features nutzt, und weitere Anpassungen nur für AMD Hardware gemacht wurden, es mal nicht so zappenduster für AMD aussieht. Und trotz dieser vielen speziellen Pro-AMD Optimierungen ist man nicht bei einem ähnlich großen Chip (1080 Ti oder Titan Xp, jeweils bei geringerem Verbrauch) vorbei sondern nur nahe dran. Das zeigt doch insgesamt, dass bei Vegas Entwicklung irgendwas schief gelaufen ist. Größer, heißer, langsamer (im direkten Chipvergleich) - egal ob Profi oder Spielemarkt.
Klar, Vega ist immer noch eine SCHNELLE Karte, muss sich aber über den Preis verkaufen.
Mir persönlich wäre lieber gewesen, AMD hätte mit ihrer FE schon alle positiv überrascht und mit ihrer 1000€ 16GB HBM Karte sogar die Titan Xp vernascht. Ja mit solch großem Chip samt Spezhialram und stark überarbeiteter Architektur habe ich bis zum SChluss gehofft. Doch leider wurde das nichts.
NV verdient anteilig das meiste Geld mit Profi und Deeplerning Server Hardware .Gaming ist sicher auch kein unerheblicher Anteil aber nicht der Gewinnträchtigste .
Ich weiß jetzt nicht was du mit Anteilig meinst, aber bei Nvidia kommt eindeutig das meiste Geld pro Quartal von den Gaming-.Karten.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

@Locuza
Hier werfe ich mal das Thema Async Compute hinein.

Dies ist eine Hardwarebasierte Funktion und wird bei NV lediglich in Software emuliert und ist per def. kein echtes Async Compute .Hier wird wenn ich das richtig verstanden und stark vereinfacht ausgedrückt durch einen in die Hardware implementierten ich nenn es mal Controller möglich gleichzeitig unterschiedliche Instruktionsarten in eine Pipline einzuschieben und abzuarbeiten wenn innerhalb der benötigten Einheit ein freier nutzbarer Wartezyklus zur Verfügung steht .

@Rollora
Ich weiß jetzt nicht was du mit Anteilig meinst, aber bei Nvidia kommt eindeutig das meiste Geld pro Quartal von den Gaming-.Karten.

Das Verhältnis zwischen Anzahl an verkauften Produkten und dem damit erziehlten Gewinn .Hier in Relation Anzahl verkaufter Profi/Deep Learning zur Anzahl verkaufter Gamingkarten und dem damit jeweils erzielten Gewinn .

Zum größten Rest deiner Antwort einfach nur
Triple-Facepalm-Star-Trek.jpg
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Ja wenn du auf Argumente nicht antworten willst... immerhin hab ich wenigstens Quellen gebracht.

Und klar, dass die Marge höher ist wenn ich idente Hardware ums 10-Fache verkaufe... dachte nicht, dass du DAS jetzt als Argument (wofür eigentlich? ) verwenden möchtest, das ist ja völlig klar, noch dazu weil eben keine neuen Chips nötig sind. Dennoch darf man hier den Software, Wartungs und Supportaufwand (sowie die Forschung) nicht rausrechnen- sowie, dass man hier nicht wie im Gaming Markt werben muss, denn man hat eig. keine echte Konkurrenz

Und @Async: das hat Locuza doch auch schon einige Male richtig gestellt ;-)
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Na hoffentlich wird mal wieder eine Vega zu normalen Preisen verfügbar. Sonst bringt das doch alles überhaupt nichts, wenn sie keiner kaufen kann.
Die Vega 56 sollte 399€ kosten, 1 Tag nach dem Paperlaunch war die dann auf 499€, aktuell bekommt man unter 680€ überhaupt keine. GG Amd, well played. Ich muss aber da vorerst bei meiner Nvidia bleiben.

Wenn das AMD nicht gebacken bekommt, können die neuen GPUs noch so gut sein. Dem Endkunde ist es auch egal ob da HBM2, GDDR5x oder sonst was verbaut ist.
Wenn die Karten nicht verfügbar sind, kann sie keiner kaufen. Und das ist ein Problem.

Freesync ist ja schön und gut, ich habe es auch in meinem Monitor (und würde es gerne Nutzen), aber bei den Preisen ist der Aufpreis zu nem Gsync Monitor auch wieder drin.


Ryzen auf der anderen Seite finde ich sehr interessant, mal schauen wie viel Leistung und Takt da hinzukommt.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

@Locuza
Hier werfe ich mal das Thema Async Compute hinein.

Dies ist eine Hardwarebasierte Funktion und wird bei NV lediglich in Software emuliert und ist per def. kein echtes Async Compute .
Die einzige Definition von Async Compute ist die Fähigkeit graphic und compute queues parallel abzuarbeiten. Wie das geschieht ist den Herstellern überlassen.
Demnach beherrscht auch schon Maxwell v2 Async Compute. Die Umsetzung ist aber halbarschig und erzeugt im Normalfall eher zusätzliche idle time anstatt Mehrperformance zu bringen. Daher hat es nV auch per Treiber deaktiviert (glaube ich zumindest). Bei Pascal gab es dann entscheidende Verbesserungen. Siehe hierzu den Artikel von Anandtech:
Asynchronous Concurrent Compute: Pascal Gets More Flexible - The NVIDIA GeForce GTX 1080 & GTX 1070 Founders Editions Review: Kicking Off the FinFET Generation

Bei AMD kann eine CU völlig frei die Workloads verteilen und zwischen graphic und compute queues switchen. Die Umsetzung bezeichnen sie als Async Shaders.
Die Lösung ist daher besser als bei nV.

Abschliessend noch zum Thema DX12. Asnc Compute, also das parallele Abarbeiten, ist keine konkrete Anforderung von DX12. Die Spezifikation fordert lediglich, dass grundsätzlich graphic, compute und copy queues ausgeführt werden können.
Denn auch hier herschen oft noch Missverständnisse.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Meiner Ansicht nach bringt der Vegachip nicht die erhoffte Leistung aufgrund der fehlenden Funktion der Primitv Shader.
Das Nvidia Pendant gilt als maßgeblicher Grund der Leistungssteigerung zu Maxwell.

Die Fähigkeit nicht sichtbare Objekte auch nicht zu rendern dürfte maßgeblich für die Differenz sein.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Vega beherrscht kein culling oder z buffern? Mir neu
 
Zuletzt bearbeitet:
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Meiner Ansicht nach bringt der Vegachip nicht die erhoffte Leistung aufgrund der fehlenden Funktion der Primitv Shader.
Das Nvidia Pendant gilt als maßgeblicher Grund der Leistungssteigerung zu Maxwell.

Die Fähigkeit nicht sichtbare Objekte auch nicht zu rendern dürfte maßgeblich für die Differenz sein.

Das konnte der ST Kyro II 2001 schon.
ST Kyro – Wikipedia
PowerVR Technologies – Wikipedia

Vieleicht hätte Amd Imagination Technologies kaufen sollen (2017) für knapp 641 Millionen Euro, hätte Amd sicher mehr gebracht als damals den Micro-Server-Fertiger SeaMicro für für 334 Millionen US-Dollar.
AMD kauft Micro-Server-Fertiger SeaMicro - ComputerBase
AMD gibt die Microserver-Sparte auf |
iX

Imagination Technologies an chinesische Investorengruppe verkauft |
heise online
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Jo konnte Kyro schon. Ebenso wie eine einfache Form des Tiled renderings die jetzt wieder aufkommt. Gibts immer mal wieder, dass alte Technik in modernisierter Form zurückkehrt.Mit I.T hätte man vorallem viel Knowhow und Patente/Lizenzrechte erworben. Aber an mobilen GPU Herstellern hat man sich schon mehrfach erfolglos bedient. Auch die Bitboys hatten mal revolutionäre Ideen... die habens immerhin 15 Jahre später in Form von HBM in den Markt geschafft. Was man aus den Gigapixel Patenten rausgeholt hat frag ich mich bis heute
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Die einzige Definition von Async Compute ist die Fähigkeit graphic und compute queues parallel abzuarbeiten. Wie das geschieht ist den Herstellern überlassen.
Demnach beherrscht auch schon Maxwell v2 Async Compute. Die Umsetzung ist aber halbarschig und erzeugt im Normalfall eher zusätzliche idle time anstatt Mehrperformance zu bringen. Daher hat es nV auch per Treiber deaktiviert (glaube ich zumindest). Bei Pascal gab es dann entscheidende Verbesserungen. Siehe hierzu den Artikel von Anandtech:
Asynchronous Concurrent Compute: Pascal Gets More Flexible - The NVIDIA GeForce GTX 1080 & GTX 1070 Founders Editions Review: Kicking Off the FinFET Generation
Bei AMD kann eine CU völlig frei die Workloads verteilen und zwischen graphic und compute queues switchen. Die Umsetzung bezeichnen sie als Async Shader
Die Lösung ist daher besser als bei nV.
Abschliessend noch zum Thema DX12. Asnc Compute, also das parallele Abarbeiten, ist keine konkrete Anforderung von DX12. Die Spezifikation fordert lediglich, dass grundsätzlich graphic, compute und copy queues ausgeführt werden können.
Denn auch hier herschen oft noch Missverständnisse.

Ich denke mal wir meinten mit AC und AS dasselbe .Habe hier mal ein paar Details gefunden.

Auf der anderen Seite müssen Geforces aber ohne asynchrone Shader auskommen. Dabei werden die GPU-Rechenwerke parallel zu den Render- mit Compute-Aufgaben gefüttert, der ganze Chip wird dadurch besser ausgelastet.
Laut einem Oxide-Entwickler seien Nvidia-GPUs grundsätzlich nicht in der Lage, asynchrone Shader performant auszuführen. Der Treiber melde zwar eine entsprechende Unterstützung, in der Praxis habe die Aktivierung aber zu einem "absoluten Desaster" performancetechnisch geführt.
Quelle:DirectX 12: Asynchronous Shader auf Geforces laut Oxide ein "absolutes Desaster"

Durch Asynchronous Shading/Compute können Grafik- und Compute-Kernels simultan und unabhängig voneinander abgearbeitet werden, was hohe Latenzzeiten vermeidet und die Performance erhöht. Nvidia-Grafikkarten unterstützen Asynchronous Compute offenbar nur über ineffiziente Umwege. Dadurch kann die Performance in DirectX-12-Spielen drastisch sinken im Vergleich zu AMD-Grafikkarten, deren GCN-Architektur für Asynchronous Compute in Hardware ausgelegt wurde.
Quelle:Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten "ein vollkommenes Desaster" |
heise online


Das AS eine Komponente von DX12 ist ist soweit klar und ja es ist möglich AS per definition in Software als implementiertes feature auszugeben .Was aber eigentlich in Hardware der korrektere Lösungsansatz bleibt .
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Ich denke mal wir meinten mit AC und AS dasselbe .

Ich eigentlich nicht. Wie gesagt, AS ist die Umsetzung von AC bei AMD.

Deine beiden Quellen beziehen sich ja beide auf den gleichen Sachverhalt (Aots) und beschreiben im Prinzip das Problem von Maxwell, was ich angedeutet habe. Ausserdem sind die Artikel noch aus der prä Pascal Ära, dabei habe ich extra angesprochen, dass es Weiterentwicklungen gegeben hat und es nicht die pauschale nV Lösung gibt.

Auch zu sagen AMD hat ne Hardware Umsetzung und nV ne Software/Treiber Umsetzung ist die falsche Betrachtungsweise.
Ich sag mal, wo in meinen Augen der grösste Unterschied ist.
Bei nV gibt es bis jetzt nur feste Muster, wie der context switch aussieht. GCN ist da viel freier, wie Tasks abgearbeitet und kombiniert werden können. Auch im zeitlichen Verlauf.

Ich kann schon verstehen, warum man AMDs AS als hardwarenäher bezeichnet, aber deswegen hat nV keine Software Lösung. Das wäre auch insich gesehen Unsinn. Gab damals auch Artikel die behaupteten, sie würden die Arbeit auf die CPU auslagern. ^^

Das AS eine Komponente von DX12 ist ist soweit klar
Eben nicht. Ich hab doch beschrieben, welche Forderung die DX12 Spec stellt und wo der Unterschied ist.
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Also wenn ich lesen kann steht egal in welchem Artikel ich nachlese AMD hats in Hardware .Ansonsten versteh ich grad die Welt nicht mehr .Wenn PCGH sich dabei auch geirrt hat kannst du die Redaktion gerne mal aufklären und Fragen ob sie wissen was sie tun .
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Async Compute ist ja auch nen Hardware Feature.
Dem widerspreche ich doch nirgends :huh:
 
AW: Radeon 2018: AMD hält Erwartungen an Vega und Polaris niedrig

Meiner Ansicht nach bringt der Vegachip nicht die erhoffte Leistung aufgrund der fehlenden Funktion der Primitv Shader.
Das Nvidia Pendant gilt als maßgeblicher Grund der Leistungssteigerung zu Maxwell.

Die Fähigkeit nicht sichtbare Objekte auch nicht zu rendern dürfte maßgeblich für die Differenz sein.
Bei Maxwell drehte sich die Spekulation um den Tile-Based-Rasterizer, wo Vega konzeptionell ebenso einen umsetzt.
Bei Maxwell gibt es aber 200 Gründe, wieso dieser deutlich schneller, als Kepler ausfällt.

Primitive Shader sind für besseren Geometrie-Durchsatz und weitere Funktionen geplant (gewesen), dass AMD nur wegen dem nicht ausreichend gut skaliert kann und sollte nicht sein.

Ich denke mal wir meinten mit AC und AS dasselbe .Habe hier mal ein paar Details gefunden.

Auf der anderen Seite müssen Geforces aber ohne asynchrone Shader auskommen. Dabei werden die GPU-Rechenwerke parallel zu den Render- mit Compute-Aufgaben gefüttert, der ganze Chip wird dadurch besser ausgelastet.
Laut einem Oxide-Entwickler seien Nvidia-GPUs grundsätzlich nicht in der Lage, asynchrone Shader performant auszuführen. Der Treiber melde zwar eine entsprechende Unterstützung, in der Praxis habe die Aktivierung aber zu einem "absoluten Desaster" performancetechnisch geführt.
Quelle:DirectX 12: Asynchronous Shader auf Geforces laut Oxide ein "absolutes Desaster"

Durch Asynchronous Shading/Compute können Grafik- und Compute-Kernels simultan und unabhängig voneinander abgearbeitet werden, was hohe Latenzzeiten vermeidet und die Performance erhöht. Nvidia-Grafikkarten unterstützen Asynchronous Compute offenbar nur über ineffiziente Umwege. Dadurch kann die Performance in DirectX-12-Spielen drastisch sinken im Vergleich zu AMD-Grafikkarten, deren GCN-Architektur für Asynchronous Compute in Hardware ausgelegt wurde.
Quelle:Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten "ein vollkommenes Desaster" |
heise online


Das AS eine Komponente von DX12 ist ist soweit klar und ja es ist möglich AS per definition in Software als implementiertes feature auszugeben .Was aber eigentlich in Hardware der korrektere Lösungsansatz bleibt .
Ihr meint im Prinzip das gleiche, Async Shaders sagt nichts anderes aus, außer das Shader asynchron ausgeführt werden, aber das ist eine völlig grobe Bezeichnung, genauso wie Async Compute.
Letzteres sagt immerhin das Compute asynchron ausgeführt wird, aber das ist auch ungenau ausgedrückt.
Denn jede Hardware hat unterschiedliche Beschränkungen, wann und wie sie Arbeit parallel oder asynchron ausführen kann.
Viele der Informationen sind öffentlich gar nicht verfügbar und dokumentiert, entsprechend helfen vereinfachte Wörter nur wenig, wenn man wissen will wie es unter der Hardware genau abläuft.

Der Oxide-Entwickler hat den Sachverhalt jedenfalls falsch wiedergegeben, unter DX12 gibt es für Entwickler gar keine Rückmeldung über "Async Compute" Support, jedes DX12 Device muss alle drei unterschiedlichen Queue-Typen umsetzen (3D, Compute, Copy), welche jeder Entwickler immer unter einem DX12 Device verwenden kann, was der Treiber und die Hardware aber aus der Anweisung intern machen ist eine andere Geschichte.
Bei Vulkan dagegen kann man die unterstützte Queue-Family abfragen.

Und im Endeffekt braucht die Hardware auch nicht zwingend getrennte Queues, um Arbeitslast zu überlappen, dass macht die GPU beim 3D-Rendering sowieso die ganze Zeit, jede Hardware etwas anders, mit anderen Beschränkungen.
Nur wenn der Entwickler mehrere Queues verwendet und den Inhalt spezifiziert, dann kann es für den Treiber und die Hardware leichter sein, die Arbeit effizient zu verwalten und abzuarbeiten.

Nvidias Einschränkungen vor Pascal bezüglich Async-Compute scheinen zu sein, dass die Compute-Units bei unterschiedlichen Queues statisch für die 3D- und Compute-Arbeit vor reserviert werden, gibt es Abhängigkeiten und läuft eine Portion länger als die andere, dann muss man warten bis die Operation fertig ist, bevor die Hardware erneut reservieren kann.
Pascal kann die Ressourcen dynamisch verteilen und anpassen und Nvidia hat den Context-Switch deutlich beschleunigt, welcher davor sehr grob war und es der Maschine nicht erlaubt hat, während eines Draw-Calls zu unterbrechen und Compute stattdessen auszuführen.
Entsprechend setzt Nvidia bei Kepler/Maxwell nicht mehrere Queues um, die Hardware könnte es, aber das würde in den meisten Fällen sicherlich viel langsamer laufen, stattdessen stecken sie alles in eine Queue und schauen das die Arbeit innerhalb der Queue so gut wie möglich vor sortiert und verwaltet wird, dass klassische Modell eben.
Bei Pascal setzt Nvidia aber Compute-Queues um und kann auch Performance dadurch gewinnen.
Siehe Sniper Elite 4 und Time Spy (deutlich mehr):
Sniper Elite 4 Benchmark: Schneller mit DirectX 12 – immer! - ComputerBase
Time Spy: 19 Grafikkarten im 3DMark fur DirectX 12 im Vergleich (Seite 3) - ComputerBase
Nicht jedes DX12/Vulkan spiel verwendet auch mehrere Queues, sondern einige auch nur eine 3D-Queue, wo die ganze Arbeit reinsortiert wird und man sieht auch hier das Nvidia unter DX12 häufig langsamer arbeitet, als unter DX11.
Genauso wie das bei AMD bei einigen Titeln passiert.
Das hat dann offensichtlich nichts mit Async Compute und der Fähigkeit der Hardware in diesem Bezug zu tun, sondern andere Gründe, wie das korrekte Ressource-Management, was unter DX11 der Treiber macht, unter DX12 man aber selber.
Macht man es sub-optimal, dann kann die Performance stark leiden.
Und das ist nicht das einzige Thema was man bei einer guten DX12/Vulkan-Umsetzung beachten muss.
 
Zurück