Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Haben wir hier keine Leute vom Fach zum Thema Mining wie der aktuelle Trend sind entwickelt?
Wenn der scheissdreck wieder so durchstartet könnte man sich noch schnell ne Vega mitnehmen, die sind nämlich noch am fallen die Preise.

Verfügbarkeit ist noch durchwachsen, man merk lediglich das Sapphire langsam wieder auf turen kommt mit der Nitro. Da scheint es endlich mal ein wenig Stückzahl zu geben.
Die 56er allgemein ist aber immer noch dünn gesät.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Von der Strixx sind einige auf dem Markt. Daher auch der Tiefpreis schätze ich :D
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Bin zwar nicht vom Fach, aber heute gab es einen ordentlichen Kurssprung bei nahezu allen Kryptowährungen: Kryptowahrungen | aktuelle Kurse und Preise | finanzen.net
Bei Graka-relevanten Coins z.B. ETH +5%, Monero +8%, Zcash +9%, wobei letzteres bald durch ASIC-Miner an Relevanz für Grakas verlieren dürfte (also hauptsächlich GTX 1080Ti und GTX 1080/70). Wie es sich entwickelt weiß wahrscheinlich kaum jemand.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Ich hab mir bei Genisis Mining 10MH gekauft die haben anfangs 0,08 ETH Produziert vor nem Jahr rum. Aktuell bekomme ich noch 0,01 ETH in der Woche raus das mal dazu ^^ Finde kaum noch das es sich lohnt obwohl Vega ordentlich Hashpower hat. Evtl wenn man ne Gute Solaranlage mit Speichermöglichkeit hat.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Darum werden die Vega Mobile APUs erst von dGPUs (MX150, 950M, 850M) geschlagen die so viel Strom wie das gesamte Vega Notebook brauchen :ugly:
Test HP Envy x360 15 (Ryzen 5 2500U, Vega 8, SSD, FHD) Convertible - Notebookcheck.com Tests

Nvidia ist in höheren Taktbereichen im Vorteil. Generell von 40% Perf/Watt Unterschied zu sprechen ist aber falsch.
Wenn du genaue Perf/Watt-Vergleiche findest, bei ähnlichen Geräten, was die (c)TPD-Einstellungen, die Auflösung und generelle Bestattung angeht, dann wäre ich dir sehr dankbar.
Denn aus den Vergleichen bei Notebookcheck kann man (oder ich jedenfalls) keinen souveränen Perf/Watt-Index ziehen.
Häufig oder meist wird bei der Leistungsaufnahme Prime95 und Furmark verwendet oder Witcher 3 mit Ultra-Einstellungen, was das ganze nicht sehr repräsentativ gestaltet.
Man muss das brutale Glück haben, zwei vergleichbare Geräte zu finden und dabei die Verbrauchsmessungen unter praktischen Anwendungen und Einstellungen zu haben.

Im Dschungel habe ich mir dann eine RX 560 angeschaut, bei TW3:
Test Lenovo Legion Y520-15IKBA (i5-7300HQ, RX560) Laptop - Notebookcheck.com Tests

Ein Alienware und Lenevo Gerät mit einer 1050 Ti verbrauchen 5 (Lenevo) -13 (Alienware)% mehr Strom, beim Notebook mit der RX560 und dem Alienware kommt ein 7300HQ von Intel zum Einsatz, beim Lenevo ein 7700HQ
Das Alienware leistet 37% mehr unter TW3 (~24% bessere Perf/Watt), dass Lenevo Gerät spielt aber in einer völlig anderen Liga, dort sind es 84% mehr Leistung bei nur wenig mehr Verbrauch, grob 79% bessere Perf/Watt oder 55% gegenüber dem Alienware.

Im Desktop-Bereich kann man immerhin relativ gut isolieren und die einzelnen GPUs miteinander vergleichen:
Radeon RX Vega 64 & 56 im Test: Der helle Stern wirft lange Schatten (Seite 6) - ComputerBase

Selbst wenn man maximal pro AMD vergleicht, die effizienteste AMD GPU Vega56 mit der ineffizientesten 1080Ti Strix unter der "effizientesten" Auflösung für AMD, nämlich 1080p, kommen 33% Vorteil für Nvidia heraus.

Auch interessant als Nebenspektakel ist das Thema Mining, wo CB unter drei Währungen die Performance verglichen hat und dann noch jeweils alle Karten optimiert bezüglich der Spannung und Taktkurve hat:
Mining mit Gaming-GPUs: Aktuelle Benchmarks fur Ethereum, Monero und Zcash (Seite 3) - ComputerBase

Optimiert gelten über 30% Vorteil bei Etherum für Nvidia, bei Monero schafft es AMD tatsächlich 5-10% effizienter heraus zu kommen, bei Zcash ist der Vorteil für Nvidia nur bei 15% in Bezug auf die 1060 GTX vs. 580 , Vega frisst bei Zcash viel zu viel und ist dort völlig abgeschlagen.

Eine Sache bezüglich dem low-end glaube ich aber gerne, mit einer dGPU wird es schwer sein deutlich besser dazustehen, als bei APUs die nur einen gemeinsamen Speicher mit Strom versorgen müssen und dank dynamic power sharing den Verbrauch und die Leistung der beiden Komponenten sehr gut ausbalancieren können, dass wird Nvidia bei x86-Produkten immer vergönnt bleiben bzw. bis maximal so etwas wie Kaby-Lake G funktionieren, wo auch Power-Sharing zwischen beiden Komponenten umgesetzt wurde.

Nope.
Wenn man sich Volta genau ansieht, kommt ein Großteil der Leistungssteigerung durch die Tensor Kerne - Matritzenmultiplikation gibt es auch außerhalb von AI Forschung.
Die tritt auch bei Grafikberechnung häufig auf.
Wenn sie Tensor Kerne implementieren und dem Treiber beibringen, passende Berechnungen auf diese zu verteilen, kann ich mir eine deutliche Steigerung vorstellen.
Allerdings fällt das wieder unter das Thema "Mehr Kerne".
Aber keine FP16 Matrizen, welche die Tensor-Kerne multiplizieren.
Bei den bisherigen Benchmarks mit einer TitanV zeigt sich nur die FP32-Leistung über die normalen Shader-Cores gegenüber den aktuellen Pascals und dort sieht es eig. nicht gut aus.
Bei ungefähr 50% mehr theoretischer Leistung (ich habe grob die angegeben Durchschnittstakte von CB genommen, 17TF vs. 11,3TF) kommen im Schnitt nur 30% mehr Leistung heraus:
Mifcom miniBOSS mit Nvidia Titan V im Test (Seite 2) - ComputerBase

Aber das ist jetzt auch kein allzu sinniger Vergleich, in Bezug auf "echte" Grafikprodukte von Nvidia, mit einem optimierten Launch und weniger Shader-Einheiten.
Ich jedenfalls würde Nvidia 20% mehr Performance bei ähnlicher Fläche zutrauen.

[...]
Solche Artikel sind echte Perlen für Leute die wirklich die Leistungsaufnahme und die Effizienz der eigenen Hardware in der Praxis interessiert. Für derartig aufwendige und vor allem differenzierte Artikel mit Vega und Pendants wäre ich locker bereit einen ganzen Heftpreis oder das Doppelte zu bezahlen, von mir aus auch per Patreon/Spende oder sowas in der Art.
Es war damals ein journalistisches Highlight was geleistet wurde, genau was ich mir seit Jahren gewünscht habe, wurde durchgeführt.
Mehrere Anwendungen mit absoluter Leistung, Leistungsaufnahme und dem Perf/Watt-Verhältnis zusammen dargestellt, da konnte man sich endlich die kruden Transferaufgaben sparen.

Mit der Fermi Generation hat Nvidia AMD im Marktanteil abgehängt.
Der Nvidia Marktanteil stieg von etwas über 50% auf deutlich jenseits 60%.
Hat also leider nicht viele vom Kauf abgeschreckt.
Das Marketing von Nvidia hat damals gut funktioniert.
Oder der miese AF-Filter von AMD hat "gut" funktioniert. :P
Ich hatte zwei Fermis (560Ti/570), aber ich glaube das habe ich auch schon erwähnt, wieso ich lieber das Nvidia-Ökosystem mit besserem AF-Filter, der Downsampling-Möglichkeit schon damals, PhysX (Batman) und der konsistenten Performance unter mehreren Anwendungsszenarien gewählt habe.
Als der zuerst die 400-Serie gelaunched wurde, ging der Marktanteil von Nvidia laut dem Vergleich erst einmal wieder runter:
https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q4-2017.png

Persönlich empfinde ich aber, dass AMD mehr Marktanteil mit GCN1 verdient hätte, Cape Verde und Pitcairn standen in Sachen Effizienz Kepler in nichts nach und waren von der Perf/mm² besser.
AMD hätte eig. viel mehr Boden gutmachen können oder sollen.
Ich erinnere mich an HD4000/5000 Notebooks und gute OEM-Zahlen, danach hat das aber AMD nicht mehr erreicht.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Damals zur Release der 7970 hatte die etwas später kommende 680 aber zum gleichen Preis eine bessere Effizienz und etwas mehr Leistung.
Erst in den folgenden Monaten legte die 7970 mit jedem neuen Treiber einige Prozent zu.
AMD legte dann die 7970GHz Edition nach, um halbwegs gleichauf mit der 680 zu sein, was noch einmal die Effizienz verschlechterte.
Erst beim Rebrand mit der R9 280X hatte AMD die 680 mit jedem neuen Treiberupdate überholt.
AMD Radeon R7 240, R7 250, R7 260X, R9 270X und R9 280X: Neue, alte Bekannte im Test [Test der Woche]
Da war es aber schon zu spät für GCN 1, da Hawaii dass neue Flagschiff war, was wegen des schlechten Ref-Design auch erst einmal überall kritisiert wurde.
 
Zuletzt bearbeitet:
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

HD 7970/680 war aber High-End für über 400€ damals, fernab der Masse.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Bei dem GPUs darunter sah es auch nicht viel anders aus.
Die 7950 prügelte sich mit Nvidias 670, was ähnlich aus ging wie bei der 7970.
Und die 7870 kam relativ gut an, war auch im Forum hier beliebt.

AMD brauchte einfach zu viel Zeit für die Treiber, bis die neue Gen endlich ihr Potential halbwegs frei setzen konnte.
Hier gibt es auch eine Parallele zu Fiji und Vega was die Treiber betrifft.
Nur mit dem Unterschied das Vega selbst ein Jahr nach Release immer noch nicht optimal läuft, oder nicht weiter optimiert werden kann.
Architektur der Radeon RX Vega untersucht - ComputerBase
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Die unglaublich fortgeschrittene Technologie, die AMD für die SOCs hat, braucht man ja nur auf die GPUs übertragen und man vergrößert den Vorsprung auf NV noch weiter. Polaris als RX580 ist in der BF:V Alpha auf dem Niveau der 1070 und Vega RX64 tanzt der 1080ti auf der Nase herum. Wenn Dice nicht von NV gezwungen wird die AMD GPUs per Gameworks gezielt zu benachteiligen, dann sollte BF:V zeigen welche gnadenlose Leistung in den AMD GPUs steckt.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Ich lese gerade einen Vortest bei hardwareluxx zu BF 5, und da ist nichts ungewöhnlich an den Benchmarks.


hardwarelux schrieb:
Bei einer Auflösung von 1.920 x 1.080 Pixel liegt die GeForce GTX 1080 Ti 12 % vor der Radeon RX Vega 64. Eine Radeon RX 580 kommt auf 66 FPS und liegt damit noch ausreichend über dem spielbaren Bereich. Die GeForce GTX 1070 liegt genau zwischen den beiden letztgenannten Karten. Spielbar ist Battlefield V in der Closed Alpha in FullHD mit allen von uns getesteten Karten.....Schon anders sieht dies mit einer Auflösung von 2.560 x 1.440 Pixel aus. Hier ist dann die GeForce GTX 1070 im gut spielbaren Bereich, eine Radeon RX 580 liegt mit 46 FPS aber schon im mittleren Bereich.....In der höchsten Auflösung von 3.840 x 2.160 Pixel haben dann auch die aktuellen High-End-Karten zu kämpfen. Etwas mehr als 44 FPS liefern beide Karten. Mit einer GeForce GTX 1070 ist eine Multiplayer-Schlacht schon kein wirklicher Genuss mehr und die Radeon RX 580 fällt in einen unspielbaren Bereich....Man merkt der Closed Alpha von Battlefield V an, dass es sich eben um eine Alpha handelt. Aus rein technischer Sicht können wir kaum abschätzen, in wie weit sich die Leistung auf den einzelnen Karten noch verbessern wird. AMD und NVIDIA werden sicherlich den Treiber entsprechend anpassen und optimieren.
Battlefield V Closed Alpha: Erste GPU-Benchmarks - Hardwareluxx
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

RX580 56FPS min FPS in 2560x1440, 1070 min 48FPS

RX64 44,1 avg. FPS in 3840 x 2160, 1080ti 44,4 FPS
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Aber keine FP16 Matrizen, welche die Tensor-Kerne multiplizieren.
Bei den bisherigen Benchmarks mit einer TitanV zeigt sich nur die FP32-Leistung über die normalen Shader-Cores gegenüber den aktuellen Pascals und dort sieht es eig. nicht gut aus.
Bei ungefähr 50% mehr theoretischer Leistung (ich habe grob die angegeben Durchschnittstakte von CB genommen, 17TF vs. 11,3TF) kommen im Schnitt nur 30% mehr Leistung heraus:
Mifcom miniBOSS mit Nvidia Titan V im Test (Seite 2) - ComputerBase

Aber das ist jetzt auch kein allzu sinniger Vergleich, in Bezug auf "echte" Grafikprodukte von Nvidia, mit einem optimierten Launch und weniger Shader-Einheiten.
Ich jedenfalls würde Nvidia 20% mehr Performance bei ähnlicher Fläche zutrauen.

Wenn ich den CB Artikel richtig lese, könnte die neue Aufteilung in 64 ALUs pro SM Nvidia ähnliche Auslastungsschwierigkeiten bringen, wie AMD.
Das hätte allerdings auch wieder den Vorteil, dass die Spiele dann endlich wieder auf eine ähnlichere Arbeitsweise optimiert werden können.
Ich bin gespannt, was dabei rum kommt - oder ob Nvidia für die Gamer Karten bei 128 ALUs pro SM bleibt.

Mit dem Half Precision Feature von DX12 kann es in Zukunft durchaus zu deutlich mehr FP16 Berechnungen in Spielen kommen, als aktuell noch genutzt wird.
Für Spiele dürfte FP16 in vielen Bereichen ausreichend sein.
So könnte Nvidia die aktuelle "FP16 Schwäche" nicht nur ausgleichen, sondern deutlich zu einem Vorteil ausbauen.


Oder der miese AF-Filter von AMD hat "gut" funktioniert. :P
Ich hatte zwei Fermis (560Ti/570), aber ich glaube das habe ich auch schon erwähnt, wieso ich lieber das Nvidia-Ökosystem mit besserem AF-Filter, der Downsampling-Möglichkeit schon damals, PhysX (Batman) und der konsistenten Performance unter mehreren Anwendungsszenarien gewählt habe.
Als der zuerst die 400-Serie gelaunched wurde, ging der Marktanteil von Nvidia laut dem Vergleich erst einmal wieder runter:
https://www.3dcenter.org/dateien/abbildungen/Add-in-Board-GPU-Market-Share-2002-to-Q4-2017.png

Persönlich empfinde ich aber, dass AMD mehr Marktanteil mit GCN1 verdient hätte, Cape Verde und Pitcairn standen in Sachen Effizienz Kepler in nichts nach und waren von der Perf/mm² besser.
AMD hätte eig. viel mehr Boden gut machen können oder sollen.
Ich erinnere mich an HD4000/5000 Notebooks und gute OEM-Zahlen, danach hat das aber AMD nicht mehr erreicht.

Ich hatte seit der HD5000 Serie nur noch AMD Karten und kann aus meinem persönlichen Empfinden sagen, dass die "AF Schwäche" mehr eine Sache von unbewegtem Bild war, als dass sie in Spielen großartig aufgefallen wäre.
Bis GF4 in meinem Centrino Notebook hatte ich fast ausschließlich Nvidia GPUs.
Dann kam Bumpgate und kostete mich einen sauteuren Arbeitslaptop für die Uni.
als Nvidia dann nach knapp einem halben Jahr endlich den Fehler eingestanden hatte, war der Laptop schon längst zerlegt, da ich selbst mal auf Ursachenforschung gehen wollte.

Meine 5870 war allerdings auch meine letzte High End Karte. Danach hab ich mich mehr ein bis zwei Stufen unterhalb der Top GPUs befunden und bisher keine einzige bereut.
Für 1200p Gaming reicht meine R9 290 Vapor X vollkommen aus.
Auch wenn mich eine Vega 64 allein wegen der Technik schon reizen würde.
Aber aktuell geht alles "Spielgeld" für die Einrichtung des Kinderzimmers, Kinderwagen etc drauf^^.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

@seahawk:
In höheren Auflösungen ist Vega 10 oft nicht so schlecht, aber leider nicht in dem nach wie vor am meisten verbreiteten 1080p.

Und das mit der 580 scheint noch ein "Fehler" in der Alpha zu sein.
Hardwareluxx schreibt ja selbst dazu:

hardwarelux schrieb:
Schon anders sieht dies mit einer Auflösung von 2.560 x 1.440 Pixel aus. Hier ist dann die GeForce GTX 1070 im gut spielbaren Bereich, eine Radeon RX 580 liegt mit 46 FPS aber schon im mittleren Bereich.....Man merkt der Closed Alpha von Battlefield V an, dass es sich eben um eine Alpha handelt. Aus rein technischer Sicht können wir kaum abschätzen, in wie weit sich die Leistung auf den einzelnen Karten noch verbessern wird. AMD und NVIDIA werden sicherlich den Treiber entsprechend anpassen und optimieren.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Ich frage mich eher ob du verstehst was ich geschrieben habe? Nicht Nvidia wird "kritisiert"/verballhornt, sondern Speku-Profis wie du, die uns jetzt schon ein 3/4 Jahr sagen: noch ein paar Wochen...
Ach so, du 'verballhornst' dich also selber als 'Special-Speku-Profi' mit solchen faktenfernen fiktiven und imaginären Feststellungen wie "Möglicherweise arbeitet Nvidia noch fieberhaft an den Turing-Treibern um die inkonsistente Leistung (gegenüber Pascal) in einigen Spielen zu "fixen".". :D

Zeige mir mal bitte meine Beiträge von vor einem dreiviertel Jahr, wo ich sagte 'nur noch ein paar Wochen' ;)
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

RX580 56FPS min FPS in 2560x1440, 1070 min 48FPS

RX64 44,1 avg. FPS in 3840 x 2160, 1080ti 44,4 FPS

Ich geh mal davon aus, dass beide noch ordentlich an den Treibern schrauben werden.
Nach aktuellem Stand ist die V64 allerdings in jeder Auflösung sehr nah an der 1080 TI... 12% Maximalabstand ist nicht viel.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

@seahawk:
In höheren Auflösungen ist Vega 10 oft nicht so schlecht, aber leider nicht in dem nach wie vor am meisten verbreiteten 1080p.

Und das mit der 580 scheint noch ein "Fehler" in der Alpha zu sein.
Hardwareluxx schreibt ja selbst dazu:

Was willst du denn auch mit einer V64 in FHD????
Die langweilt sich tot, nach meinem Wechsel von UHD nach WQHD stell ich meiner V64 morgens erst mal en Kaffee hin damit die wach wird.
Ich weiß manchmal gar nicht was ich selbst mit der 56er im HTPC anfangen soll.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

@seahawk:
In höheren Auflösungen ist Vega 10 oft nicht so schlecht, aber leider nicht in dem nach wie vor am meisten verbreiteten 1080p.

Und das mit der 580 scheint noch ein "Fehler" in der Alpha zu sein.
Hardwareluxx schreibt ja selbst dazu:

Willst Du damit sagen, dass NV High-End-karten nur in 1080p taugen und man ansonsten mit AMD besser bedient ist, da stimme ich natürlich uneingeschränkt zu.

Für 1080p RX580 - für höhere Auflösungen dann eine VEGA und man bekommt das optimale Spielerlebnis.
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Die unglaublich fortgeschrittene Technologie, die AMD für die SOCs hat, braucht man ja nur auf die GPUs übertragen und man vergrößert den Vorsprung auf NV noch weiter. Polaris als RX580 ist in der BF:V Alpha auf dem Niveau der 1070 und Vega RX64 tanzt der 1080ti auf der Nase herum. Wenn Dice nicht von NV gezwungen wird die AMD GPUs per Gameworks gezielt zu benachteiligen, dann sollte BF:V zeigen welche gnadenlose Leistung in den AMD GPUs steckt.

Hust, danke für den lacher, du Verschwörungstheoretiker ;)

Erst auf den minFps herumreiten und dann wenn die es nicht bringen, die Durchschnitts Fps nehmen. Was denn nun?

Die 1080TI bringt in UHD 18,75% mehr min Fps.

Die 56 min Fps der RX580 hinterfragst du nicht, wenn die Druchschnitts Fps der RX580 nur bei 46 Fps liegen? Sowie die min Fps der RX580 in FullHD und in WQHD 56Fps betragen.

OFFENSICHTLICH ein Fehler im Diagramm.

Die GTX1070 ist demnach 20% schneller, als die RX580 in WQHD. Was durchaus beachtlich ist, da der Unterschied meistens größer ist!
Vega 64 und GTX1080TI liegen in höheren Auflösungen aber wirklich relativ dicht zusammen. Zumindest Stand Heute!
 
AW: Radeon-Gerüchte: Polaris 30 in 12 nm & High-End-Navi mit HBM2

Was willst du denn auch mit einer V64 in FHD????
Die langweilt sich tot, nach meinem Wechsel von UHD nach WQHD stell ich meiner V64 morgens erst mal en Kaffee hin damit die wach wird.
Ich weiß manchmal gar nicht was ich selbst mit der 56er im HTPC anfangen soll.

Also mir persönlich würde es schon in FullHD gefallen, wenn die Vega 64 so performen würde wie in hohen Auflösungen. Für mich wäre das eine gute Karte für FullHD mit hohen Fps, bzw eine gute Karte für WQHD. Wie die GTX1080TI auch. Von langweilen sollte keine Rede sein.
 
Zurück