AMD Radeon RX 590: Leak nennt Release-Datum und Preis

Sinnlose Debatte irgendwie. Die 590 soll und wird wohl keine 1070 schlagen bis auf einige Ausnahmetitel.
Für rund 260 Euro muss die Karte das auch schlicht nicht. Immer wieder witzig wie bei Bedarf einfach die nächst höhere Karten herangezogen wird....

Muss sie ja auch nicht. 85% der Leistung für 65% des Preises ist doch überzeugend genug und kein vernünftiger Mensch würde da die 1070 kaufen.
 
Muss sie ja auch nicht. 85% der Leistung für 65% des Preises ist doch überzeugend genug und kein vernünftiger Mensch würde da die 1070 kaufen.

Sehe ich auch so.Zumal die 1070 mittlerweile schon deutlich abfällt in der Leistung. Die Karte hat einfach schlicht zu wenig Shadereinheiten für moderne Titel. Da reißt dann auch der hohe Takt für die Renderpipeline irgendwann nix mehr.
 
CB sieht in WHQD nur 29% Differenz.

Gewinnt die RX590 nun 12-15% dazu sind es nur noch ~12% Differenz. Mit OC dürfte RX590 dann auf Augenhöhe kommen.

Make my Day! 3-Satz ist euch ein begriff Jungs? nur weil eine Graka ak. 580 10% schneller wird holt die nicht 10% gegenüber der 1070 auf sondern ist 10% schneller als die alte 580 ;) Mathe 5Klasse :P Jungs deswegen,für jeden der diesen Beitrag mit Gefällt mir bestätigt hat.
 
Make my Day! 3-Satz ist euch ein begriff Jungs? nur weil eine Graka ak. 580 10% schneller wird holt die nicht 10% gegenüber der 1070 auf sondern ist 10% schneller als die alte 580 ;) Mathe 5Klasse :P Jungs deswegen,für jeden der diesen Beitrag mit Gefällt mir bestätigt hat.

???
Folgende Beispielrechung.
580 auf 50Fps=100%
1070 auf 65Fps=130%
590 mit 57,5%(15%+) = neu 100%
1070 neue Differenz=113%
Mit OC von 10%=63,25Fps.Ergo 1070 Niveau.(Dieses Beispiel ist rein mathematisch zu sehen)
Wo genau ist jetzt also dein Problem? Schwieriger wird es bei Indexwerten wenn keine der beiden zu vergleichenden Karten die 100% markiert, das ist aber hier nicht der Fall.
Im PCGH Index hat die 1070 49% und die 580 36,6%. Das heist dann im Umkehrschluss nicht das eine 1070 nur 13% schneller wäre.
 
Zuletzt bearbeitet:
Interessant wird es mit der 1060 werden.
Wenn ich mir ansehe wie die 1070 non TI bei manch neueren Titeln die Shaderlastig sind zu kämpfen hat, da wird die 1060 stark einbrechen. Es ist halt das Problem was Nvidia hat, die Karten sind so stark, da muss man einfach die Shader deaktivieren um eine merkliche Differenz zwischen den Modellen zu erreichen und das rächt sich irgendwann.

Dennoch fraglich ob die 590 wirklich empfehlenswert wird.
Wenn die 590 knapp an eine Referenz 1070 rankommt, muss das Gesamtpaket schon stimmen, da die 1070 sehr effizient zu werke geht. Wenn es AMD da wieder mit der Brechstange versucht, hagelt es von allen Seiten Kritik.
 
Dennoch fraglich ob die 590 wirklich empfehlenswert wird.
Wenn die 590 knapp an eine Referenz 1070 rankommt, muss das Gesamtpaket schon stimmen, da die 1070 sehr effizient zu werke geht. Wenn es AMD da wieder mit der Brechstange versucht, hagelt es von allen Seiten Kritik.
Ja, da stimme ich Dir zu aber, man könnte auch zu dem Schluss kommen das sich dann, wenn es denn so kommt, die 1070 vom Preis her mit der 590 messen muss, quasi als Ausgleich zur Effizienz. Ich denke nicht das sich die 590 so dicht hinter der 1070 positionieren wird. Es bleibt dennoch spannend wo genau sich die 590 einordnet und zu welchem Markt regulierten Preis.

MfG
 
Zuletzt bearbeitet:
Spielst Du auf die Tensor-Cores an?
Die Instruction-Set-Architecture ist bei Volta neu, anderes Encoding-Schema, andere Instruktions-Latenzen, dass Cache-System ist stark verändert worden, neben erweiterten Funktionen vom SM, wie eigenständige INT und FP-Ports, für gleichzeitige Ausführung und und und.
https://arxiv.org/pdf/1804.06826.pdf

Nvidia hat aber jedes mal deutlich die SMs modifiziert.
Fermi hat an der ISA an mehreren Stellen geschraubt, zum ersten mal gab es allgemeine read/write-caches und allgemein hat Nvidia soviel geändert.
Kepler war darauf folgend auch deutlich anders aufgebaut , da hat Nvidia auch schon an der ISA, den Latenzen (9 vs. ~20 Takte), dem Taktdesign (Kein Hotclock mehr) und dem Cache-System (andere Caches zusammengelegt) geschraubt, neben der Tatsache das ein SM über 192 FP32-Einheiten verfügt hat und nicht 32.
Bei Maxwell erneut, der ist deutlich anders aufgebaut, als Kepler, 128 FP32-Einheiten pro SM, wieder andere Cache-Struktur, ISA-Tweaks, geringere Ausführungslatenzen bei den Hauptoperationen, von 9 Takten auf 6.
Bei Pascal gab es primär nur einen Shrink (+ein paar Verbesserungen und mehr als nur ein Shrink bei GP100), Volta und Turing führen dagegen wieder eine neue Basis ein.

Das stellt einen starken Kontrast gegenüber AMD dar, welche seit GCN1 relativ wenig an den Compute-Units geändert haben.
Immer 64 ALUs, immer 256KB Register-Space, immer 64KB LDS-Speicher, mehrheitlich die gleichen Instruction-Latencies und generell der ganze Aufbau.
Einige Tweaks gab es, native FP16, INT8/16 ops, Cross-Lane-Operations wurden anders ab GCN3 implementiert, ein paar Änderungen bei der Scalar-Unit, ab GCN4 gibt es Instruction-Prefetching.
Aber im Großen und Ganzen ist das deutlich weniger, als die Axt die Nvidia fast jede Generation geschwungen hat.
 
Zuletzt bearbeitet:
.....
Das stellt einen starken Kontrast gegenüber AMD dar, welche seit GCN1 relativ wenig an den Compute-Units geändert haben.
Immer 64 ALUs, immer 256KB Register-Space, immer 64KB LDS-Speicher, mehrheitlich die gleichen Instruction-Latencies und generell der ganze Aufbau.
Einige Tweaks gab es, native FP16, INT8/16 ops, Cross-Lane-Operations wurden anders ab GCN3 implementiert, ein paar Änderungen bei der Scalar-Unit, ab GCN4 gibt es Instruction-Prefetching.
Aber im Großen und Ganzen ist das deutlich weniger, als die Axt die Nvidia fast jede Generation geschwungen hat.

Macht's das nicht für Spiele-/API-/Engineentwickler einfacher, um so weniger sich ändert?
Muss AMD diese Strategie vielleicht sogar fahren, da der Großteil primär eher dem Markt nach optimiert, sprich Richtung grün?
 
Es macht es nur einfacher, wenn der Aufwand andersherum steigen würde, was nur der Fall wäre, wenn neue Hardware krass anders wäre und Softwareanpassungen sehr unterschiedlichen Einfluss nehmen würden.
Bei Hardware X deutlich langsamer, bei Hardware Y deutlich schneller, bei Hardware Z neutral etc.
In der Regel wird neue Hardware besser und wenn es Unterschiede gibt entwickelt sich der Markt dann einfach über die Zeit hinweg gesehen nach vorne.

Wenn AMD dank den Umständen gezwungen ist, solch eine Strategie zu fahren, dann haben sie die falschen Umstände und die falsche Strategie gewählt.
Der Grund wieso AMD relativ gesehen so wenig Fortschritt erzielt hat liegt eher primär daran, dass AMD zu wenig Ressourcen hat und große Management-Probleme.
Zum anderem auch weil die Compute-Units von Anfang an ein gutes Design hatten, es war/ist nicht so notwendig gewesen dort etwas grundlegend verändern zu müssen.

Und der primäre Taktgeber beim Game-Design sind die Konsolen und dort findet sich GCN2/4-Hardware.
Nicht alles lässt sich auf den PC übertragen, aber gewisse Grunddinge kommen AMD allgemein zu Gute.
Spiele haben einen deutlich größeren Compute-Fokus, haben die Algorithmen auf die Wavefront-Size von 64 Work-Items bei AMD angepasst, dass Geometrie-Budget ist so ausgelegt, dass AMDs schwaches Geometrie-Frontend nicht völlig überfordert wird etc.
Und trotzdem steht AMD in vielen Spielen schlechter dar, als Nvidia und das liegt nicht daran das sich Entwickler angeblich auf Nvidia Hardware so einspannen, weil die einen großen Marktanteil am PC haben.
AMD muss selber ihre Software und Hardware verbessern.
 
Zuletzt bearbeitet:
Zurück