Nach dem Test: Wie gut kommen Radeon RX 5700 (XT) im Vergleich zu Geforce RTX 2060/2070 Super an?

Habe eine RX 56 UV und spiele damit im Bereich der 2060 und 5700, insoweit habe ich da im Moment keinen Bedarf, da auf Augenhöhe.
 
"Etwas gestört" :what: ?? Ich könnte im Kreis kotzen wenn ich sowas lese :daumen2:. Anstatt die Presse mal nur ein wenig ihre Macht nutzt und wenigstens mal auf den Tisch klopft (hauen trauen die sich ja eh nicht) nein da wird der Schmarn schön weiter verzapft und noch für legitim gehalten :nene:.
 
Schlecht geschriebener Artikel :schief:. Bei 350-550€ Karten von Mittelklasse bzw. gar Einsteigerkarten zu sprechen ist entweder Hohn oder der Herr Chefredakteur ist mitlerweile genauso wie Herr Lederjacke fernab jeglicher Realität :wall:.


:-) Hab ich mir auch gedacht. Aber immer locker bleiben...


"2019 ist wieder mal ein spannendes Jahr für Grafikkarten, zumindest in der Einsteiger- bis Mittelklasse für Gaming-Grafikkarten. "

Traurig dass man für 360 - 420 € mittlerweile die Einsteiger bzw. maximal Mittelklasse bekommt.
Ich dachte die Inflation ist seit vielen Jahren bei ~1 % (sagt zumindest mein Lohnzettel...) ?
Das haben die Grafikkartenhersteller (und auch die diversen Print- und Onlinemedien) scheinbar noch nicht mitbekommen, oder?

Ich sage es schon lange: Es ist endlich mal an der Zeit hier deutliche Kritik zu üben an den Oligopolisten AMD und NVIDIA.
NVIDIA schießt seit Jahren (mangels Konkurrenz) den Vogel ab. AMD machte bisher munter mit. Diese Generation ist ein KLEINER Schritt in die richtige Richtung, sie setzen NVIDIA mit dem Preis schon unter Druck. Aber wir sind noch lange nicht da, wo wir sein sollten. Die 5700 sollte unter 300 kosten, die 5700xt 350 maximal. Dann kann Navi 20 wegen mir für 450 / 550 € verkauft werden. Aber ich sehe es schon wieder kommen, Navi 20 wird dann für knapp 700 weggehen oder sowas...wenn es nicht noch deutlich schlimmer wird. NVIDIA verlangt es aktuell ja auch....

Seit Jahren verlangen AMD und auch NVIDIA für ihre Mittelklassewägen den Preis für nen Porsche. (Achtung, Autovergleich :-))
Auch diese PLV-Wertung in der Grafikkarten-Tabelle ist seit Jahren ein Hohn. Klar muss hier irgendwo ein Bezugpunkt existieren. Aber bei dieser aktuellen Formel kommen die arschteuren Grafikkarten (allesamt) viel zu gut weg. DAMALS (tm) wären selbst die "Preisleistungskracher" von heute bestenfalls mit einem PLV von 50 abgestempelt worden.
Wisst ihr wie ich meine?

Für eine einfache Mittelklassegrafikkarte muss ich aktuell 400-500 € hinblättern. Dafür kriege ich aktuell eine PS4 und ne XBox noch dazu. Wo ist da die Verhältnismäßigkeit geblieben?
Gut dass ich einigermaßen Geld verdiene heute, PC-Gaming ist in den letzten 10 Jahren ein zunehmend teureres Hobby geworden. Oder ist das nur ein "Gefühl" dass früher alles besser war?
Und jetzt kommt mir nicht dass man heute mehr geboten bekommt als früher für das Geld. Schon klar. Die Entwicklung schreitet voran, die Preise müssten das nicht unbedingt...


Aber naja, was rede ich da. Sind halt verrückte Zeiten. Wenn Leute 600 - 1.200 € für ein Telefon bezahlen. Alle 2 Jahre... :-)
(so, wo ist jetzt der, der argumentiert dass es dafür ein Telefon, Fotoapparat, mp3-Player und Laptop in einem ist?)








 
Auf die Idee dass die immer aufwendigere Technik einfach immer teurer in der Entwicklung und Produktion wird, kommt keiner...

Wenn die Karten deutlich billiger angeboten werden könnten, so dass immer noch ein gesunder Gewinn dabei rausspringt, dann würden sie auch so billig verkauft. Jetzt auf jeden Fall von AMD, denn damit würde man sicher einen deutlichen Marktanteil abgreifen.

Dass das nicht passiert ist ein nur zu deutlichen Zeichen, dass sowohl NVidia als auch AMD die Preise nicht nur aus purer Gewinnsucht aufrufen. Was auch nicht nachvollziehbar wäre, denn wäre die Gewinnspanne wirklich so enorm groß, dann wäre auch der Sweetspot für den Preis (bei dem Zahl verkaufter Exemplare * Gewinn pro Exemplar am größten ist) deutlich niedriger.

Hohe Preise führen nicht zu einem hohen Gesamtgewinn - noch nicht mal bei einem Monopolisten, ganz besonders, wenn das Produkt ein reines Luxusprodukt ist, dessen Zielgruppe aber dennoch im Mainstream liegt.

Das ewige Gejammere über zu hohe Preise und das Einkloppen auf NVidia hat sicher auch einen gewissen Teil eine Berechtigung - NVidia könnte die Preise nicht aufrufen, gäbe es eine Konkurrenz auf Augenhöhe - aber bei weitem nicht in dem Ausmaß, den sich hier einige vorstellen.

Die Zeit bei der man mit €500 die absolute Leistungskrone bekommen konnte, sind längst vorbei und sie werden auch nicht mehr zurückkommen. Andererseits ist das auch nicht notwendig, da man eigentlich alles mit einer €300 Karte problemlos in 60+ fps und mit Einstellungen spielen kann, die kaum einer optisch von Ultra unterscheiden kann.
 
Man kann eines mit Sicherheit sagen das der Grafikkarten-Markt verrückt ist und auch Paradox anderen Märkten gegenüber. Ware die seit Jahren gut produziert wird und Käufer findet hält ihren Preis da gerade auch der Preis bestimmt ob Leute sich dafür Entscheiden. Das man heute im Grafikkarten-Markt über den tisch gezogen wird sieht man doch sehr gut an den Preisen und zum Vergleich kann man Ryzen nehmen die auch in 7nm produziert werden aber die Preise human geblieben sind. Nehmen wir Nvidia die mit Pascal Rekordgewinne eingefahren haben und in 12nm produzieren aber nochmals mit Turing die Preise angezogen haben und nicht zimperlich. Eine 970 hatte eine UVP von 329$ und heute eine 2070 S von 499$. Eine 2080TI um die 1200€ zeigt auch das diese nie und nimmer 1200€ in der Herstellung kostet wo man eine 980TI für 650€ bekam was auch schon teuer war.

Im Grafikkarten-Markt werden die Leute nur abgezockt und über den Tisch gezogen und das einzig Wahre was man tun kann ist nicht kaufen zu diesen Wucherpreisen.

An meinen Vorredner:
mit 300€ kann man alles in 60fps spielen..... in FHD.
Ich will demnächst 2080TI-Leistung für bis 300€ in den nchsten Jahren denn ich zocke in 4K und wenn das früher auch so gewesen wäre würden wir für SVGA-Karten 500€ hinlegen und in 800*600 spielen.
 
Andererseits ist das auch nicht notwendig, da man eigentlich alles mit einer €300 Karte problemlos in 60+ fps und mit Einstellungen spielen kann, die kaum einer optisch von Ultra unterscheiden kann.
Wenn Du Dich nach zehn Jahren weiter mit 1080p begnügen willst, bitte. Andere haben da aber vielleicht eine andere Vorstellung von Fortschritt und würden - auch angesichts von 4k-Fernsehern zum absoluten Spottpreis - dann doch so langsam gerne mal wieder in einer höheren Auflösung flüssig spielen können, ohne dabei direkt arm zu werden.
 
Solange Raytracing nicht flüssig in 4K läuft 60 FPS+ läuft und man nicht dafür mehr als € 1000,-- investieren möchte und wer keinen Wert auf Raytracing legt, der sollte wirklich zum besten Preis-Leistungsverhältnis greifen und da ist die RX 5700 (XT) die bessere (beste) Option. Mit den Custom-Designs erwarte ich nochmals eine kleine Steigerung in der Performance sowie eine kleine Reduktion der Verlustleistung, sodass die RX 5700 XT dann schlussendlich gegen die RTX 2070 Super konkurriert und die RX 5700 gegen die RTX 2060 Super, wobei letztere schon gleich auf mit dem Super-Modell wenn nicht schneller ist. Die RX 5700 XT wird es zwar um ein paar Prozent nicht schaffen, die RTX 2070 S gänzlich einzuholen, aber das muss sie nicht. Sie liegt um 5-7 % unter der S-Karte, also so gut wie in etwa eine S, aber um ein gutes Stück billiger. Und für den Gelegenheitsspieler tuts eine RX 5700 XT oder eine Non-XT, je nachdem wie viel und in welchen Einstellungen man spielen will.

Mit 2020 kommt Navi 1.2 und hier wird man erstmals von AMD eine softwarebasierte RT-Unterstützung sehen, die scheinbar laut AMD Zukunft hat. Wenn 1.2 mehr als 4000 Shader-Einheiten zulässt, eine maximale Verlustleistung von 250 - 300 Watt anzunehmen bist, die Taktraten auf gut 2,1-2,2 GHz angehoben werden können und man damit das Level einer RTX 2080 Ti + 10-15 % erreicht, dann sag ich mal, das soll man dann kaufen für Raytracing, weil das lohnt sich dann. Zwar wird die Karte nicht besonders billig sein, aber lohnenswert, wenn Spiele dann auch vermehrt Raytracing unterstützen. DLSS wird auch eine Rolle spielen. Jedenfalls sieht sich AMD auf einem guten Weg, das zu schaffen, und ich sage jetzt schon, die machen das, die schaffen das, ganz bestimmt.

Ich habe aber die Befürchtung, dass mit Ampere in 7nm von Nvidia AMD erneut den kürzeren ziehen wird, auch aus Finanzgründen. Das Geld ist nicht da, um ewig viel in die GPU-Sparte reinzupumpen. Aber mit RDNA ist man auf gutem Weg, auch mit dem 7nm+ Fert.prozess künftig ein solides gutes vielleicht auch kostengünstigeres Produkt auf den Markt zu bekommen, das sicherlich im oberen Mid-Range Bereich mit Nvidia-Ampere mitkonkurrieren kann. Wir werden es sehen.
 
Und für den Gelegenheitsspieler tuts eine RX 5700 XT oder eine Non-XT, je nachdem wie viel und in welchen Einstellungen man spielen will.

Mit 2020 kommt Navi 1.2 und hier wird man erstmals von AMD eine softwarebasierte RT-Unterstützung sehen, die scheinbar laut AMD Zukunft hat. Wenn 1.2 mehr als 4000 Shader-Einheiten zulässt, eine maximale Verlustleistung von 250 - 300 Watt anzunehmen bist, die Taktraten auf gut 2,1-2,2 GHz angehoben werden können und man damit das Level einer RTX 2080 Ti + 10-15 % erreicht, dann sag ich mal, das soll man dann kaufen für Raytracing, weil das lohnt sich dann. Zwar wird die Karte nicht besonders billig sein, aber lohnenswert, wenn Spiele dann auch vermehrt Raytracing unterstützen. DLSS wird auch eine Rolle spielen. Jedenfalls sieht sich AMD auf einem guten Weg, das zu schaffen, und ich sage jetzt schon, die machen das, die schaffen das, ganz bestimmt.

Ich habe aber die Befürchtung, dass mit Ampere in 7nm von Nvidia AMD erneut den kürzeren ziehen wird, auch aus Finanzgründen. Das Geld ist nicht da, um ewig viel in die GPU-Sparte reinzupumpen. Aber mit RDNA ist man auf gutem Weg, auch mit dem 7nm+ Fert.prozess künftig ein solides gutes vielleicht auch kostengünstigeres Produkt auf den Markt zu bekommen, das sicherlich im oberen Mid-Range Bereich mit Nvidia-Ampere mitkonkurrieren kann. Wir werden es sehen.

Der Gelegenheitsspieler gibt aber keine 400-500€ für eine GPU aus. Die Meisten die in FHD spielen haben ihre Karte mit der RX480/580/590 und der 1060 die optimal sind für 1080.

Schau dir hier mal das Video an von Herrn Vötter der einen guten Lüfter auf eine 5700XT schraubt und auch auf 2GHZ übertaktet. AMD hat mich mit der Leistung von Navi beeindruckt aber enttäuscht beim Preis. Ich finde in dem Video sieht man auch wie schwer wieder der Navi-Chip zu bändigen ist wie schon Vega und eine hohe Abwärme dabei aufkommt. Es gab auch mal das Gerücht das die Ingenieure froh sind wenn Navi vorbei ist und die nächste GEN angegangen wird da Navi Übertaktungsprobleme hat und im Video finde ich trifft das zu. Eine Navi mit 4000 Shader wird ja 1000Grad heiß ;-)

Ja, mit Ampere wird Nvidia AMD wieder alt aussehen lassen denn eines vergisst man auch das Turing aufgrund Raytracing und den Core´s dazu nicht die volle Leistungssteigerung bekam und auch deswegen AMD näher ran kommt. Ich verstehe halt nicht den Preis den AMD nimmt, und auch Nvidia, für eine Mittelklasse-Karte 400€ zu nehmen und AMD ist für mich der "Rebell" der gegen die Großen kämpft und für Wettstriet sorgt aber was macht AMD? Passt sich Nvidia an und zockt die Gamer auch ab.

Ich hoffe nur das die Preise sich wieder normalisieren und eine Mittelklasse-Karte bis 300€ kostet und keinen Cent mehr sonst brauche ich keinen PC mehr und hole mir für 400€ eine Konsole und kann loszocken. Wobei ich bei diesen Preisen für Navi denke das eine PS5 wohl mit 500€ losgehen wird. Die Konsolen sind zwar subventioniert aber die PS4 hatte eine Radeon 200er-Chip auf der APU und kostete 400€ wo man damals eine R9 280X für knapp 300€ bekam und stärker war als der Chip in der PS4. Eine 5700 kostet also knapp 400€ na dann wird eine PS5 wohl 600€ kosten wenn eine XONE X schon 500 kostet mit ihren läppischen 6TFlops.

Ach, macht alles kein Spass mehr wenn man merkt das man verar.. wird!
 
Igor zeigte doch schon, dass es momenten völlig sinnbefreit ist, das PT auf +50% zu setzen. Er erreichte die 2Ghz+ auch, ohne das PT anzuheben. Die Karte frisst einfach den Strom, wenn man es zulässt. Das Ganze ist aber aktuell offenbar generell treiberseitig noch etwas buggy.
 
Die R2070 ist toll, leider lohnt es sich für Besitzer einer 1070ti/RX56 und aufwärts nicht hinreichend sie zu kaufen.
 
Ich find ja diese Zahlenspielereien immer süß, wenn die Vormachtstellung eines Herstellers mit +5% mehr FPS durch polnische Vollmondbenchmarks bewiesen wird.
Nur interresiert mich nicht, ob Rot 5% schneller ist oder grün an ungeraden Primzahl-Tagen nahezu lautlos ist, wenn die Dinger nicht bezahlbar sind!
Und da gebe ich eine nicht geringe Mitschuld an PCGH und Kollegen weiter- Ihr habt durch solche Formulierungen wie hier (Einstiegs bzw. Mittelklasse) die Leutchen so weichgekocht, das der Eine oder Andere mitlerweile wirklich ne
60-iger oder den roten Pendanten für 369 Euro als Einsteiger für ok halten.
Gruß Yojinbo, Der damals 4-5 Jahre mit einer Mittelklasse 7870 für 212 Euro ohne große Einschränkungen spielen konnte!
 
[x] Sonstiges

Ich interessiere mich jeweils nur für die "mobilen" Versionen der GPUs und bin gespannt ob es Navi auch ins Notebooksegment schafft.

Grüße

phila
 
Die OC Navi rasiert ja jetzt schon ne 2080 mit Overclocking. Die Karte ist als Custom ne klare Kaufempfehlung,2Ghz++ und das Teil rennt wie Hulle.
 
Ich find ja diese Zahlenspielereien immer süß, wenn die Vormachtstellung eines Herstellers mit +5% mehr FPS durch polnische Vollmondbenchmarks bewiesen wird.
Nur interresiert mich nicht, ob Rot 5% schneller ist oder grün an ungeraden Primzahl-Tagen nahezu lautlos ist, wenn die Dinger nicht bezahlbar sind!
Und da gebe ich eine nicht geringe Mitschuld an PCGH und Kollegen weiter- Ihr habt durch solche Formulierungen wie hier (Einstiegs bzw. Mittelklasse) die Leutchen so weichgekocht, das der Eine oder Andere mitlerweile wirklich ne
60-iger oder den roten Pendanten für 369 Euro als Einsteiger für ok halten.
Gruß Yojinbo, Der damals 4-5 Jahre mit einer Mittelklasse 7870 für 212 Euro ohne große Einschränkungen spielen konnte!

Jetzt bin ich aber schockiert, "damals vor 4-5 Jahre", damals war der 2 Weltkrieg. Interpretation wird mir nicht in den Mund gelegt, wer Mittelklasse als 400€ definiert nur weil es mal durch eine Zeitschrift als solches abgetan wird, ist selbst schuld. Du selbst definierst deine Mittelklasse! Diese kann ja z.b auch eine Vega 56 oder gtx 1070 ti sein.

Deine 7870 konntest Du auch "damals vor langer Zeit" schon in 1080p auf 30 fps oder drunter bringen. Von WQHD wollen wir doch gar nicht sprechen, diese Lcds gab es auch schon damals und sogar 4K.

Weiterhin hat die 7870 zu Release 350 gekostet, also eher teuer oder?

AMD Radeon HD 7870 GHz Edition - Teure Mittelklasse fuer 350 Euro
 
Zurück