Radeon RX 5700 XT in AMD-Benchmarks: Mindestens so schnell wie Nvidias Geforce RTX 2070

Ähm dann schau dir doch mal die Release Preise von den RTX Karten an, die waren deutlich höher und für die Preise war der Aufschrei dann auch vollkommen zurecht!
Man sollte schon fair vergleichen und nicht Äpfel mit Birnen...



Also mir ist da Freesync deutlich lieber wie G-Sync und dlss, welches die Qualität verschlechtert... ein klasse Feature:rollen: Mir ist Bildqualität wichtiger wie ein paar fps mehr.



Nö tut sie nicht, da sie deutlich schneller wie eine Vega 56 seind wird und diese war bereits schneller wie eine GTX 1070. Sprich sie wird sich eher Richtung 1080 von der Leistung bewegen. Aber in einem Monat wissen wir mehr.



Das ist schwierig, für so eine gebrauchte Karte wirst du wohl kaum mehr wie 200€ bekommen. Außer man hat Glück und findet einen Idioten, zumal die 980 Ti doch auch nur 6GB Vram hatte?



Gut die ganzen AMD Fans haben irgendwelche unrealistische Preise im vorfeld überall rumposaunt, aber früher waren die Karten doch auch nicht billiger? Eine GTX 8800 hatte doch auch um die 600€ gekostet und die Ultra hat noch einen drauf gesetzt. Dass die Leute immer erwarten, dass alles billiger wird ist imo der falsche Ansatz R&D wird immer teurer und das spiegelt sich dann auch im Preis wieder. Aber ich vermute mal, da wird noch eine kleinere Karte für den Einsteigerbereich nachgeschoben oder kann man Polaris mittlerweile so billig produzieren?

zum ersten Naja die RTX kam auch vor knapp einem Jahr raus , wir Vergleichen aktuelle Preise und nicht UVP.

zum zweiten Argument Leider nicht verstanden (hab mich vll unglücklich ausgedrückt),
Also es gibt Gsync und Freesync und Freesync ist was P/L angeht klar besser.
Nun gibt es dennoch welche die GSync haben (weil es vll noch kein Freesync gab oder wegen Werbung usw.) für diese Leute muss die GPU nun selbstverständlich sogar noch nen stückchen besser sein um diese zu überzeugen.
Im vergleich kann Nvidia mittlerweile auch Freesync (weil AMD da seeeehr korrekt ist)
Dies führt aber dazu das der Umstieg von Nvidia auf AMD schwerer ist als von AMD auf Nvidia.
 
Chill hab ich mit ?? weil ich es lustig finde das du es überhaupt ansprichst (also das Thema Effizienz).
Nvidia ist Effizienter im Idle und unter Last also wieso Chill überhaupt ansprechen.

Input-Lag = Latenz
Jede Grafikkarte tut etwas gegen Latenzen Nvidia und auch AMD davor aber gut da müssen wir tests abwarten ob überhaupt ein Messbarer Unterschied zwischen Nvidia und AMD dort herrschen wird ich gehe stark von nein aus.

Ja Freesync ist klar besser als Gsync weil ganz einfach gleiche leistung,günstigerer Preis , und Nvidia musste es aufgrund von Druck übernehmen und konnte dies auch nur weil AMD da sehr Kulant ist, aber Fakt ist dadurch das Nvidia dies nun kann ist es kein Argument mehr für AMD ( davor war es definitiv eins).

Ich sag dir Features aufzuzählen die beim anderen nur anders heißen bringt halt null, ich zähl ja auch nicht sli auf wenn amd crossfire hat. Oder DSR wenn AMD VSR hat.

Mir fehlt noch der Input, wo Nvidia ein Feature, wie Sharpening hat...
Offenbar hast du das Video noch nicht gesehen. Da vergleichen sie es mit DLSS.

Bei Chill ist die Effizienz auch nicht unbedingt der Punkt - die generelle Effizienz der Karte ändert sich dadurch ja nicht.
Für Personen wie mich ist Chill ein ziemlich gutes Feature, weil ich häufig Spiele mit wenig Geschehen auf dem Bildschirm hab und meine Familie mich dann doch häufiger ablenkt und so hilft Chill nebenher ein wenig, die GPU kühler zu halten - würde ja auch ein nettes Feature bei den Nvidia GPUs abgeben.
Ich brauche auch kein Menü im Spiel mit 300+ FPS. Das kann auch bei 30 FPS laufen.
Oder wenn man in nem MMO grad rumsteht, weil was besprochen wird, muss das Spiel ja nicht durchgehend mit 100+ fps laufen.
Gleiches gilt für Spiele wie Civ. Wenn sich da nichts auf dem Bildschirm bewegt, kann man auch mal langsamer machen und die CPU die Runde berechnen lassen.

Ich hab genauso wenig Probleme mit dem Input Lag, wie du.. aber das liegt auch an den Spielen, die ich spiele.
Für unsere Profi Zocker hier im Forum macht ein Frame bei 60 FPS dann schon was aus... mir nicht.

Es sind halt Features... dir sind sie unwichtig, anderen vielleicht nicht.
Mir geht z.B. RTX ab.. aber auch nur, weil aktuell noch die Rechenpower fehlt.
 
Ich finde NV hat mit den preisen stark übertrieben. Sorry, polyOne aber das ist nunmal Fakt !

https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

...und wieviel kostet der Nachfolger heute (RTX2080Ti) ?
719.- für die inkonstante, extrem laute VII waren auch ein schlechter Witz.

Sehr schade wie sich das alles in den letzten jahren entwickelt hat.
Am 10.03.2017 senkte NV die UVP der 1070/080.
Nvidia Geforce GTX 1070 und 1080 - UVP der Founders Edition auch in Deutschland gesenkt

Die geniale ASUSDCII GTX1080OC gab es bereits im Mai (2017) für 449.- incl. 2x Spiele + Xbox Controller.
Das konnte man alles verkaufen und landete bei ca. 350.-
Es gab auch dutzende andere Angebote und ist wie gesagt mehr als zwei jahre her.
RTX2070 und 5700XT sind kaum schneller und kosten stolze 450.-

I´m very impressed ! ;)

Edit : Corrections !
 
Zuletzt bearbeitet:
AMD hat halt das Problem, das sie damals ™ (ich glaube es war 2012 oder so) gesagt haben, das sie sich mit ihren Grakas an dem Mainstream Markt orientieren wollen. Das Problem dabei ist: Es funktioniert nicht. Die Technologie, die Nvida für die High-End (RTX 2080), Enthusiasten (RTX 2080 ti) und Prosumer (RTX TITAN) Modelle entwickelt, können sie scheibchenweise an die Oberklasse (RTX 2070) und Mittelklasse (RTX 2060, GTX 1660 ti) weiterreichen, siehe z.B. RTX, DLSS oder die allgemeinen Architekturverbesserungen (die Geschichte mit der verbesserten Abwicklung der INT- und FP-Operationen, finde gerade dafür den Namen nicht). AMD kann da maximal mithalten, in dem sie Grafikkarten aus dem Professionellen Bereich ummodeln (Vega, Seven), eine kleinere Architektur benutzten und klassisch halt möglichst viel Takt draufknallen, sodass die GPU weit über dem Sweepspot läuft.
 
Ich finde NV hat mit den preisen stark übertrieben, sorry PolyOne aber das ist nunmal Fakt !

https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

...und wieviel kostet der Nachfolger heute (RTX2080Ti) ?
719.- für die inkonstante, extrem laute VII waren auch ein schlechter Witz.

Sehr schade wie sich das alles in den letzten jahren entwickelt hat.
Am 10.03.2017 senkt NV die uvp der 070/080.
Nvidia Geforce GTX 1070 und 1080 - UVP der Founders Edition auch in Deutschland gesenkt

Die geniale ASUSDCII GTX1080OC gab es im Mai (2017) für 449.- incl. 2x Spiele + Xbox Controller.
Das konnte man alles verkaufen und landete bei ca. 350.-

Es gab auch dutzende andere Angebote
Das ist wie gesagt mehr als zwei jahre her.

RTX2070 und 5700XT sind kaum schneller und es werden 450.- verlangt.

Exakt und genau hier steckt doch das Problem. Wir sind es gewohnt, dass jedes Jahr oder zumindest in einem gewissen Rythmus neue Karten mit mehr Leistung für das gleiche Geld wie ihre Vorgänger kommen. Leichte Anpassungen mal ausgenommen, war es bis Pascal ja so halbwegs ein Level.
Als die ersten Titan Karten kamen haben alle geschrien 1000€+! Aber da hatte man auch definitiv einen Gegenwert bekommen. 2080Ti für heute 1100€ (?) scheint bei einigen nun als normal angekommen zu sein.
NV hat es übertrieben und AMD versucht nun natürlich auch ein Stück vom Kuchen abzubekommen, 450€ für 1080 Leitung ist 2019 nicht angemessen.

Die Frage ist wird dieser Trend auch irgendwann mal wieder rückläufig sein?
 
Mir fehlt noch der Input, wo Nvidia ein Feature, wie Sharpening hat...
Offenbar hast du das Video noch nicht gesehen. Da vergleichen sie es mit DLSS.

Bei Chill ist die Effizienz auch nicht unbedingt der Punkt - die generelle Effizienz der Karte ändert sich dadurch ja nicht.
Für Personen wie mich ist Chill ein ziemlich gutes Feature, weil ich häufig Spiele mit wenig Geschehen auf dem Bildschirm hab und meine Familie mich dann doch häufiger ablenkt und so hilft Chill nebenher ein wenig, die GPU kühler zu halten - würde ja auch ein nettes Feature bei den Nvidia GPUs abgeben.
Ich brauche auch kein Menü im Spiel mit 300+ FPS. Das kann auch bei 30 FPS laufen.
Oder wenn man in nem MMO grad rumsteht, weil was besprochen wird, muss das Spiel ja nicht durchgehend mit 100+ fps laufen.
Gleiches gilt für Spiele wie Civ. Wenn sich da nichts auf dem Bildschirm bewegt, kann man auch mal langsamer machen und die CPU die Runde berechnen lassen.

Ich hab genauso wenig Probleme mit dem Input Lag, wie du.. aber das liegt auch an den Spielen, die ich spiele.
Für unsere Profi Zocker hier im Forum macht ein Frame bei 60 FPS dann schon was aus... mir nicht.

Es sind halt Features... dir sind sie unwichtig, anderen vielleicht nicht.
Mir geht z.B. RTX ab.. aber auch nur, weil aktuell noch die Rechenpower fehlt.

Chill ist am ende ein Stromspar Feature und auf der ebene konnten die GPU's klar nicht mithalten wäre aber durchaus interessant eine Rechnung aufzustellen wie lange man durchschnittlich afk sein müsste damit es sich lohnt.

zu Sharpening hat Nvidia freestyle mit vielen post Processed effekten darunter auch sharpening , nutzt quasi nur niemand^^(und ja funktioniert bei allen Spielen).

Zum Input lag hab ich infrage gestellt ob es denn jetzt wirklich zumindest messbar besser ist als Nvidia.

EDIT: zu anti-lag hab ich noch das gefunden.
" That’s the setting ‘maximum pre-rendered frames’ in the GeForce control panel, which controls the size of the Flip Queue. The higher the number here, the higher the lag between your input and the displayed frame, while lower queue lengths result in less lag but increased strain on your CPU. Too much either way and you could be looking at a stuttering mess."

Es gibt zu quasi jedem AMD Feature ein Nvidia Pendant und umgekehrt
die einzigen Ausnahmen sind halt aktuell tatsächlich Gsync also das nur Nvidia nutzen kann (weil Nvidia ja auch freesync kann)
Raytracing und dlss.
 
Oder schaut euch mal die rx56/rx64 an ! Im ersten jahr lag das günstigste Angebot für die kleinere bei ca. 600.-, erst ende 2018 ging es preislich ein wenig runter.
Mining Boom, no mining Boom ?
Das interessiert die User da draussen nicht !

Fakt ist das die karten für eine sehr lange zeit massloss überteuert waren.
 
Hast du im Kindergarten gelernt, dass der erste, der eine Behauptung aufstellt auch immer als erstes Belege liefern muss? Oder wo steht das geschrieben? o.O (übrigens war zuerst das Ei da, Vögel haben sich aus Dinosauriern entwickelt)

Entspann dich mal, oder willst du deinen Bildungsstand in ein derart schlechtes Licht rücken. ;)

Wer Belege fordert für eine Gegenbehauptung, der sollte auch welche liefern die dafür sprechen.
Zumal es News für beide Aussagen bei PCGH gab, soweit ich mich erinnere.

Aber endlich mal einer der das mit dem Ei drauf hat ;) Oder doch nicht?
Es kann keiner hier irgendwas davon belegen, oder beweisen. Wieso also so emotional?
Er hat aus den News die es gab halt eine andere Schlussfolgerung getroffen als du, mehr nicht.

Mit freundlcihen Grüßen
 
zum ersten Naja die RTX kam auch vor knapp einem Jahr raus , wir Vergleichen aktuelle Preise und nicht UVP.

Naja, wenn wir etwas vergleichen, dann tun wir das schon richtig und nehmen den UVP. Denn genau darüber haben sich die Leute auch so massiv beschwert und nicht über den aktuellen Preis!
Denn wenn du damit kommst, dass sich die Leute bei nvidia massiv beschwert haben, dann musst du auch den Preis heranziehen über den sich beschwert wurde ;)


zum zweiten Argument Leider nicht verstanden (hab mich vll unglücklich ausgedrückt)

Ja das hast du wohl, wer einen g-sync Monitor hat wird wohl kaum auf AMD umrüsten, aber ich denke mal so viel Leute werden das auch nicht sein.
 
Zen 2 ist hochinteressant, Navi hingegen enttäuscht. Wo ist denn unser lieber Chatstar mit seinen lächerlichen Parolen? Hat sich beim Lesen der AMD Folien wohl verschluckt und muss sich erst mal erholen. So viel zum Thema "Navi wird Nvidia das Fürchten lehren" :schief:
Den lieben Chatstar kannst du doch (meistens) genauso "ernst" nehmen wie die (nur leicht...;)) sarkastischen und provozierenden Texte unserer "Killertomate"...

Gruß
 
Entspann dich mal, oder willst du deinen Bildungsstand in ein derart schlechtes Licht rücken. ;)

Wer Belege fordert für eine Gegenbehauptung, der sollte auch welche liefern die dafür sprechen.
Zumal es News für beide Aussagen bei PCGH gab, soweit ich mich erinnere.

Aber endlich mal einer der das mit dem Ei drauf hat ;) Oder doch nicht?
Es kann keiner hier irgendwas davon belegen, oder beweisen. Wieso also so emotional?
Er hat aus den News die es gab halt eine andere Schlussfolgerung getroffen als du, mehr nicht.

Mit freundlcihen Grüßen

Das emotionale hast du reininterpretiert :D alles cool bei mir. Dein Post klang nur nach "Der da hat angefangen!"
 
Naja, wenn wir etwas vergleichen, dann tun wir das schon richtig und nehmen den UVP. Denn genau darüber haben sich die Leute auch so massiv beschwert und nicht über den aktuellen Preis!
Denn wenn du damit kommst, dass sich die Leute bei nvidia massiv beschwert haben, dann musst du auch den Preis heranziehen über den sich beschwert wurde ;)




Ja das hast du wohl, wer einen g-sync Monitor hat wird wohl kaum auf AMD umrüsten, aber ich denke mal so viel Leute werden das auch nicht sein.

Zum ersten. hmm Stimmt teilweise Release Preis bei RTX 2070 war 519€ (499$)
Aber da muss man berücksichtigen das man diese "Leistung" 8 Monate vorher bekommen hat , wenn man dann 8 Monate (oder bis die wirklich zu kaufen sind) 9 Monate später ankommt und den Release Preis vom Gegner nur um 50$ drückt und mit dem aktuellen Preis quasi gleichauf ist ohne mehr zu bieten ist das Schwach .
Und ich bin mir sicher auch für 450$ damals hätte Nvidia nen shitstorm abbekommen einfach weil die 1080ti quasi zum gleichen Preis kaufbar war (mit aktionen und auch dort aktuelle Preis) aber die 2070 schwächer als die ti war/ist.
 
Und ich bin mir sicher auch für 450$ damals hätte Nvidia nen shitstorm abbekommen einfach weil die 1080ti quasi zum gleichen Preis kaufbar war (mit aktionen und auch dort aktuelle Preis) aber die 2070 schwächer als die ti war/ist.

Sie nicht wollen, sie nicht kaufen !
Ich nicht wollen. :D

GTX1080Ti leistung dürfte heute maximal 450.- kosten.
Eine 5700 oder RTX2070 ca. 320.- Ich denke dann würde sich nicht viele beklagen, leider nicht der fall.
 
Die 2070 ist ca. 8 % über der 1080 die Navi ist noch mal ~ 5 % über der 2070.
So viel mal zu der Phrase „ 1080 Niveau und 3 Jahre „
Die 1080 ist ein ganzes Stück langsamer und war
High End für die könnte man auch gut 700 Euro bezahlen oder mehr.
Meine 1080 von Asus hat am Ende der Lebenszeit noch 680 gekostet.
Um mal eine Begrifflichkeit zum Argument „selber preis wie 1080 vor X Jahren.

Fazit soweit: die Navi ist deutlich schneller und deutlich günstiger als die 1080 zu Einführung
Über den Begriff "deutlich" kann man sich bekanntlich trefflich streiten, gelle? Ich für meinen Teil würde deine zusammengefassten 13% nicht unbedingt als deutlich sehn. Und dafür, das AMD für diese 13% 3 Jahre gebraucht hat, brauch man hier auch nicht applaudieren...

Zudem verdienen die aufgerufenen Preise wohl zurecht Kritik, wenn AMD "Mainstream"-Karten angekündigt hat.

Gruß
 
Zuletzt bearbeitet:
Über den Begriff "deutlich" kann man sich bekanntlich trefflich streiten, gelle? Ich für meinen Teil würde deine zusammengefassten 13% nicht unbedingt als deutlich sehn. Und dafür, das AMD für diese 13% 3 Jahre gebraucht hat, brauch man hier auch nicht applaudieren...

Gruß

... wie er bereits geschrieben hat, zu Einführung !
Das änderte sich vor mehr als zwei jahren :
Nvidia Geforce GTX 1070 und 1080 - UVP der Founders Edition auch in Deutschland gesenkt

Das war sehr beispielhaft & nett von NVIDIA und das ohne konkurrenz im nacken.

CB schrieb:
Update 09.03.2017 16:01 Uhr

Mit Veröffentlichung des Tests zur GeForce GTX 1080 Ti hat Nvidia die Preise der GeForce GTX 1080 und GeForce GTX 1070 in der Founders Edition auch in Deutschland um 150 respektive 40 Euro gesenkt. Im Einzelhandel sind die neuen Preise aber schon über die letzten Tage angekommen, die meisten Partnerkarten sind dabei um knapp 100 Euro im Preis gefallen. Der Einstiegspreis der GeForce GTX 1080 liegt mittlerweile bei 499 Euro.

Nvidia: GeForce GTX 1070 und 1080 fallen im Preis - ComputerBase

2016 gab es auch schon Schnäppchen (Bild 1)
Ich meine eine GTX1070 (Custom) für 344.- bei MediaMarkt, not a bad deal !

Pascal war wirklich Bombe aber Turing und Vega/Navi sind leider eine immense Enttäuschung für mich, sowohl preislich als auch leistungstechnisch. Es hat sich in den letzten drei jahren so gut wie nichts bewegt.

Keine frage, die RTX2080Ti ist eine sehr geniale, extrem schnelle GPU aber der Preis ist einfach zu high, way too high.
https://www.pcgameshardware.de/Gefo...on-Custom-Designs-guenstig-lieferbar-1226393/

Der Nachfolger ist um ca. 300€ teurer ! The sad truth.

Nein, es liegt garantiert nicht an der mangelnden Konkurrenz !! Das behaupten zwar viele aber das stimmt einfach nicht.

GTX1080TI hatte damals auch keine.
 

Anhänge

  • Screenshot_2019-05-07 Geforce RTX 2070 und 2080 Keine A- und Non-A-Chips mehr als Reaktion auf N.png
    Screenshot_2019-05-07 Geforce RTX 2070 und 2080 Keine A- und Non-A-Chips mehr als Reaktion auf N.png
    41,5 KB · Aufrufe: 20
Zuletzt bearbeitet:
Mal den Preis aussen vor gelassen (den ich persöhnlich auch für etwas hoch angesetzt halte),
von der Effizienz abgesehen (die wohl zum großteil durch die 7nm zustande kommt),
bleibt doch festzuhalten das sie es zumindest geschafft haben mit 2560 Shadern die Leistung ihrer vorherigen
Karte mit über 4000 Shadern zu toppen.

Das für sich genommen klingt doch erst mal positiv, denn ich könnte mir vorstellen das man vor dem Problem stand, sich entscheiden zu müssen.
Steigert man die Effizienz oder die Leistung. Aufgrund fehlender Manpower und/oder Budget war wohl nur eines möglich.
Der neue Prozess mildert den Stromhunger ja eh, also hat man sich erstmal um die Leistung gekümmert.
Im zweiten Anlauf versucht man sich dann daran das Design noch effizienter zu machen...

Nur mal so ein Gedanke... :)

Wären die Karten etwas günstiger zu haben wären sie wohl auch um einiges attraktiver.
Ich denke aber es ist durchaus schon ein Schritt in die richtige Richtung!
Bleibt abzuwarten was die Test´s so dazu sagen werden....
 
Zurück