Geforce RTX 3000: Analyst will Ampere-Termine kennen, Nvidia hat keine Eile

Nicer Cherrypick, bald ist die Kate so schnell wie eine 2080 Ti.:P



Also grundsätzlich liegen zwischen 5700XT und 2080 Super 20 bis 30% Leistung, je nach Auflösung im PCGH Index.
Ich kann mir immer Spiele herauspicken die auf Kare A oder B schneller bzw. langsamer laufen und dann irgendwelche Behauptungen machen.
Tatsache ist, die Karte liegt im PCGH Index gleichauf mit einer RTX 2070, da muss ich jetzt nicht hergehen und und irgendetwas erzwingen oder schönreden.



AMD muss mindestens 1 Generation aufholen, was nicht mal ganz mit der 5700XT geschafft haben, trotz enormem Fertigungsvorteil.
Früher war der Hersteller mit dem neuesten Proezess immer vorne, da sieht man, wieviel Rückstand AMD hat.

Was denn für einen Rückstand ?!? die RX 5700XT liegt gleichauf mit der RTX 2070 (Dein O-Ton), ist Teils schneller, verbraucht weniger(210 zu 242 Watt) und ist günstiger (AMD ab 379 und nVidia ab 399 €) !
Also, was soll das Geschwätz ?
Und wenn hier einer Cherrypicking betreibt, dann ja wohl Du mit Deiner 30 % Angabe bzgl. 2080 vor 5700XT.

Und ja, dafür ist die AMD Karte lauter, hässlicher und bei nVidia gibt es den "besseren" Support … ach ne, das war ja bei INTEL ;-)

Großes Tennis …

MfG, Föhn.
 
mich hat 5700xt so ganz und gar nicht überzeugt zum preis von 460,- für die einzigen 2 guten modelle die in frage kommen.
AMD hat null preisstabilität; heute für 460,- gekauft und in 10monaten mit viel glück für 150,- verkauft - da 5700xt bereits NEU im angebot für 199,- zu haben ist.
 
Dann muss Cyberpunk wohl doch auf der 1080ti vor sich hinjuckeln.

Wird schon gehen. SotTR sah auf der Karte auch super aus. Dann wird CP2077 wohl auch super aussehen. Auch wenn es vielleicht auf Medium steht. Ehrlich gesagt glaube ich eh kaum, dass irgendwas außer einer 3080 Ti viel helfen würde und ich befürchte, dass die nicht ganz billig wird.

Wow, dann werden es 3,5 Jahre 1080 TI.
Da relativieren sich 750€ dann doch ziemlich zu den sonst 300-400€ alle 2 Jahre :/

Das war eigentlich worauf ich beim Kauf meiner spekuliert habe. Ich kann damit eigentlich ganz gut leben.

Mir egal, habe gerade erst die 2080ti gekauft um leicht aufgehuebschte ps4 pro Grafik zu haben.

Wieder mal einer deiner besseren Kalauer, du Scherzkeks.

Und die 5700 hat einen vollen Node Fertigungsvorteil. :daumen:

Wenn die Endparameter nicht entsprechend überzeugen können, ist das eher ein Makel.
 
Was denn für einen Rückstand ?!? die RX 5700XT liegt gleichauf mit der RTX 2070 (Dein O-Ton), ist Teils schneller, verbraucht weniger(210 zu 242 Watt) und ist günstiger (AMD ab 379 und nVidia ab 399 €) !
Also, was soll das Geschwätz ?
Und wenn hier einer Cherrypicking betreibt, dann ja wohl Du mit Deiner 30 % Angabe bzgl. 2080 vor 5700XT.

Und ja, dafür ist die AMD Karte lauter, hässlicher und bei nVidia gibt es den "besseren" Support … ach ne, das war ja bei INTEL ;-)

Großes Tennis …

MfG, Föhn.

Also erstmal, ist eine RTX2070@Stock mal eben 8% langsamer, als eine RX5700XT@Stock. Beides mit Hersteller Specs. Dabei verbraucht die 5700XT 210W und die RTX2070 166W. Das bedeutet das die 2070 effizienter ist!
Die 2070 Super ist in 1080p 8% und in 4k 11% schneller, als die 5700XT. Wieder bei hersteller Specs! Dabei verbraucht die RTX2070 Super 222W. Damit ist wieder die 2070 Supter effizienter!
Die 2080 Super liegt 26% vor der 5700XT, was nicht weit weg ist, von 30%.

Das obwohl die Fertigung schon auf 7nm umgestellt wurde.

Aktuell muss AMD keine ganze Generation aufholen. Man ist zwar durch die Bank etwas langsamer, aber in den jeweiligen Bereichen auf Augenhöhe (5700XT zu 2070(Super)). Wenn man den Shrink raus nimmt sieht man aber, das bei AMD bei Navi noch einiges in der Architektur fehlt, im Vergleich zu Nvidia. Wenn Nvidia nur shrinken würde, würde ich mal spekulativ von einem 20-30% gewinn ausgehen und dann würde AMD, bei vergleichbarer Fertigung alt aussehen.

Daas bedeutet schon, das AMD eine Generation aufholen muss. Wobei genau das wird nächstes Jahr passieren. Dann kommt RDNA2 und die Karten werden neu gemischt.

Stand heute hinkt die Architekur von AMD hinterher. Es wird sich nächstes Jahr zeigen, wie viel Nvidia die eigene Archi verbessern kann und wie viel der Shrink bringt. Darüber hinaus wird sich zeigen, wie viel RDNA2 drauf legen kann.

Und die 5700 hat einen vollen Node Fertigungsvorteil. :daumen:

Wurde schon gesagt, aber genau wie HBM damals, solange es nicht in einem Leistungsvorteil endet, oder Effizienzvorteil, ist es eher ein negatives Zeichen. Das man trotz toller Fertigung, bzw. damals trotz HBM, die Konkurrenz nicht ausstechen kann.

Mal eben noch ein paar Links

Grafikkarten-Rangliste 2019: GPU-Vergleich - ComputerBase

AMD Radeon RX 5700 und RX 5700 XT im Test: Lautstaerke, Temperatur, Leistungsaufnahme und das UEbertakten - ComputerBase
 
Also erstmal, ist eine RTX2070@Stock mal eben 8% langsamer, als eine RX5700XT@Stock. Beides mit Hersteller Specs. Dabei verbraucht die 5700XT 210W und die RTX2070 166W. Das bedeutet das die 2070 effizienter ist!
Die 2070 Super ist in 1080p 8% und in 4k 11% schneller, als die 5700XT. Wieder bei hersteller Specs! Dabei verbraucht die RTX2070 Super 222W. Damit ist wieder die 2070 Supter effizienter!
Die 2080 Super liegt 26% vor der 5700XT, was nicht weit weg ist, von 30%.

@PolyOnePolymer


Hast ja Recht :-) Sorry, mein Fehler ! Die 242 Watt waren bei der 2080 Super, hab mich in der Tabelle verguckt :-(

Dafür ist die RX 5700XT halt günstiger … ;-)

MfG, Föhn.
 
Dafür ist die RX 5700XT halt günstiger … ;-)
nicht wirklich von 460,- ausgehend. der preisaufschlag zu 2070S entspricht der mehrleistung. eigentlich ist 5700xt nichts anderes als eine 2070Sxxs zum eben marktüblichen preis.
.....nur so ganz ohne preisstabilität in zeit gerechnet

oder anders;
für AMD bin ich nicht reich genug
 
nicht wirklich von 460,- ausgehend. der preisaufschlag zu 2070S entspricht der mehrleistung. eigentlich ist 5700xt nichts anderes als eine 2070Sxxs zum eben marktüblichen preis.
.....nur so ganz ohne preisstabilität in zeit gerechnet

oder anders;
für AMD bin ich nicht reich genug

Hab zuvor geschrieben, dass es die RX 5700XT ab 379 € gibt, und zig "gute" Custom Modelle bis 399 € ! Bei der RTX 2070 gibt´s nur EINE ab 399 € und "gute" Custom Modelle gehen bei 449 € los.
Sei mir Bitte nicht böse, aber für mich ist das günstiger !

PCIe mit GPU AMD nach Serie: RX 5700 XT Preisvergleich Geizhals Deutschland

MfG, Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Jetzt würde man sich auch eher wieder in den persönlichen Preferenzen verlieren. Wem ist was, wie wichtig usw.

Ich persönlich tendiere eher zur 2070Super, weil mir die 11% mehr Leistung und Ray Tracing das wert sind. Wenn wer anders sagt, er nimmt lieber die 5700XT, weil günstiger, ist doch top. Wäre doch langweilig wenn wir alle gleich entscheiden würden ;)

Da 5700XT und 2070Super quasi das selbe P/L Verhältnis haben, kann man ja auch nichts verkehrt machen. Genau so bei der 5700 und nach oben hat man keine Alternative zur Nvidia, leider.
 
Hier mal ein Vergleich (QHD) der Frametimes in RDR2. Ein Vergleich in 4k mag zwar theoretisch interessant sein, aber eine 5700XT ist keine 4k Karte. Ich habe eine 2080 Ti und spiele in UWQHD, wo die Leistung teils viel zu knapp ist.

2019-11-13 16_09_21-Red Dead Redemption 2 (PC) im Technik-Test_ DX12 vs. Vulkan, Benchmarks in F.png
 
Hier mal ein Vergleich (QHD) der Frametimes in RDR2. Ein Vergleich in 4k mag zwar theoretisch interessant sein, aber eine 5700XT ist keine 4k Karte. Ich habe eine 2080 Ti und spiele in UWQHD, wo die Leistung teils viel zu knapp ist.

Anhang anzeigen 1068974

Es gibt genügend vergleichstests. Dazu braucht man nicht einzelne Benchs. Egal inb welche Richtung. Ist genau wie damals die RX480 an der 1070 vorbei ziehen sollte. Schön einzelne Benchs die etwas untermauern sollten zeigen. Die dann etwas beweisen sollten, was nie stattgefunden hat.

Es gibt nicht die 4K Karte.
Aber in 4k kannst du halt die reine GPU Performance am besten einschätzen. Genau deswegen verliert die 5700XT auch an Boden, gegenüber der 2070S, wenn man ein mix aus vielen Spielen sieht. Es gibt auch einzelne Spiele die bei AMD unterirdisch laufen, beweisen auch nicht das die 2060 schon so schnell ist, wie eine 5700XT!

Spiele werden immer mal besser bei Hersteller a und mal bei b besser laufen! Man muss immer viele Spiele betrachten!
 
Na, warten wir ab, wie es sich entwickelt, wenn immer mehr LL-API Titel in die Parcoure wandern mit Engines, die verstärkt mixed Szenarien (Integer + Float) nutzen. Die 50% werden sich never ever halten. Wenn man Titel wie CoD Modern Warfare (2019), RDR2 und BF5/Anthem betrachet, dann liegt der Abstand sogar bei weit unter 30%.

Es gibt nicht die 4K Karte.
Aber in 4k kannst du halt die reine GPU Performance am besten einschätzen.

Es steht dir natürlich völlig frei, auf 4k rumzureiten, um einen möglichst großen Abstand zu konstruieren.
 
Zuletzt bearbeitet von einem Moderator:
Hier mal ein Vergleich (QHD) der Frametimes in RDR2. Ein Vergleich in 4k mag zwar theoretisch interessant sein, aber eine 5700XT ist keine 4k Karte. Ich habe eine 2080 Ti und spiele in UWQHD, wo die Leistung teils viel zu knapp ist.

Da ich das Spiel mit 20 Karen schon gebencht habe: Die Benchmarks bei Computerbase sind falsch und du pickst dir jetzt hier die fehlerhaften WQHD Werte raus.
Derneuemann hat bei eurer Diskussion schlicht recht und du unrecht, ich glaub das weißt du aber auch selbst.
Wenn du schreibst RDNA2 ist 50% schneller als eine 5700XT, dann kannst du schlecht die Full HD Werte der 5700XT und 2080Ti benutzen, denn letztere läuft ins partielle CPU Limit. Nimm lieber 4K oder UWQHD, da hast du dann die GPU Leistung akkurat abgebildet und da sind es dann nicht 30 bis 40% Aufschlag zur 5700XT, sondern halt 50+. Ausnahmen bestätigen die Regel.

RDR2 läuft etwa 10% auf AMD schneller. Das kann sich aber mit einem neuen Nvidiatreiber auch wieder ändern.
Ich würde schätzen bei Nvidia liegt da noch ein wenig Leistung brach.

Na, warten wir ab, wie es sich entwickelt, wenn immer mehr LL-API Titel in die Parcoure wandern mit Engines, die verstärkt mixed Szenarien (Integer + Float) nutzen.

Wo Pascal schwach ist, aber Turing stark...

Die 50% werden sich never ever halten. Wenn man Titel wie CoD Modern Warfare (2019), RDR2 und BF5/Anthem betrachet, dann liegt der Abstand sogar bei weit unter 30%.

Also in Ultra HD sinds bei deinen Kirschenflückerbeispielen bei CB in RDR2 41% Mehrleistung der 2080Ti, in Anthem 51%, in Battlefield 5 37%, Call of Duty 39%, also 42% im Schnitt, weit unter 30?:huh:
Nimmt man noch Gird (Directx12) mit 56% dazu oder Gears 5 (Directx12) 50% oder Anno (Directx12) 58%, wird deine Argumentation völlig unsinnig.
Dabei waren Call of Duty und Battlefield schon immer Titel die auf AMD sehr gut liefen, unabhängig der API.

Es steht dir natürlich völlig frei, auf 4k rumzureiten, um einen möglichst großen Abstand zu konstruieren.

Ja, du nimmst lieber Werte im partiellen CPU Limit und klatscht dann RDNA 2 Erwartungen im GPU Limit drauf.
2070 --> 2080 Ti Full HD--> 48% mehr Leistung
2070 --> 2080 Ti 4K ---> 66% mehr Leistung

Oder willst du XXTREME nacheifern?
 
Zuletzt bearbeitet:
Da ich das Spiel mit 20 Karen schon gebencht habe: Die Benchmarks bei Computerbase sind falsch.
Darf ich mal deine Benchmarks dazu sehen?

Unter 4K ist jede GPU komplett GPU limitiert - das sieht man daran das es egal ist welchen Prozessor man verbaut hat. Da ist ein 1800x genauso schnell wie ein 9900k. Zwischen beiden CPUs liegen in Spielen sicher 25%.

Partielles CPU Limit - was soll das sein? Teilweises CPU Limit - habe ich noch nie gehört.
 
Das die 2080 super bei den Initialen Reviews, bis zu 30% besser abgeschnitten hat als die RX5700XT hat doch zum gegenwärtigen Zeitpunkt keinerlei Bedeutung mehr.
Das eine nagelneue Architektur gewisse Startschwierigkeiten hat, ihre PS auch auf die Strasse zu kriegen, sollte doch mittlerweile bekannt sein: Zum einten muss sie sich in einem veralteten Testparcours, der zuvor noch nie etwas von NAVI mitbekommen hat der Konkurrenz stellen und zum anderen ist es ganz normal das die Treiber zu Beginn nicht das gelbe vom Ei sind.
Weswegen die 30% zum gegenwärtigen Zeitpunkt nur Schall und Rauch sind, in einem gewissen Sinne eine Rauch und Blendgranate
die, die Realität nicht ansatzweise wiederspiegelt und bei gewissen Usern hat sich der Rauch anscheinend immer noch nicht vollständig verzogen.

Übrigens was die Zuversicht das NVIDIA auch bei den kommenden GPU's überlegen sein wird anbelangt, würde ich mich nicht zu weit aus dem Fenster lehnen, denn der Aufprall könnte ziemlich heftig werden.
AMD musste in der Vergangenheit, die Entwicklung bei den GPU's auf Sparflamme setzten und NVIDIA hat zugleich seine Hausaufgaben gemacht.
Dies wird aber bei den kommenden Entwicklungen nicht der Fall sein und bezüglich RDNA2 kann keiner sagen wie hoch die IPC Steigerung im Vergleich zu RDNA sein wird.

Ach ja, die Hoffnung auf eine RX5800(XT) alias NAVI 12 habe ich auch noch nicht komplett aufgegeben. Falls sie wirklich noch Anfang 2020 als z.B.: RDNA, Die Size 300-360mm2, 4096, 3860, 3584 oder 3328 Shader mit 16Gbps GDDR6 256bit oder 14Gbps 384bit und einem Verbrauch von ca. 250 - 275 W kommen sollte, wird die Karte alles hinwegfegen was bis drei nicht auf den Bäumen ist. (Die 2080ti aussen vor, die wird wohl bis auf wenige Ausnahmen erst von RDNA2 richtig vernascht)

Ich wollte noch auf den Verbrauch der 2070 von ca. 170 W eingehen, der immer wieder als Beispiel für die bessere Effizienz im Vergleich zu den 210W der RX5700XT hervorgehoben wird.
Dies sollte man doch noch etwas relativieren, da sie doch ein gutes Stück langsamer, mit der Tendenz bei kommenden Spielen den Anschluss komplett zu verlieren ist.
Beziehungsweise sich dann lediglich mit der RX5700 zu duellieren.
Beide Architekturen sind somit in etwa gleich effizient.
Unter diesem Gesichtspunkt sollte eine 5800(XT) mit ca. + 20-40% relativ zur RX5700XT und einem Verbrauch von ca. 250 -275W eigentlich nichts im Wege stehen diese Karte wäre bestens geeignet als schnellen Appetitmacher bevor RDNA2 aufschlägt in die Lücke zu stossen.
 
Hallo zusammen,
werde mal schauen, was auf dem Markt kommt (Karte), sobald
Cyberpunk 2077 draussen ist. Wahrscheinlich wirds eine Ampere
werden, da ja vom Spiel Raytracing unterstützt wird.
Viele Grüße,
Schnitzel
 
Ach ja, die Hoffnung auf eine RX5800(XT) alias NAVI 12 habe ich auch noch nicht komplett aufgegeben. Falls sie wirklich noch Anfang 2020 als z.B.: RDNA, Die Size 300-360mm2, 4096, 3860, 3584 oder 3328 Shader mit 16Gbps GDDR6 256bit oder 14Gbps 384bit und einem Verbrauch von ca. 250 - 275 W kommen sollte, wird die Karte alles hinwegfegen was bis drei nicht auf den Bäumen ist.
Das was du da so schreibst, wird "fast" jedes Jahr geschrieben und am Ende ist Nvidia mit ihren Produkten weit überlegen.
Nun ja, ich denke, die 2080ti User, können sich entspannt zurücklehnen, denn vor 2021 brauchen "Sie" kein Grafik Update.
 
Darf ich mal deine Benchmarks dazu sehen?

Ich mach mir da keinen Aufwand.
Schau in den CB Test, die schreiben selbst, dass die WQHD Werte strange sind, vielleicht finden sie noch den Fehler.
Zwischen beiden CPUs liegen in Spielen sicher 25%.

Eher round about 40 bis 45%.
Partielles CPU Limit - was soll das sein? Teilweises CPU Limit - habe ich noch nie gehört.

?!
 
Zurück