Special Nvidia Geforce RTX 4070 im XXL-Test: Der neue Effizienzmeister

Was haltet ihr von der rx6950xt als Alternative für die rtx4070? Die kostet mittlerweile immerhin genauso viel und bietet 20-30% Mehrleistung?
 
Was haltet ihr von der rx6950xt als Alternative für die rtx4070? Die kostet mittlerweile immerhin genauso viel und bietet 20-30% Mehrleistung?
Bin von einer 1080 Ti gerade vor zwei Wochen auf eine 1 Jährig gebrauchte 6950 XT Nitro+ für 500 Euro umgestiegen, noch nen Waküblock draufgepackt und bin mehr als zufrieden.
Auch aus dem Grund, dass mir RTX noch nicht viel sagt und ich eh eine 4090er bräuchte für meinen 3440x1440 180Hz Monitor.
Zudem bin ich echt überrascht wieviel bei AMD vom Overlay her gegangen ist.
Mein nächstes Problem ist nun der Flaschenhals der sich Richtung Prozzi verschoben hat... 7820x ist nicht mehr ganz so taufrisch, wird wohl in ein bis zwei Jahren ein x3D von AMD, dann profitiere ich gleich noch vom SAM.
 
Was haltet ihr von der rx6950xt als Alternative für die rtx4070? Die kostet mittlerweile immerhin genauso viel und bietet 20-30% Mehrleistung?
Vor der Überlegung stehe ich auch. Weiß nur nicht ob mein 750W Platinum Netzteil das mitmacht, lese überall etwas anderes :-(
Bin von einer 1080 Ti gerade vor zwei Wochen auf eine 1 Jährig gebrauchte 6950 XT Nitro+ für 500 Euro umgestiegen, noch nen Waküblock draufgepackt und bin mehr als zufrieden.
Auch aus dem Grund, dass mir RTX noch nicht viel sagt und ich eh eine 4090er bräuchte für meinen 3440x1440 180Hz Monitor.
Zudem bin ich echt überrascht wieviel bei AMD vom Overlay her gegangen ist.
Mein nächstes Problem ist nun der Flaschenhals der sich Richtung Prozzi verschoben hat... 7820x ist nicht mehr ganz so taufrisch, wird wohl in ein bis zwei Jahren ein x3D von AMD, dann profitiere ich gleich noch vom SAM.
Hab noch meine 1080Ti und kann mich nicht entscheiden :-|
 
Vor der Überlegung stehe ich auch. Weiß nur nicht ob mein 750W Platinum Netzteil das mitmacht, lese überall etwas anderes :-(

Hab noch meine 1080Ti und kann mich nicht entscheiden :-|
Gibt von Igorslab ein paar gute Videos dazu. Je nach cpu und dem Rest der Komponenten die Strom nehmen liegt der reale Verbrauch eher zw. 400-550w beim Gesamtsystem..die 750W sind so wie rauskommt aber perfekt da AMD immer mal wieder für wenige Sekunden hohe Laststpitzen hat die dann so aufgefangen werden. Das Netzteil hält inkl. viel Luft zu 100%. Wenn es zu gering wäre würde sich dein PC einfach ausschalten was auch erstmal nicht schlimm ist wenn es nicht. Dann weißt du dass dubwas größeres brauchst. Igor testet die sogar mit 500W Netzteil was auch grenzwertig bis auf Lastspitzen funktioniert.
 
Ich hab mal eben die witcher 3 PCGH benchmarks verglichen, meine alte 1080ti schaft in 4k ca 40 fps die 4070 66 fps laut diesen tests. Haut mich jetzt nich so vom Hocker, für die 1080ti hab ich ca. 650€ bezahlt und das war das absolute Topmodel damals. in niedrigeren Auflösungen ist diese mittlerweile fast 6 Jahre alte karte noch locker ausreichend für alles was derzeit aktuell is wenn man RT logischerweis außen vor läst.
Wollte ich also ein vergleichbar langlebige Karte haben wollen müsste ich fast das 4 fache dafür hinlegen. wasn Bullshit. Da überbrück ich doch lieber noch ein paar generationen mit einer Konsole wenns sein muss als diese Abzocke mitzumachen.
 
Bin echt am überlegen, ob ich meine 3070 abstoßen und ne neue 4070 holen soll. Wirkt schon wie ein deutlich besseres Paket. Was würde man für eine ASUS 3070 TUF realtistisch noch so bekommen?
 
Schönes Fazit. Aufgrund der 12GB würde ich sie mir zu diesem Preis nicht kaufen.
Erinnerungen an die GTX 1060 3GB werden wach. Dessen großer Bruder mit 6GB VRam sogar jetzt noch einen guten Job macht, kann man die mit 3GB aber komplett vergessen.

12GB VRam für so eine ansonsten starke Grafikkarte zu diesem Preis?
Das riecht doch nach geplanter Obsoleszenz bei zukünftigen Spielen.
Tests im Netz zu den Frametimes bei Forspoken und Formula 1 2022 zeigen jetzt schon Defizite.
 
Zuletzt bearbeitet:
12GB VRam für so eine ansonsten starke Grafikkarte zu diesem Preis?
Das riecht doch nach geplanter Obsoleszenz bei zukünftigen Spielen.
Tests im Netz zu den Frametimes bei Forspoken und Formula 1 2022 zeigen jetzt schon Defizite.
Bei F1 2022 liegt das an etwas anderem, der Speicher reicht hier auf jeden Fall.

MfG
Raff
 
Vergleicht man so wie ich gleich wird es noch lustiger:
GTX 680 vs GTX 770, Gewinner klar die 770
GTX 780ti vs GTX 970, 970 oft vorn
GTX 980ti vs GTX 1070, 1070 sowas von klarer Gewinner
GTX 1080ti vs RTX 2070, Eher unentschieden...
RTX 2080ti vs RTX 3070, 2080ti eigentlich immer besser und 8GB Speicher ist ein oft KO für die 3070
RTX 3090ti vs RTX 4070.......
Wie genau kommst du zu deinen Einschätzungen?

Die GTX770 war ein re release der GTX680.
780ti/970 und 980ti/1070 und 2080ti/3070 liegen sehr dicht beieinander. Wir reden da in den meisten Spielen von unter 5% Abweichung. Die 1080Ti war hingegen doch ein gutes Stück schneller als die 2070 und lag eher mit der 2080 gleichauf.

Ansonsten war die 3080 bereits die beschnitte Variante des Vollausbaus. Also der Chip der in anderen Generationen zur 80Ti wurde. Allgemein sind die Chipgrößen für die 4070(TI) ähnlich zur Pascal Generation. Die 4080 ist sogar ein gutes Stück größer. Neu ist, dass seit Turing die Chipgröße auch im Konsumermarkt nach oben hin ausgereizt wird. Sonst gab es die großen Geschütze nicht im Consumer Bereich.

Der Umstieg auf ein Cache fokusiertes Speichersystem wird bei der Bus Debatte auch gerne mal ignoriert.
Die GPU Klassen passen so eigentlich. Problem ist nur der Preis.
 
" ... Langjährige Geforce-Nutzer erinnern sich noch an die Zeit, als "gefühltes High-End" rund 300 Euro kostete ..."

Meine Oma schwärmt immer noch von ihrem KdF-Auto für 1000,-RM.
 
Warum soll Nvidia die Karte 4060Ti nennen, wenn sie mit einer 7800XT konkurriert?
Weil es halt technisch und leistungsmäßig irgendwann ein Downgrade wird.
Warum ist es denn sonst wohl real eine 4060 (Ti)?
Das ist alles Lüge mit "4070".
Bei der 4080 haben die Leute es nur wegen 12GB gemerkt.
Stellenweise knapp nur 20% Leistungssteigerung sind doch Betrug am Kunden, vor allem bei dem 1:1 zu zahlenden Preisaufschlag, den NVidia dafür verlangt.
Wenn AMD das jetzt auch abschaut, gilt das natürlich ebenfalls für die.
Soll der Kunde sogar mehr bezahlen als vorher, dann müssen da zumindest aber 50% bei rausspringen, so wie bei der 900er Serie und der 1000er Serie.
 
Zurück