Mehr VRAM hat natürlich die 6950XT; diese ist auch in "normalen" games (also ohne RT) deutlich schneller als die 4070.
In der Zielauflösung des TE (WQHD) ist die 4070 mit RT etwa 15% schneller, ohne RT etwa ~15% langsamer.
Das hält sich relativ die Waage.
Was einem wichtiger ist, muss der TE wissen.
Auf den Verbrauch würde ich, wenn überhaupt, nur sekundär achten.
Wenn das nur 50 Watt wären, würde ich dir zustimmen. Es sind aber inkl. Netzteilverlusten auf jeden Fall um die 150 Watt unter Spielelast, ob dann hier oder da mal die CPU limitiert, spart da nicht viel ein.
Das Featureset und die Bildqualität des Upscalings spricht deutlich für die Nvidia Karte, gerade in WQHD ist FSR eher schwach und DLSS immer überlegen.
Das gewichtigere pro Argument für die Radeon ist die Speichermenge.
Hier wird man in einigen Jahren dann Abstriche bei der Nvidia machen müssen und die Textureinstellungen reduzieren, in etwa vergleichbar wie man jetzt bei AMD die RT Settings reduziert.
Was die bessere Lösung ist, ist Geschmackssache. Ich habe mich für die 4070 entschieden, da mein Gehäuse nicht in der Lage ist so viel Energie leise abzuführen.
Unter maximaler Last zieht eine 6950XT bis zu 100W mehr, ja, aber nicht "weit über"...
Sorry, das ist schlicht und ergreifend
falsch.
Selbst für WQHD gibt Computerbase 348 Watt an und damit 150 Watt Unterschied, gemessen an der GPU, ohne NT Verluste.
Ich hab neulich meine treue RX580 durch eine RX 6800 XT in meinem Dark Base 700 ersetzt und es macht einfach
keinen Unterschied
Das liegt aber dann am Gehäuse, das einen sehr guten Airflow haben muss.
Also, wie gesagt, man kann es auch echt übertreiben manchmal
Oder eklatant untertreiben. "Bis zu 100 Watt" Ist einfach FakeNews, aber dann VVP verlinken...