RTX4070 oder RX 6950 XT

Deutlich schneller wäre für mich wahrnehmbar schneller.
16% merkst du nicht wirklich, ausser du bist da sehr empfindlich.
Deutlich wären 50% mehr.
 
Es spielt immer ein cpu limit mit
Die reine fp32 Leistung ist nicht gleich fps das kommt primär auf die anderen Faktoren wie cpu limit, rop limit und bandbreite mit
Letztere spielt in fhd keine rolle, rop und cpu limit aber gewaltige.
Das letzte spiel was extrem perf kostet ist die nanite umgestzte ue5 spiel remnant 2
nativ egal welche auflösung limitiert hier ausdrücklich die rop meine 48rop schaffen nativ keine 1440p und ich komme nur bei maxed 25fps aus. gleiches gilt für 1080p mit maxed 46fps
Das liegt primär an der Natur von nanite was die Auflösung aus die pixel festlegt.
Anders bsp wäre noch ac origins das gtx1060 vs rtx3060 satte 60% nur zugewinnt. statt wie vermutet min 84% hier liegt es primär an den rop die mehr fps verhindern in dem spiel wird nativ in 900p gerendert
beide gpu haben gleichen Takt und gleiche rop aber unterschioedliche shaderleiostung und die machen die fps Differenz wie gesagt nur 60% vs die angenommenen 84% die normal wären oder anderes bsp fc6 das spiel wird heftigste von der cpu limitiert in dxr dafür habe ich aktuell keinen vergleich nur das je nach Treiber liegt das cpu limit bei 75-85% dementsprechend die maxed fps von 66-75

Und nun zu problem mit amd vs nvidia

Amd hat kein automatisiertes multithreading bei dx sheduler.
Bedeutet legacy spiele oder alles was kein dx12 ist muss das spiel vom Entwickler so ausgelegt sein das mehrere thread aufgeteilt wird.
Nvidia hat dafür einen dienst im Treiber der einen server anlegt das die dx befehle aufteilt in mehreren cpu threads in directx nennt sich das command list.
Das cpu limit steigt dadurch etwas aber jegliche spiel ab dx9 profitieren dadurch. amd dagegen ist man von dem Spiel abhängig ob es mutlithread ist oder nicht. meistens nicht und man kommt vom spiel aus in ein heftiges cpu limit.

amd gpu haben traditionell große rop cluster daran liegt es nicht aber eben das cpu limit greift hart durch. je schneller die gpu rendern könnte desto schneller muss der singlethread sein. ideal sind hier 6ghz und mehr bei nvidia kommt es stark auf die Gesamtleistung der cpu an je mehr cache desto besser.

Die tf vergleiche sind Anhaltspunkte was die gpu min schafft wenn kein rop limit anliegt gefolgt vom cpu limit
In fps kann man das ausdrücken aber eben das cpu limit wird oft vernachlässigt insbesondere bei high end gpu.

Was gpu's limittiert sind
shader Leistung
rop Leistung
bandbreite

Die variable sind die spiele die heutzutage sich an den vram orientieren darum sind vergleiche suboptimal
Wenn man weis was limitiert kann man das bei benchmarks eliminieren einfach alles auf max stellen bringt heute nix mehr wenn muss das ein Nenner haben das alle gpu diese Einstellung haben um einen ehrlichen vergleich zu haben
Die dev presettings sind da eher meh
Folgerichtig muss das min vergleiche sein mit gpu load und maxed vergleiche mit gpu load.
Auswerten kann man das mit gpu load frametimes und fps .
Die rtx4070 erreicht etwa das level der rtx3080 während die rx6950xt etwa das level der rtx3090 erreicht
bei amd gilt wie immer Takt bis bei nvidia Takt ab

ich habe auch ein bsp wo die Bandbreite eines spiels eine gpu limitiert hat
sottr
gtx1060 192gb/s 58fps high textures 4,56gb
rtx3060 360gb/s 116fps 4,9gb
+100% wo nur mathematisch +88% sein müsste
Und maxed Texturen sind 6,09gb und dieselben fps da sieht man das Texturen keine Leistung kosten sondern nur banbreite und vram Belegung.

Das löst das problem nicht , mein rat bleibt derselbe wegen des Netzteils eher ne rtx4070 Leistung ist zwar geringer aber dafür braucht man kein 850w Netzteil im system.
 
Denkt ihr auch mal darüber nach, wie sehr das im normalen gaming Alltag relevant ist?
Nein.
Also...Vergleich AMD Referenzdesign vs. Founders Edition. Das sollte ja fair sein.

Eine RX6950XT liegt im Mittel beim Gaming bei 340w

Eine 4070 liegt hier bei nur 200w

Gehen wir also von einer Differenz von 140w/h aus. Nehmen wir 20h/Woche als Nutzungsdauer für Gaming an. Und setzen ein Netzteil mit 90% Effizienz voraus. Bei einem Preis von 35Cent pro KW/h.

140 x 20 x 52 : 0,90 x 0,35 : 1000 = ~56€ pro Jahr an Mehrkosten.
 
Zurück