Special Geforce RTX 4090 vs. Radeon RX 7900 XTX: Duell der Topmodelle - Nachtest 2024

Was soll es denn sonst sein?

Ist ja schließlich nicht das 1. Mal so.
Und die Spiele, bei denen es miese frametimes bei AMD gibt? Sind ja eher um die Hälfte der spiele.
Mal bei AMD, mal bei Nvidia schlechtere frametimes...
Ich vermute einfach mal, das die 4070TiS auch wg. der fehlenden Bandbreite so schlechte minFps hat.
(dagegen kann sich sogar die XT ganz gut behaupten, ganz zu schweigen von der XTX, die Welten besser
= smoother läuft fürs gleiche Geld und da hilft der TiS auch nicht die Farbkompression und verbesserte Cacherei,
... bei den 7900ern kommt sogar als Handicap ca. 10% höhere Latenz durch MCD obendrauf)
Komisch das andere Tests die 4070ti s stärker bei den min Fps, bzw. Lows sehen.

Siehe maximale Last 4k mit RT gemischte benchmarks.
Average ist die 4070ti s 12% vor der xtx und 15% vor der xtx bei den lows.

Auch hier


Einfach bei den benchs mit RT schauen, da ist der frametime- Vorteil genauso oft auf Seiten der 4070ti s , auch gegenüber der xtx.
 
Zuletzt bearbeitet:
Und die Spiele, bei denen es miese frametimes bei AMD gibt? Sind ja eher um die Hälfte der spiele.
Mal bei AMD, mal bei Nvidia schlechtere frametimes...
Das hat dann logischerweise andere Ursachen, wo die AMD-Architektur nicht so gut zu den Games passt.

Im Prinzip ist man heute nicht mehr bereit, für jeden Hersteller nen eigenen Renderpfad zu optimieren.
Daher wirds immer Unterschiede geben.

Falls Das vorhin übersehen wurde, im Bild zu TPU sind die minFps für den gesamten Parcour dabei.
(sieht mir nicht nach Gleichstand zw. XTX und TiS aus)
 

Anhänge

  • 4070TiS minFps OVERALL.jpg
    4070TiS minFps OVERALL.jpg
    32,8 KB · Aufrufe: 25
Zuletzt bearbeitet:
Ich vermute einfach mal, das die 4070TiS auch wg. der fehlenden Bandbreite so schlechte minFps hat.
Ich hab eben geschrieben AD102 und AD103 profitieren so gut wie nicht von mehr Bandbreite und du fängst schon wieder damit an ... :schief:

Durch den großen L2 Cache ist Ada nicht auf massiv Bandbreite angewiesen. Da kannste jetzt noch so wilde Theorien aufstellen. Es ist und bleibt Cherry Picking und somit Bullshit. The Talos Principle 2 und Banishers setzen genau wie das Brothers Remake auf die UE5. Was sehen wir beim Blick auf die Frametimes? Genau, exakt gleiche Frametimes bei AMD und Nvidia.

Dann zum ungeliebten Skull & Bones. Auch hier: exakt gleich (schlechte) Frametimes. Bei AMD tendenziell sogar noch schlechter. Als nächstes Avatar: exakt gleiche Frametimes. Setz deine AMD-Brille ab und lass gut sein, damit tust du allen hier einen Gefallen.
 
Trefferquote in 4k = ???

Lass es einfach bewenden, ... und Jeder kauft, was er denkt.
Gute Nacht!
 
Das hat dann logischerweise andere Ursachen, wo die AMD-Architektur nicht so gut zu den Games passt.

Im Prinzip ist man heute nicht mehr bereit, für jeden Hersteller nen eigenen Renderpfad zu optimieren.
Daher wirds immer Unterschiede geben.

Falls Das vorhin übersehen wurde, im Bild zu TPU sind die minFps für den gesamten Parcour dabei.
(sieht mir nicht nach Gleichstand zw. XTX und TiS aus)
Wegen tpu schrieb ich schau auch andere benchs...
Es ist Latte ob es bei Nvidia an dem si liegt, wenn auf der anderen Seite auch xy bei AMD für schlechtere frametimes sorgt, in anderen Spielen.


Bei der 4070ti s ist gut denkbar, das die frametimes eher vom knapperen Powerlimit beeinflusst werden, als vom si. Denn gerade ratched & clank mit dem hohen vram Bedarf sieht die ti s im Vorteil. ( Absolut und prozentual)
 
Erst Letztens wurde bei CP2077-MODs über die nicht ausreichenden 16GB getextet.
Du meinst das?

Geniale Screens von@JackTheHero (Ich spiele es auf Balanced und hab da meistens mit FG immer so 60-80 fps mit Pathtracing und max Details. :daumen:)

Da hat halt Jeder seine besonderen Wünsche.
Inwieweit würde da eine 24GB VRam AMD weiterhelfen? Einzige Option wäre da die RTX 4090.
 
Da wäre ne AMD Karte völlig unbrauchbar, ich habs ja versucht mit FSR3 Mod und so. Ray Reconstruction gibts da nicht mal.
 
???
Seit wann geht denn ein zusätzlicher Texturpack nicht auf AMD-Grakas?

Das man bei den einzelnen RT-Settings die on/off-Regler bzw. < High benutzen sollte = hybridRT.
Zusätzlich kann man auch die RaytracingBounces etwas reduzieren, durch ne extra Datei.

Wenn bis 2077(?) endlich mal FSR3+FG offiziell implementiert wird, bin ich mal gespannt wie sich
der Vrambedarf mit FG= on/off ändert.

btw.
Ob in anderen Games(Pandora) der Vram mit zunehmender Spieldauer auch mehr vollläuft, who knows.
Was mit direct storage in kommenden Games passiert, ist sicher auch spannend.(ist R&C die Regel oder Ausnahme)
 

Anhänge

  • Pandora@U.JPG
    Pandora@U.JPG
    121,6 KB · Aufrufe: 18
Zuletzt bearbeitet:
???
Seit wann geht denn ein zusätzlicher Texturpack nicht auf AMD-Grakas?

Das man bei den einzelnen RT-Settings die on/off-Regler bzw. < High benutzen sollte = hybridRT.
Zusätzlich kann man auch die RaytracingBounces etwas reduzieren, durch ne extra Datei.

Wenn bis 2077(?) endlich mal FSR3+FG offiziell implementiert wird, bin ich mal gespannt wie sich
der Vrambedarf mit FG= on/off ändert.

btw.
Ob in anderen Games(Pandora) der Vram mit zunehmender Spieldauer auch mehr vollläuft, who knows.
Was mit direct storage in kommenden Games passiert, ist sicher auch spannend.(ist R&C die Regel oder Ausnahme)
Warum gehst du nicht mehr au fden Punkt ein, das esa etliche Tests und Szenarien gibt, die noch Speicherintensiver sind und bessere Frametimes bei der 4070ti s zeigen, als bei den AMD Konkurrenten?

Warum verlinkst du immer wieder den selben Test?

Ich habe auch Tests verlinkt, die meine Aussagen genau so gut belegen.

Demnach wäre ehr zu vermuten, das RTX4070ti s und 4080 keine Nachteile durch das SI haben, gegenüber 7900XT(X).

Weiter ist auch keiner der beiden AMD Karten zukunftsfähiger, weil zu wenig RT Leistung. Die geht aus, bevor der Speicher ausgeht.

Bzw. ist die dieser Gedanke nicht weniger naheliegend, als anders herum.

Was ist denn bei R&C passiert, ich sehe da in den Benchmarks nur das das SI der Nvidia Karten bessere Frametimes liefert, siehe PCGH Benchs/ Computerbase Benchs.


Oder hängt es am Ende noch zusätzlich an der getesteten Szene und eher weniger am SI.
Das letzte ist nicht wirklich eine Frage.
???
Seit wann geht denn ein zusätzlicher Texturpack nicht auf AMD-Grakas?
Der ist da schon irrelevant, weil die AMD schon zu wenig RT Leistung für dieses Beispiel haben.
Das man bei den einzelnen RT-Settings die on/off-Regler bzw. < High benutzen sollte = hybridRT.
Zusätzlich kann man auch die RaytracingBounces etwas reduzieren, durch ne extra Datei.
Dann braucht man wohl auch kein Texturpack mehr ;) (Natürlich überspitzt von mir)
Wenn bis 2077(?) endlich mal FSR3+FG offiziell implementiert wird, bin ich mal gespannt wie sich
der Vrambedarf mit FG= on/off ändert.

Was ist jetzt FSR+FG, oder meinst du spielintegriertes aFMF?
btw.
Ob in anderen Games(Pandora) der Vram mit zunehmender Spieldauer auch mehr vollläuft, who knows.
16GB bisher nicht ;)
Was mit direct storage in kommenden Games passiert, ist sicher auch spannend.(ist R&C die Regel oder Ausnahme)
 
Was ist jetzt FSR+FG, oder meinst du spielintegriertes aFMF?
Das war ein Hinweis mit dem Zaunspfahl das ich hoffe, demnächst in CP2077 endlich mal FSR3+FG zu bekommen.
(von CD Project Red offiziell integriert)

btw.
Bei Starfield hat schließlich die Community+Redaktion auch tüchtig rumgeningelt.

Der ist da schon irrelevant, weil die AMD schon zu wenig RT Leistung für dieses Beispiel haben.
???
Hast Du Dir die Screenshots überhaupt mal angeschaut, ... es muss nicht unbedingt PT sein, um den
Vram zu füllen.
Ein einfaches RT reicht auch.(was man dann beliebig auf hybridRT verstellen kann)

Genug Gedankenaustausch für mich mit Dir, wünsche Dir noch nen schönen Sonntag!
 
Zuletzt bearbeitet:
Das war ein Hinweis mit dem Zaunspfahl das ich hoffe, demnächst in CP2077 endlich mal FSR3+FG zu bekommen.
(von CD Project Red offiziell integriert)

Meinst du das spielinterne FMF?
btw.
Bei Starfield hat schließlich die Community+Redaktion auch tüchtig rumgeningelt.


???
Hast Du Dir die Screenshots überhaupt mal angeschaut, ... es muss nicht unbedingt PT sein, um den
Vram zu füllen.
Zum VRam füllen nicht, aber für die Optik ;)!
Ein einfaches RT reicht auch.(was man dann beliebig auf hybridRT verstellen kann)
Ansichtssache und wenn schon Texturpack, dann auch PT.
Genug Gedankenaustausch für mich mit Dir, wünsche Dir noch nen schönen Sonntag!
Gleichfalls.
 
4090 immer noch das schnellste auf den Markt. AMD kommt immer noch nicht an nVidia ran. Den Nachtest hätte man sich auch sparen können.
 
die 7900 XTX ist kaum noch teurer als die 4070 TiS
(da könnte man die paar Cent drauflegen und ruhiger schlafen)
Knapp 5000 Cent sind also nur "ein paar" Cent?

1710074870091.png


Hinzu kommt natürlich noch der unterschiedliche Stromverbrauch... bei einer Grafikkarte über 800 € ist die Wahrscheinlichkeit hoch, dass der Käufer kein "Casual Gamer" mit Spielzeiten unter 10 Stunden pro Woche ist... über 2 - 4 Jahre gerechnet läppert sich das.
 
Wie ich es beim Kauf Oktober 2022 schon sagte. Es gibt nur noch eine RTX 4090, danach ganz hinten kommt der ganze Rest.
Danke @raff für den Nachtest.

PS: Gott sei dank hast du bei AMD Karten nicht geschrieben wie schlimm es in Windows aussieht mit 2x144herz Bildschirmen und Youtube aufmachen.
Würde dann mal jemand die Leistungsaufnahme sehen würde niemand mehr AMD kaufen ^^
 
Wie ich es beim Kauf Oktober 2022 schon sagte. Es gibt nur noch eine RTX 4090, danach ganz hinten kommt der ganze Rest.
Danke @raff für den Nachtest.

PS: Gott sei dank hast du bei AMD Karten nicht geschrieben wie schlimm es in Windows aussieht mit 2x144herz Bildschirmen und Youtube aufmachen.
Würde dann mal jemand die Leistungsaufnahme sehen würde niemand mehr AMD kaufen ^^
Ganz so drastisch finde ich das nicht, gibt meine ich ja auch ein paar workaround Ansätze. Aber das da wieder gar nicht drauf eingegangen wird, finde ich schon etwas schwach, da das auch zu Release schon ein großer Kritikpunkt war.
Knapp 5000 Cent sind also nur "ein paar" Cent?



Hinzu kommt natürlich noch der unterschiedliche Stromverbrauch... bei einer Grafikkarte über 800 € ist die Wahrscheinlichkeit hoch, dass der Käufer kein "Casual Gamer" mit Spielzeiten unter 10 Stunden pro Woche ist... über 2 - 4 Jahre gerechnet läppert sich das.
Bei meinem Strompreis wären 10h / Woche rund 144€ im Jahr.
Bei dem Verbrauch aus dem Video das @RX480 verlinkt hatte.
 
Zuletzt bearbeitet:
Bei meinem Strompreis wären 10h / Woche rund 144€ im Jahr.
Bei dem Verbrauch aus dem Video das @RX480 verlinkt hatte.
Na ja, der Unterschied wären pro Spielstunde ca. 60 - 65 Watt.

Bei 10h / Woche also 31,2 - 33,8 kWh Unterschied pro Jahr, bei 30 Cent Strompreis ca. 10 € pro Jahr Unterschied.
Bei 20h / Woche 62,4 - 67,6 kWh Unterschied pro Jahr, bei 30 Cent Strompreis ca. 20 € pro Jahr Unterschied.

unterschied.png

Zu den 5000 Cent kämen jährlich also 1000 - 2000 Cent hinzu. ;-)
 
Wie ich es beim Kauf Oktober 2022 schon sagte. Es gibt nur noch eine RTX 4090, danach ganz hinten kommt der ganze Rest.
Danke @raff für den Nachtest.

PS: Gott sei dank hast du bei AMD Karten nicht geschrieben wie schlimm es in Windows aussieht mit 2x144herz Bildschirmen und Youtube aufmachen.
Würde dann mal jemand die Leistungsaufnahme sehen würde niemand mehr AMD kaufen ^^
Als ich meine 4090 gekauft habe, hat die Nitro XTX rund 1500-1600€ gekostet. Wenn ich mir die XTX statt der 4090 gekauft hätte und dann rund 1 Jahr darauf hätte warten müssen, dass die den Idle Verbrauch mal fixen, dann ewig darauf warten müsste dass die mal FSR3 releasen (auch 1 Jahr danach und nun kaum Spiele die das supporten), dann die deutlich schlechtere Effizienz, dank fehlendem MPT deutlich eingeschränktes Tuning Potential (4090 lässt sich bombastisch undervolten, davon kann die XTX träumen, was den ohnehin schon vorhanden, starken Effizienzvorsprung noch drastischer macht), ich in jedem Test lesen müsste. dass DLSS deutlich besser ist und das selbst die neueste Version von Intels XESS besser ausschaut als das Neueste FSR, in forderndem RT/PT kein Land sehen würde usw usw, dann würde ich mich jetzt ärgern. Man muss sich nur vor Augen führen, dass eine optimierte 4090 mit rund 150W Verbrauch en par ist mit einer übertakteten nitro xtx die dann 463W zieht... Diejenigen die die xtx zu Release gekauft haben, haben doch einen recht leidiges Jahr hinter sich. Wenn man sich die xtx jetzt holt mit dem heftigen Preisdrop, welches es seit einem Jahr gegeben hat und den nun nach einem Jahr nachgereichten Sachen ("Features"), könnte man schon zufrieden sein, obwohl man dennoch an vielen Punkten einfach hinterherhinkt, aber das blendet man einfach aus als Käufer jener Karten.

Wie gesagt, hätte ich rund 1600€ für die Nitro zum Release gezahlt, würde ich nach einem Jahr rund 900€ dafür bekommen, aber meine 4090 hätte ich noch für locker 2000€ nach einem Jahr Nutzung verkaufen können, dieser Punkt ist auch nicht minderwichtig. Bevor also die 5090 released wird, kann man noch ordentlich Schotter einfahren, wenn man zeitig verkauft. RTX 4090 ist also summa summarum das deutlich bessere Produkt.

Note: Das alles heisst nicht, dass amds xtx Karten crap sind, die sind auch gut, aber nur wenn man sie NICHT gegen RTX 4000 vergleicht XD
 
Irgendwie traurig. Früher habe hat man sehr oft Downsampling benutzt, weil die Leistung einfach enorm war. Heute reden alle nur noch vom Upsampling.
 
Irgendwie traurig. Früher habe hat man sehr oft Downsampling benutzt, weil die Leistung einfach enorm war. Heute reden alle nur noch vom Upsampling.
Mit den hier thematisierten GPU-Kalibern bereiten (DL-)DSR und VSR mindestens genauso viel Freude wie früher - nur eben nicht bei den neuesten Raytracing-Brechern. Ich habe zum Beispiel im Februar Outcast: Second Contact in 6K durchgespielt, was dank der integrierten Nachschärfung sehr fesch aussieht. :-)

MfG
Raff
 
Zurück