News Radeon RX 7900 XT vs. Geforce RTX 4070 Ti: Gleicher Preis, aber auch gleich gut?

Pathtracing mit ner 4070ti :lol:
Problem? Absolut possible. ^^ Ich glaube ihr realisiert gar nicht wie viel lahmer ne AMD Karte in Pathtracing ist.

1717441165177.png
 
Problem? Absolut possible. ^^ Ich glaube ihr realisiert gar nicht wie viel lahmer ne AMD Karte in Pathtracing ist.
D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen. Anders gesagt ich soll 850€ für Cyberpunk ausgeben...

Ich gehe jetzt mal weiter GoT, Cod, BF 2042, Manor Lords, Frost Punk, Sekiro, Horizon Zero Dawn usw. Zocken, und schmolle warum ich kein Pathtracing habe...
 
D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen.
Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
 
AFMF ist aber ein sehr zweischneidiges Schwert, ich hab das in etlichen Spielen getestet und teilweise wieder ausgemacht weil der Input Lag einfach zu hoch war mit Anti Lag 2 kann das wieder anders ausschauen aber das gibts ja nicht mehr auf Treiberebene. Ohne Qualitätsverlust stimmt so auch nicht da keine Bewegungsverktoren verrechnet werden.
Ich sehe weder Qualitätsunterschiede noch merke ich inputlag, der in homöopathischen Dosen vielleicht messbar ist. So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.
Klar gibt es dort einen massiven optischen Impact. Alles schaut unsauberer und verfranster aus, bei GUIs hat man oft zwei verschiedene Framerates, die Inkonsistenz bei den Framerates kommt auch noch dazu.
Wie gesagt, wenn man alles richtig einstellt läuft AFMF absolut sauber, aber ich gebe dir recht es kann so aussehen wenn man die angaben von AMD nicht beachtet. Ansonsten sieht man Unterschiede nur, wenn einzelne Bilder betrachtet werden und dies ist bei FG von Nvidia und AMD, was aber beim normalen zocken völlig irrelevant ist.

Alles, was ich bisher hinsichtlich AMDs-Frame-Gen gesehen habe war schlechter als bei nativ oder Nvidia Lösung. Ich bin aber auch extrem empfindlich für grafische Unterschiede, vielleicht fällt es einfach nicht jedem auf.

Objektiv gesehen gibt es da keine qualitativen Unterschiede, bei der Leistung hingegen liegt AMD deutlich vorne, das subjektive empfinden kann je nach Erwartungshaltung natürlich abweichen.

DLSS 3 vs. FSR 3 im Test

"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig

In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.

Vor allem mit einer Radeon ist FSR 3 FG richtig schnell


FSR 3 FG hat den Pluspunkt, einen größeren Leistungsschub als DLSS zu bringen. Vor allem Radeon-Grafikkarten können teils deutlich mehr an FPS zulegen als GeForce-Hardware mit DLSS"

Kommt aufs Spiel an..
Kann alles zocken, doppelt so schnell wie auf einer vergleichbaren Nvidia Karte. Die 2 hoch auf Nvidia GPUs optimierte PT Demos, welche man auch auf Nvidia Karten nur mit FG und Upscaler an der Kotzgrenze zocken kann, sind nicht repräsentativ.
Wenn es nur Rastergrafik hat..
Quatsch
Kein upscaling Support (DLSS)
DLSS war bisher qualitativ besser wegen DLAA, Mit FSR 3.1 hat AMD hier aufgeschlossen und bietet ebenbürtige Qualität, wobei bei FG AMD deutlich schneller ist. Schön auch, dass man FSR 3.1 auch in anderen spielen mit FSR wird eibauen können um von der höheren Qualität zu profitieren, wenn man die DDLs austauscht. (Bei DLSS ebenso)

Kein HDR Monitor im Haus ist
Noch mehr Quatsch
Man muss nur mit dem Stromverbrauch und hier und da mit nem Treiber Absturz leben.
Die 50 w machen nicht den kohl heiß, vorallem da diese auch in mehr Leistung münden. Mit AFMF ist AMD dann in 99% der Spiele nochmal detlich effizienter unterwegs. Der Treiberabsturz Strohman wird auch nicht wahrer, je öfter man den widerholt.
 
Objektiv gesehen gibt es da keine qualitativen Unterschiede, bei der Leistung hingegen liegt AMD deutlich vorne, das subjektive empfinden kann je nach Erwartungshaltung natürlich abweichen.

DLSS 3 vs. FSR 3 im Test

"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig

In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.

Tun sie eben nicht. Keine Ahnung, wer auf diese Idee kommt oder das so absegnet. DLSS Performance ist in etwa auf dem Level von FSR Quality und bei beiden sind deutliche Unterschiede zu sehen gegenüber einer nativen Auflösung. Gerade bei feinen Strukturen flimmert FSR ordentlich, während bei DLSS alles weichgezeichnet ist und nicht flimmert. Das ist wie damals ohne AA und mit 4x MSAA im Vergleich.
 
Tun sie eben nicht. Keine Ahnung, wer auf diese Idee kommt oder das so absegnet. DLSS Performance ist in etwa auf dem Level von FSR Quality und bei beiden sind deutliche Unterschiede zu sehen gegenüber einer nativen Auflösung. Gerade bei feinen Strukturen flimmert FSR ordentlich, während bei DLSS alles weichgezeichnet ist und nicht flimmert. Das ist wie damals ohne AA und mit 4x MSAA im Vergleich.

1. FSR nicht verallgemeinern, ich krame doch auch nicht DLSS 1.0 hervor und vergleiche es mit FSR 3.1
2. FSR Upsamling nicht mit FG in einen Topf werfen. Ich habe nirgends behauptet DLAA wäre schlechter. In den zitierten teilen geht es ausschließlich um Frame generation.
3. Ab FSR 2 gab es Spiele, die die Kantenglättung gut und schlecht umgesetzt haben, die Qualität war nicht konstant. DLSS war dank DLAA und einfacherer implementierung bisher trotzdem Besser, was nicht bedeutet, dass FSR
"Schlecht war" Schwarz Weis denken und so...

Das wird ab FSR 3.1 anders, da den Spieleentwicklern es noch einfacher gemacht wird FSR zu implementieren. Den ersten vorgeschmack auf FSR 3.1 lieferte Nixxes in Ghost of Tsushima wo FSR 3.1 DLSS nahezu ebenbürtig ist und immer eine bessere Qualität abliferte als die Native Auflösung.

Ghost of Tsushima im Test: Wenn FSR 3.1 immer so abliefert, hat AMD viel geschafft

"Auch in Full HD funktioniert FSR noch gut

In Sachen Bildstabilität kann FSR unabhängig von der Auflösung und den Qualitätsmodi zwar nicht ganz mit DLSS mithalten, ist aber in dem Spiel nur geringfügig zurück. Selbst in Full HD wird mit dem Quality-Modus die Vegetation effektiv beruhigt, die auch in diesem Worst-Case-Szenario so gut wie nicht flimmert. Die native Auflösung flimmert sich dagegen fast schon wortwörtlich den Ast ab und auch in Ultra HD beruhigen FSR und DLSS das Bild besser als mit der nativen Auflösung."
 
Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
Bilde dir nur ein, dass du zu den auserwählten Erleuchteten gehörst. Hatte bis vor 2 Monaten ne 4080 im Rechner, auch CP gespielt und habe RT genossen, aber Pathtracing, nope... Einfach zu Leistungshungrig und auch wenns geil ist, war es jetzt keine 1000+ Euro Wert und schon gar nicht wenn man die Auflösung runterschrauben muss und FG auch nix mehr hilft... Darüber hinaus sieht man im Moment wenige Spiele die wirklich von RT Features in denen NVidia tatsächlich Meilenweit voraus ist, wie z.B. CP.
Und dann ist es so, dass Pathtracing unterhalb einer 4080 ab WQHD kein Sinn macht. Die 4070ti macht auch nur 35-45 FPS in UWQHD und dann kommt noch das Vram Thema ;) ...
Aber ja man kann sich einreden das es das Wert war... Pathtracing ist vielleicht ab der 60xx/70xx Salonfähig, aber aktuell alles andere als im Midrange sowie in der breiten Masse angekommen.
Topic, es geht darum dass man aktuell wunderbar mit einer 7900xt zocken kann, es braucht keine NVidias. Zum gleichen Preis würde ich auch eher zur 4070ti Super greifen, aber non Super no....
 
Zuletzt bearbeitet:
Warum sollte man sich eine Karte mit einer eingebauten Sollbruchstelle in Form der 12GB Vram holen? Macht null Sinn. Wenn man die Karte eher nicht lange behalten will und 12GB Vram reichen, dann sollte man sich die 4070 non Super holen, gibt es im Sale teilweise schon für 530€. Und wenn es unbedingt Nvidia sein soll und man die Karte länger behalten will, dann holt man sich die 4070ti Super mit 16GB für einen Aufpreis. In dem Vergleich hier finde ich die 7900XT haushoch überlegen.
 
Ändert nur nix an der Kernaussage !
When you know what i mean ... :D
Dazu kommt noch DLSS was einiges zusätzlich herausholt. Mhmmm...
Irgendwie wird das jedes Mal sträflich unterschlagen. Diese Einseitigkeit ist wohl der Goldstandard hier in der PCGH Welt.

7900XT, Vram!! Raster!! RT, DlSS? Ach...braucht man nicht.
So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.
Tolle Erzählungen. Schaut man neutrale Reviews stockt es oft, stimmt die BQ und Latenz nicht bzw. schaltet sich bei normalem Gaming dauernd ab oder bricht ein.
 
Zuletzt bearbeitet von einem Moderator:
Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
Ich hab PT in CP2077 und AW2 gesehen.

Wenn ich nicht wüsste dass es an ist (merkt man am Spielgefühl), würde ich es nicht wahrnehmen.
Aber ich konzentriere mich auch mehr aufs Gameplay als 20min rumzustehen und mir Spiegelungen oder Beleuchtung anzuschauen.

Und fürs Gameplay... Nun da nehme ich lieber 90 fps in UHD und Rastergrafik (sieht ja nicht schlecht aus) mit DLAA als 60 fps in FHD.
Ja, mit FG wären es mehr, aber mich stören die Bildfehler und der Inputlag. Hilft nix wenn es nur flüssiger aussieht.

Aber es freut mich wenn dir PT so gut gefällt. Das ist ja das tolle am PC: Man kann einstellen wie man will
Du offensichtlich zu viel 😂
Seit dem du 4080 hast bist du zum Propheten, zum Messias aufgestiegen.
Made my Day :lol:
 
Zuletzt bearbeitet:
D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen. Anders gesagt ich soll 850€ für Cyberpunk ausgeben...

Ich gehe jetzt mal weiter GoT, Cod, BF 2042, Manor Lords, Frost Punk, Sekiro, Horizon Zero Dawn usw. Zocken, und schmolle warum ich kein Pathtracing habe...
Schreib kein Unfug.

DU kannst mit einer 4070ti kein Got, BF 2042, Manor Lords, Frost Punk usw super zocken?

Der große Vorteil, in den Fällen wo du die Option hast, kannst du die nutzen.

Ich habe mit der 4070ti 12GB noch, Alan Wake 2 gezockt und das beste optische Ergebnis gab es mit allen normalen Settings auf high, statt ultra und RT / PT aktiv. (Das ging mit DLSS Q in 1440p sehr gut)

Das mit Abstand am besten aus, vor allem mit großen Abstand zu allen Settings, ohne RT/PT.

Man kann bei AMD auch super ohne max. Details auskommen, das ist kein Problem. ( Also die Spiele die einem moderne Grafik bieten)

Aber deswegen braucht man keinen Unfug schreiben.

Keiner braucht schmollen, oder sonst etwas. Bei AMD bekommt man mehr Rasterleistung, im Mittel 10-15%.
Bei Nvidia bekommt man mehr RT Leistung (die real nutzbar ist, sofern man kein Unfug schreibt), im Mittel 10-20%.

In Einzelfällen ist man bei AMD im Raster auch 30-40% schneller, dafür bei Nvidia im RT auch mal über 100% schneller.

850€ kostet übrigens die nochmals bessere 4070ti super, die bei gleicher Bildqualität im Mittel über RT und Raster eher bei der XTX liegt. RT natürlich deutlich drüber.

Die 4070ti kostet eher wie die 7900XT.
Ich sehe weder Qualitätsunterschiede noch merke ich inputlag, der in homöopathischen Dosen vielleicht messbar ist. So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.
Da bin ich bei, auch bei FSR und DLSS.
Wie gesagt, wenn man alles richtig einstellt läuft AFMF absolut sauber, aber ich gebe dir recht es kann so aussehen wenn man die angaben von AMD nicht beachtet. Ansonsten sieht man Unterschiede nur, wenn einzelne Bilder betrachtet werden und dies ist bei FG von Nvidia und AMD, was aber beim normalen zocken völlig irrelevant ist.



Objektiv gesehen gibt es da keine qualitativen Unterschiede, bei der Leistung hingegen liegt AMD deutlich vorne, das subjektive empfinden kann je nach Erwartungshaltung natürlich abweichen.

DLSS 3 vs. FSR 3 im Test

"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig
Sofern man sich nur auf die Framegeneration bezieht.
FSR und DLSS als Upscaler sehen deutlich unterschiedlich aus und ich glaube das wird in den Kommentaren oft vermischt.
In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.

Vor allem mit einer Radeon ist FSR 3 FG richtig schnell


FSR 3 FG hat den Pluspunkt, einen größeren Leistungsschub als DLSS zu bringen. Vor allem Radeon-Grafikkarten können teils deutlich mehr an FPS zulegen als GeForce-Hardware mit DLSS"
Hier habe ich zu viele Benchmarks gesehen, die zwar absolut höhere Gewinne erzielt haben, aber die Frametimes bei FSR FG schlechter waren.
Kann alles zocken, doppelt so schnell wie auf einer vergleichbaren Nvidia Karte. Die 2 hoch auf Nvidia GPUs optimierte PT Demos, welche man auch auf Nvidia Karten nur mit FG und Upscaler an der Kotzgrenze zocken kann, sind nicht repräsentativ.
Doch klar, erstens keine Kotzgrenze, zweitens ist das das fortschrittlichste was wir so haben.
Quatsch

DLSS war bisher qualitativ besser wegen DLAA,
Das ist schon mal nicht richtig, DLSS sieht ohne DLAA schon deutlich besser aus.
Mit FSR 3.1 hat AMD hier aufgeschlossen und bietet ebenbürtige Qualität, wobei bei FG AMD deutlich schneller ist.
Quelle bitte dazu.
Ist FSR 3.1 schon offiziell? Bisher habe ich nur eine Mutmaßung gelesen und dort wurde geschrieben das FSR 3.1, wenn es das gewesen sein soll, zwar einen großen Sprung gemacht hat, aber DLSS weiter erkennbar besser bleibt. Wenn auch AMD zum Glück deutlich aufschließen können soll. (ohne finde ich auch FSR manchmal grenzwertig bis unnutzbar)
Schön auch, dass man FSR 3.1 auch in anderen spielen mit FSR wird eibauen können um von der höheren Qualität zu profitieren, wenn man die DDLs austauscht. (Bei DLSS ebenso)
Wir wollen doch mal erstmal schauen, wann es wirklich in welchen Spielen eingebaut ist.
Noch mehr Quatsch

Die 50 w machen nicht den kohl heiß, vorallem da diese auch in mehr Leistung münden. Mit AFMF ist AMD dann in 99% der Spiele nochmal detlich effizienter unterwegs.
Nochmals effizienter, der ist gut ;)
Der Treiberabsturz Strohman wird auch nicht wahrer, je öfter man den widerholt.
Das ist allerdings richtig...
Es gibt zwar sehr viele Beiträge im Netz, aber da bin auch immer skeptisch. In den meisten Fällen sitzt der Fehler vor dem Rechner.
 
Zuletzt bearbeitet:
(hi @ Replay.ai). Meine Stable Diffusion hab ich selbst nach 10 Fix Videos nich vernünftig zum laufen bekommen etc etc etc
Ich hatte mit AMD Karten bislang nie Probleme bei KI Programmen, es kommt nur auf die richtige Distribution an.

Für Stable Diffusion z.B. benötigst du keine Fixes o.ä.
Ich nutze folgendes Build seit mehreren Jahren:


Donwloaden, installieren, GUI im Browser öffnen - fertig!
 
Ich habe 700 Euro. Welche Grafikkarte soll ich kaufen?

Die genannten Modelle sind in den vergangenen Wochen immer günstiger geworden und potent. Du suchst offenbar keine Grafikkarte (in diesem Preisbereich), aber andere tun das möglicherweise. :-)

MfG
Raff
Es ging ihm wohl eher darum dass ihr diese Frage gestellt habt, aber keine Antwort formuliert. Also gleich gut, ja oder nein. Ihr habt Vorteile der beiden Karten aufgezeigt, aber nicht beantwortet ob jetzt beide gleich gut sind in euren Augen.
 
Es ging ihm wohl eher darum dass ihr diese Frage gestellt habt, aber keine Antwort formuliert. Also gleich gut, ja oder nein. Ihr habt Vorteile der beiden Karten aufgezeigt, aber nicht beantwortet ob jetzt beide gleich gut sind in euren Augen.
... weil das nicht funktioniert, die Karten sind sehr unterschiedlich und man muss die Wahl anhand der Prioritäten treffen. Ich würde sagen "Leg noch 150 Euro drauf, kauf eine TiS und sei damit wunschlos glücklich", aber nicht immer kann man Budgets derart strecken.

MfG
Raff
 
ich sach ma so.
Die 7900xt zieht Strom aus der Wand, dass es nur so kracht, ihr braucht drei separate Strom-Rails vom Netzteil und es wird auch viel Wärme produziert. Nicht jeder hat die drei 8pin-Kabel VGA-Kabel zu Hause rumliegen.
So eine Abwärmeglocke zwischen den Beinen nach 1-2 Stunden Hogwarts z.B., kann angenehm aber auch irgendwie "schwitzig" sein. Nvidia ist mit der Effizienz schon vorne dran find ich.

Müsst ihr euch ganz in Ruhe auf der Terrrasse bei einem Kaffee überlegen, was es sein soll.
 
Wo ist da das Problem....ist ja keine RX 7900XT

Schreib kein Unfug.

DU kannst mit einer 4070ti kein Got, BF 2042, Manor Lords, Frost Punk usw super zocken?
Der große Vorteil, in den Fällen wo du die Option hast, kannst du die nutzen.
Ich habe mit der 4070ti 12GB noch, Alan Wake 2 gezockt und das beste optische Ergebnis gab es mit allen normalen Settings auf high, statt ultra und RT / PT aktiv. (Das ging mit DLSS Q in 1440p sehr gut)
Das mit Abstand am besten aus, vor allem mit großen Abstand zu allen Settings, ohne RT/PT.
Man kann bei AMD auch super ohne max. Details auskommen, das ist kein Problem. ( Also die Spiele die einem moderne Grafik bieten)
Aber deswegen braucht man keinen Unfug schreiben.
Keiner braucht schmollen, oder sonst etwas. Bei AMD bekommt man mehr Rasterleistung, im Mittel 10-15%.
Bei Nvidia bekommt man mehr RT Leistung (die real nutzbar ist, sofern man kein Unfug schreibt), im Mittel 10-20%.
In Einzelfällen ist man bei AMD im Raster auch 30-40% schneller, dafür bei Nvidia im RT auch mal über 100% schneller.
850€ kostet übrigens die nochmals bessere 4070ti super, die bei gleicher Bildqualität im Mittel über RT und Raster eher bei der XTX liegt. RT natürlich deutlich drüber.
Die 4070ti kostet eher wie die 7900XT.
Da bin ich bei, auch bei FSR und DLSS.
Sofern man sich nur auf die Framegeneration bezieht.
FSR und DLSS als Upscaler sehen deutlich unterschiedlich aus und ich glaube das wird in den Kommentaren oft vermischt.
Punkt 1 du reisst den zitierten Beitrag völlig aus dem Kontext! Lese einfach mal die gesamte Diskussion und fange nicht an mitten im Gespräch einzelne Sätze/Kommentare völlig verdreht zu kommentieren! Deshalb ist dein Beitrag völliger Unfug!

Punkt 2 es ging um Pathtracing und nicht middle- high settings. Darüber hinaus sagte ich nie das man mit ner 4070ti nicht zocken kann... Wobei ich es einwenig amüsant finde, dass in dem Kontext von dir gleich die Reduzierung von details als Workaround für VRam oder Leistung RT angeteasert wird.
Die angesprochenen Spiele haben kein RT und sollten der Diskussion nur die Grundlage nehmen, da das gepriesene Pathtracing kaum zu tragen kommt, aber vom Kommentator als Begründung hergenommen wurde um das vermeintlich schlechte Gamingerlebnis (seiner Ansicht nach)auf AMD Karten zu untermauern!

Punkt 3 FSR sieht oft fast genauso gut aus, aber zumdindest sehr oft gut genug um kaum Unterschiede zu sehen die das Speilerlebnis ausserhalb von Grabenkämpfen in Foren verschlechtern. Natürlich gibt es hier und da beschissene Implementierungen, eher in der Vergangheit vorgekommen. Das NVIdia mit DLSS ein kleines bisschen voraus ist und mit FG/RT deutlich, ist kein Geheimnis und wird nicht in Abrede gestellt, zumindest von mir, da ich lang genug eine RTX 4080 hatte und den Unterschied nicht nur vom hören sagen kenne (AW und CP gezockt damit), anders wie die 95% der Kommentatoren hier, die nie was anderes als eine NVidia bzw. respektive AMD hatten.

Grundsätzlich weiss ich das die NVIdia in meinem Fall deutlich mehr konnte als die 7900xt, aber das nur selten zum tragen kam. Wenn 2-3 Spiele mit nenneswerten RT Effekten im Jahr kommen, aber keins oder nur eins wirklich gezockt wird, ist die Frage schon gerechtfertig ob ich eine NV oder AMD brauche und in dem Fall bekommt man bei AMD mehr. Gerade wenn man hauptsächlich kompetitiive Shooter spielt... Also was lernen wir daraus, man hat die Wahl und die Wahl der Karte hängt von so einigen Faktoren ab, Budget, Auflösung, Spielepräferenzen usw.
Für mich selbst ist eine 4070Ti (non Super) keine gute Wahl im Vergleich, da sie weniger Vram und Rasterleistung bietet und zu wenig in Rt, als es bei meinem Monitor (3440x1440) überhaupt sinnvoll wäre! Was soll ich mit 40-50FPS im MAX!!! Selbst eine Stufe drunter ist mir noch zu wenig... Und da ich schon alle die games mit RT gezockt habe, habe ich meine 4080 abgestoßen mit kaum Verlust und warte mit der 7900xt auf die Zukunft, da im Moment keine Titel für mich kommen in denen ich RT LEistung bräuchte.... Fühle mich sehr wohl dabei! Da könnt ihr in die Tasten hauen wie ihr wollt, der AMDler wird genauso spaß haben wie ihr mit eurem grünen Enis...

Edit: die 4070ti Super liegt im Leistungsindex hinter der 7900xt, und die 4070ti noch deutlicher, siehe Screens. Klar RT macht sie die amd nass, aber darauf bin ich ja schon oben eingegangen...

Gerade bei feinen Strukturen flimmert FSR ordentlich, während bei DLSS alles weichgezeichnet ist und nicht flimmert. Das ist wie damals ohne AA und mit 4x MSAA im Vergleich.
Schmarrn, früher ja, aktuelle Titel flimmern null. Und nein es gab Spiele mit schlechten Implementierungen, aber das aht mit dem hier und jetzt nix zu tun, DLSS Perf sieht niemals in Beispielweise D4 oder GoT so gut aus wie FSR Quality...
 

Anhänge

  • 1717492029047.png
    1717492029047.png
    115 KB · Aufrufe: 14
  • 1717492055337.png
    1717492055337.png
    119,3 KB · Aufrufe: 12
  • 1717493371606.png
    1717493371606.png
    96,7 KB · Aufrufe: 11
  • 1717493479259.png
    1717493479259.png
    93,4 KB · Aufrufe: 16
Zuletzt bearbeitet:
Punkt 1 du reisst den zitierten Beitrag völlig aus dem Kontext! Lese einfach mal die gesamte Diskussion und fange nicht an mitten im Gespräch einzelne Sätze/Kommentare völlig verdreht zu kommentieren! Deshalb ist dein Beitrag völliger Unfug!
Zusammenhang!
Lass stecken.
Punkt 2 es ging um Pathtracing
Habe ich etwas anderes geschrieben.
high Settings plus Path Tracing sieht deutlich besser aus, als Utlra Settings ohne RT/PT.

Damit ist die Relevanz der RT Leistung der 4070ti gesichert und deine vorherige Aussage Unfug.
und nicht middle- high settings. Darüber hinaus sagte ich nie das man mit ner 4070ti nicht zocken kann... Wobei ich es einwenig amüsant finde, dass in dem Kontext von dir gleich die Reduzierung von details als Workaround für VRam oder Leistung RT angeteasert wird.

Nope, du nicht Lage zu verstehen, oder wie ;)

Dabei geht es ganz simpel darum, das man zum Beispiel in Alan Wake 2 mit einer 7900XT ganz einfach auf RT verzichten muss, ganz zu schweigen von PT.

Dazu dann der absolut relevante Punkt, das High Settings plus RT/PT besser aussieht.

Ergebnis, man erhält spielbar, das bessere optische Ergebnis mit einer 4070ti, im Vergleich zur 7900XT.

Die angesprochenen Spiele haben kein RT und sollten der Diskussion nur die Grundlage nehmen, da das gepriesene Pathtracing kaum zu tragen kommt, aber vom Kommentator als Begründung hergenommen wurde um das vermeintlich schlechte Gamingerlebnis (seiner Ansicht nach)auf AMD Karten zu untermauern!

So absolute Aussagen sind natürlich blödsinnig, aber es bleibt stets strittig im Raum, was war zu erst.
Hat XY zuerst Path Tracing die Relevanz abgesprochen, oder hat man zuerst AMD das schlechtere Gamingerlebnis zugesprochen.
Punkt 3 FSR sieht oft fast genauso gut aus, aber zumdindest sehr oft gut genug um kaum Unterschiede zu sehen die das Speilerlebnis ausserhalb von Grabenkämpfen in Foren verschlechtern.
Das geht außerhalb der subjektiven Wahrnehmung nicht auf.
Ich empfehle wirklich den Optiker, oder nochmal Vergleichsbilder zu studieren. Das was AMD in Bewegung verkackt, kann man sich auch in Videos anschauen.

Dazu empfehle ich die super Vergleiche von Techpowerup. Die schreiben auch ein Fazit, für den Fall das die Augen nicht mehr so gut sind.
Natürlich gibt es hier und da beschissene Implementierungen, eher in der Vergangheit vorgekommen. Das NVIdia mit DLSS ein kleines bisschen voraus ist und mit FG/RT deutlich, ist kein Geheimnis und wird nicht in Abrede gestellt, zumindest von mir, da ich lang genug eine RTX 4080 hatte und den Unterschied nicht nur vom hören sagen kenne (AW und CP gezockt damit), anders wie die 95% der Kommentatoren hier, die nie was anderes als eine NVidia bzw. respektive AMD hatten.
Der Ansatz ist gut.
Grundsätzlich weiss ich das die NVIdia in meinem Fall deutlich mehr konnte als die 7900xt, aber das nur selten zum tragen kam. Wenn 2-3 Spiele mit nenneswerten RT Effekten im Jahr kommen, aber keins oder nur eins wirklich gezockt wird, ist die Frage schon gerechtfertig ob ich eine NV oder AMD brauche und in dem Fall bekommt man bei AMD mehr.
Bei dem Punkt bin ich absolut bei dir.
Auch ich überlege regelmäßig, ob ich nicht auf eine XTX wechsle, spätestens aber auf eine 8800XT ( je nach Gerücht).

Aber das kommt für mich erst in Frage, wenn FSR 3.1 hält was manche sich in Foren wünschen.

Ich selbst hoffe und denke, das AMD damit soweit aufholen kann, das es für mich keinen entscheidenden Unterschied mehr macht.
Aber davon sind wir heute noch entfernt. Siehe auch die letzten Vergleiche zu aktuellen Spielen von Techpowerup.
Gerade wenn man hauptsächlich kompetitiive Shooter spielt...
Jetzt muss ich wieder lachen, kompetiv... Wie der Lauch im Studio der dir erzählt, das er Kreatin Kur macht.
Also was lernen wir daraus, man hat die Wahl und die Wahl der Karte hängt von so einigen Faktoren ab, Budget, Auflösung, Spielepräferenzen usw.
Bin ich auch bei!
Für mich selbst ist eine 4070Ti (non Super) keine gute Wahl im Vergleich, da sie weniger Vram und Rasterleistung bietet und zu wenig in Rt, als es bei meinem Monitor (3440x1440) überhaupt sinnvoll wäre!
Für dich persönlich kann das stimmen.
Für wen anders in 1440p kann die 4070ti dennoch die besser Wahl sein.+


Was soll ich mit 40-50FPS im MAX!!! Selbst eine Stufe drunter ist mir noch zu wenig... Und da ich schon alle die games mit RT gezockt habe, habe ich meine 4080 abgestoßen mit kaum Verlust und warte mit der 7900xt auf die Zukunft, da im Moment keine Titel für mich kommen in denen ich RT LEistung bräuchte.... Fühle mich sehr wohl dabei! Da könnt ihr in die Tasten hauen wie ihr wollt, der AMDler wird genauso spaß haben wie ihr mit eurem grünen Enis...


Diese Aussage und was du versuchst unterschwellig mitzuteilen ist zu weit unten.
Edit: die 4070ti Super liegt im Leistungsindex hinter der 7900xt, und die 4070ti noch deutlicher, siehe Screens. Klar RT macht sie die amd nass, aber darauf bin ich ja schon oben eingegangen...

Also im Index liegen die Nvidia Karten klar vorne und auf die Raster Situation sind wir ja schon eingegangen.

Ich meine, in 2024 zählt Rasterleistung alleine auch nicht mehr.

Schau dir mal den Parcours an, nimm aus dem Raster mal alle Titel mit RT raus. So wie der ist, ist der leider verzerrend.
Schmarrn, früher ja, aktuelle Titel flimmern null. Und nein es gab Spiele mit schlechten Implementierungen, aber das aht mit dem hier und jetzt nix zu tun, DLSS Perf sieht niemals in Beispielweise D4 oder GoT so gut aus wie FSR Quality...
Nein, auch aktuell flimmert FSR noch regelmäßig, wenn auch nicht immer.
Aber DLSS P sieht wirklich etwas schlechter aus. Aber DLSS B reicht nicht selten.


Ich sehe das so, nimmt man die einzelnen Spiele raus die seit jeher auf AMD, oder Nvidia ungewohnt besser laufen, dann läuft auf einer 4070ti, oder spätestens auf der 4070ti s alles ausreichend schnell genug und RT ändert da meistens wenig dran. Bei der 7900XT und XTX sehe ich das man im Raster kleine Vorteile bekommt, dafür aber in RT deutlich schlechter dasteht.
 
Zurück