G
Gast1719868203
Guest
Problem? Absolut possible. ^^ Ich glaube ihr realisiert gar nicht wie viel lahmer ne AMD Karte in Pathtracing ist.Pathtracing mit ner 4070ti
Problem? Absolut possible. ^^ Ich glaube ihr realisiert gar nicht wie viel lahmer ne AMD Karte in Pathtracing ist.Pathtracing mit ner 4070ti
D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen. Anders gesagt ich soll 850€ für Cyberpunk ausgeben...Problem? Absolut possible. ^^ Ich glaube ihr realisiert gar nicht wie viel lahmer ne AMD Karte in Pathtracing ist.
Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen.
Du offensichtlich zu viel 😂Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
Ich sehe weder Qualitätsunterschiede noch merke ich inputlag, der in homöopathischen Dosen vielleicht messbar ist. So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.AFMF ist aber ein sehr zweischneidiges Schwert, ich hab das in etlichen Spielen getestet und teilweise wieder ausgemacht weil der Input Lag einfach zu hoch war mit Anti Lag 2 kann das wieder anders ausschauen aber das gibts ja nicht mehr auf Treiberebene. Ohne Qualitätsverlust stimmt so auch nicht da keine Bewegungsverktoren verrechnet werden.
Wie gesagt, wenn man alles richtig einstellt läuft AFMF absolut sauber, aber ich gebe dir recht es kann so aussehen wenn man die angaben von AMD nicht beachtet. Ansonsten sieht man Unterschiede nur, wenn einzelne Bilder betrachtet werden und dies ist bei FG von Nvidia und AMD, was aber beim normalen zocken völlig irrelevant ist.Klar gibt es dort einen massiven optischen Impact. Alles schaut unsauberer und verfranster aus, bei GUIs hat man oft zwei verschiedene Framerates, die Inkonsistenz bei den Framerates kommt auch noch dazu.
Alles, was ich bisher hinsichtlich AMDs-Frame-Gen gesehen habe war schlechter als bei nativ oder Nvidia Lösung. Ich bin aber auch extrem empfindlich für grafische Unterschiede, vielleicht fällt es einfach nicht jedem auf.
Kann alles zocken, doppelt so schnell wie auf einer vergleichbaren Nvidia Karte. Die 2 hoch auf Nvidia GPUs optimierte PT Demos, welche man auch auf Nvidia Karten nur mit FG und Upscaler an der Kotzgrenze zocken kann, sind nicht repräsentativ.Kommt aufs Spiel an..
QuatschWenn es nur Rastergrafik hat..
DLSS war bisher qualitativ besser wegen DLAA, Mit FSR 3.1 hat AMD hier aufgeschlossen und bietet ebenbürtige Qualität, wobei bei FG AMD deutlich schneller ist. Schön auch, dass man FSR 3.1 auch in anderen spielen mit FSR wird eibauen können um von der höheren Qualität zu profitieren, wenn man die DDLs austauscht. (Bei DLSS ebenso)Kein upscaling Support (DLSS)
Noch mehr QuatschKein HDR Monitor im Haus ist
Die 50 w machen nicht den kohl heiß, vorallem da diese auch in mehr Leistung münden. Mit AFMF ist AMD dann in 99% der Spiele nochmal detlich effizienter unterwegs. Der Treiberabsturz Strohman wird auch nicht wahrer, je öfter man den widerholt.Man muss nur mit dem Stromverbrauch und hier und da mit nem Treiber Absturz leben.
Objektiv gesehen gibt es da keine qualitativen Unterschiede, bei der Leistung hingegen liegt AMD deutlich vorne, das subjektive empfinden kann je nach Erwartungshaltung natürlich abweichen.
DLSS 3 vs. FSR 3 im Test
"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig
In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.
Tun sie eben nicht. Keine Ahnung, wer auf diese Idee kommt oder das so absegnet. DLSS Performance ist in etwa auf dem Level von FSR Quality und bei beiden sind deutliche Unterschiede zu sehen gegenüber einer nativen Auflösung. Gerade bei feinen Strukturen flimmert FSR ordentlich, während bei DLSS alles weichgezeichnet ist und nicht flimmert. Das ist wie damals ohne AA und mit 4x MSAA im Vergleich.
Bilde dir nur ein, dass du zu den auserwählten Erleuchteten gehörst. Hatte bis vor 2 Monaten ne 4080 im Rechner, auch CP gespielt und habe RT genossen, aber Pathtracing, nope... Einfach zu Leistungshungrig und auch wenns geil ist, war es jetzt keine 1000+ Euro Wert und schon gar nicht wenn man die Auflösung runterschrauben muss und FG auch nix mehr hilft... Darüber hinaus sieht man im Moment wenige Spiele die wirklich von RT Features in denen NVidia tatsächlich Meilenweit voraus ist, wie z.B. CP.Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
Dazu kommt noch DLSS was einiges zusätzlich herausholt. Mhmmm...Ändert nur nix an der Kernaussage !
When you know what i mean ...
Tolle Erzählungen. Schaut man neutrale Reviews stockt es oft, stimmt die BQ und Latenz nicht bzw. schaltet sich bei normalem Gaming dauernd ab oder bricht ein.So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.
Ich hab PT in CP2077 und AW2 gesehen.Verstehe dein Problem gar nicht. Aber du hast offensichtlich noch kein Pathtracing gesehen.
Made my DayDu offensichtlich zu viel 😂
Seit dem du 4080 hast bist du zum Propheten, zum Messias aufgestiegen.
Wo ist da das Problem....ist ja keine RX 7900XTPathtracing mit ner 4070ti
lmaoSeit dem du 4080 hast bist du zum Propheten, zum Messias aufgestiegen.
Schreib kein Unfug.D.h. weil ich so ne coole NVidia 4070ti im Rechner habe, solle ich Pathtracing zuschalten die Auflösung von 3440x1440 auf 1080p runterschalten um mich dann dann geil zu fühlen. Anders gesagt ich soll 850€ für Cyberpunk ausgeben...
Ich gehe jetzt mal weiter GoT, Cod, BF 2042, Manor Lords, Frost Punk, Sekiro, Horizon Zero Dawn usw. Zocken, und schmolle warum ich kein Pathtracing habe...
Da bin ich bei, auch bei FSR und DLSS.Ich sehe weder Qualitätsunterschiede noch merke ich inputlag, der in homöopathischen Dosen vielleicht messbar ist. So lange man im Vollbild zockt, nicht aus der Freesync Reichweite abweicht und ein fps Limit setzt läuft es butterweich.
Sofern man sich nur auf die Framegeneration bezieht.Wie gesagt, wenn man alles richtig einstellt läuft AFMF absolut sauber, aber ich gebe dir recht es kann so aussehen wenn man die angaben von AMD nicht beachtet. Ansonsten sieht man Unterschiede nur, wenn einzelne Bilder betrachtet werden und dies ist bei FG von Nvidia und AMD, was aber beim normalen zocken völlig irrelevant ist.
Objektiv gesehen gibt es da keine qualitativen Unterschiede, bei der Leistung hingegen liegt AMD deutlich vorne, das subjektive empfinden kann je nach Erwartungshaltung natürlich abweichen.
DLSS 3 vs. FSR 3 im Test
"Die Bildqualität ist zwischen AMD und Nvidia ebenbürtig
Hier habe ich zu viele Benchmarks gesehen, die zwar absolut höhere Gewinne erzielt haben, aber die Frametimes bei FSR FG schlechter waren.In Sachen Bildqualität zeigen sich keine nennenswerten Unterschiede zwischen DLSS und FSR Frame Generation. Beide Technologien agieren zwar leicht unterschiedlich, schneiden schlussendlich aber gleichwertig ab.
Vor allem mit einer Radeon ist FSR 3 FG richtig schnell
FSR 3 FG hat den Pluspunkt, einen größeren Leistungsschub als DLSS zu bringen. Vor allem Radeon-Grafikkarten können teils deutlich mehr an FPS zulegen als GeForce-Hardware mit DLSS"
Doch klar, erstens keine Kotzgrenze, zweitens ist das das fortschrittlichste was wir so haben.Kann alles zocken, doppelt so schnell wie auf einer vergleichbaren Nvidia Karte. Die 2 hoch auf Nvidia GPUs optimierte PT Demos, welche man auch auf Nvidia Karten nur mit FG und Upscaler an der Kotzgrenze zocken kann, sind nicht repräsentativ.
Das ist schon mal nicht richtig, DLSS sieht ohne DLAA schon deutlich besser aus.Quatsch
DLSS war bisher qualitativ besser wegen DLAA,
Quelle bitte dazu.Mit FSR 3.1 hat AMD hier aufgeschlossen und bietet ebenbürtige Qualität, wobei bei FG AMD deutlich schneller ist.
Wir wollen doch mal erstmal schauen, wann es wirklich in welchen Spielen eingebaut ist.Schön auch, dass man FSR 3.1 auch in anderen spielen mit FSR wird eibauen können um von der höheren Qualität zu profitieren, wenn man die DDLs austauscht. (Bei DLSS ebenso)
Nochmals effizienter, der ist gutNoch mehr Quatsch
Die 50 w machen nicht den kohl heiß, vorallem da diese auch in mehr Leistung münden. Mit AFMF ist AMD dann in 99% der Spiele nochmal detlich effizienter unterwegs.
Das ist allerdings richtig...Der Treiberabsturz Strohman wird auch nicht wahrer, je öfter man den widerholt.
Ich hatte mit AMD Karten bislang nie Probleme bei KI Programmen, es kommt nur auf die richtige Distribution an.(hi @ Replay.ai). Meine Stable Diffusion hab ich selbst nach 10 Fix Videos nich vernünftig zum laufen bekommen etc etc etc
Es ging ihm wohl eher darum dass ihr diese Frage gestellt habt, aber keine Antwort formuliert. Also gleich gut, ja oder nein. Ihr habt Vorteile der beiden Karten aufgezeigt, aber nicht beantwortet ob jetzt beide gleich gut sind in euren Augen.Ich habe 700 Euro. Welche Grafikkarte soll ich kaufen?
Die genannten Modelle sind in den vergangenen Wochen immer günstiger geworden und potent. Du suchst offenbar keine Grafikkarte (in diesem Preisbereich), aber andere tun das möglicherweise.
MfG
Raff
... weil das nicht funktioniert, die Karten sind sehr unterschiedlich und man muss die Wahl anhand der Prioritäten treffen. Ich würde sagen "Leg noch 150 Euro drauf, kauf eine TiS und sei damit wunschlos glücklich", aber nicht immer kann man Budgets derart strecken.Es ging ihm wohl eher darum dass ihr diese Frage gestellt habt, aber keine Antwort formuliert. Also gleich gut, ja oder nein. Ihr habt Vorteile der beiden Karten aufgezeigt, aber nicht beantwortet ob jetzt beide gleich gut sind in euren Augen.
Wo ist da das Problem....ist ja keine RX 7900XT
Punkt 1 du reisst den zitierten Beitrag völlig aus dem Kontext! Lese einfach mal die gesamte Diskussion und fange nicht an mitten im Gespräch einzelne Sätze/Kommentare völlig verdreht zu kommentieren! Deshalb ist dein Beitrag völliger Unfug!Schreib kein Unfug.
DU kannst mit einer 4070ti kein Got, BF 2042, Manor Lords, Frost Punk usw super zocken?
Der große Vorteil, in den Fällen wo du die Option hast, kannst du die nutzen.
Ich habe mit der 4070ti 12GB noch, Alan Wake 2 gezockt und das beste optische Ergebnis gab es mit allen normalen Settings auf high, statt ultra und RT / PT aktiv. (Das ging mit DLSS Q in 1440p sehr gut)
Das mit Abstand am besten aus, vor allem mit großen Abstand zu allen Settings, ohne RT/PT.
Man kann bei AMD auch super ohne max. Details auskommen, das ist kein Problem. ( Also die Spiele die einem moderne Grafik bieten)
Aber deswegen braucht man keinen Unfug schreiben.
Keiner braucht schmollen, oder sonst etwas. Bei AMD bekommt man mehr Rasterleistung, im Mittel 10-15%.
Bei Nvidia bekommt man mehr RT Leistung (die real nutzbar ist, sofern man kein Unfug schreibt), im Mittel 10-20%.
In Einzelfällen ist man bei AMD im Raster auch 30-40% schneller, dafür bei Nvidia im RT auch mal über 100% schneller.
850€ kostet übrigens die nochmals bessere 4070ti super, die bei gleicher Bildqualität im Mittel über RT und Raster eher bei der XTX liegt. RT natürlich deutlich drüber.
Die 4070ti kostet eher wie die 7900XT.
Da bin ich bei, auch bei FSR und DLSS.
Sofern man sich nur auf die Framegeneration bezieht.
FSR und DLSS als Upscaler sehen deutlich unterschiedlich aus und ich glaube das wird in den Kommentaren oft vermischt.
Schmarrn, früher ja, aktuelle Titel flimmern null. Und nein es gab Spiele mit schlechten Implementierungen, aber das aht mit dem hier und jetzt nix zu tun, DLSS Perf sieht niemals in Beispielweise D4 oder GoT so gut aus wie FSR Quality...Gerade bei feinen Strukturen flimmert FSR ordentlich, während bei DLSS alles weichgezeichnet ist und nicht flimmert. Das ist wie damals ohne AA und mit 4x MSAA im Vergleich.
Zusammenhang!Punkt 1 du reisst den zitierten Beitrag völlig aus dem Kontext! Lese einfach mal die gesamte Diskussion und fange nicht an mitten im Gespräch einzelne Sätze/Kommentare völlig verdreht zu kommentieren! Deshalb ist dein Beitrag völliger Unfug!
Habe ich etwas anderes geschrieben.Punkt 2 es ging um Pathtracing
und nicht middle- high settings. Darüber hinaus sagte ich nie das man mit ner 4070ti nicht zocken kann... Wobei ich es einwenig amüsant finde, dass in dem Kontext von dir gleich die Reduzierung von details als Workaround für VRam oder Leistung RT angeteasert wird.
Die angesprochenen Spiele haben kein RT und sollten der Diskussion nur die Grundlage nehmen, da das gepriesene Pathtracing kaum zu tragen kommt, aber vom Kommentator als Begründung hergenommen wurde um das vermeintlich schlechte Gamingerlebnis (seiner Ansicht nach)auf AMD Karten zu untermauern!
Das geht außerhalb der subjektiven Wahrnehmung nicht auf.Punkt 3 FSR sieht oft fast genauso gut aus, aber zumdindest sehr oft gut genug um kaum Unterschiede zu sehen die das Speilerlebnis ausserhalb von Grabenkämpfen in Foren verschlechtern.
Der Ansatz ist gut.Natürlich gibt es hier und da beschissene Implementierungen, eher in der Vergangheit vorgekommen. Das NVIdia mit DLSS ein kleines bisschen voraus ist und mit FG/RT deutlich, ist kein Geheimnis und wird nicht in Abrede gestellt, zumindest von mir, da ich lang genug eine RTX 4080 hatte und den Unterschied nicht nur vom hören sagen kenne (AW und CP gezockt damit), anders wie die 95% der Kommentatoren hier, die nie was anderes als eine NVidia bzw. respektive AMD hatten.
Bei dem Punkt bin ich absolut bei dir.Grundsätzlich weiss ich das die NVIdia in meinem Fall deutlich mehr konnte als die 7900xt, aber das nur selten zum tragen kam. Wenn 2-3 Spiele mit nenneswerten RT Effekten im Jahr kommen, aber keins oder nur eins wirklich gezockt wird, ist die Frage schon gerechtfertig ob ich eine NV oder AMD brauche und in dem Fall bekommt man bei AMD mehr.
Jetzt muss ich wieder lachen, kompetiv... Wie der Lauch im Studio der dir erzählt, das er Kreatin Kur macht.Gerade wenn man hauptsächlich kompetitiive Shooter spielt...
Bin ich auch bei!Also was lernen wir daraus, man hat die Wahl und die Wahl der Karte hängt von so einigen Faktoren ab, Budget, Auflösung, Spielepräferenzen usw.
Für dich persönlich kann das stimmen.Für mich selbst ist eine 4070Ti (non Super) keine gute Wahl im Vergleich, da sie weniger Vram und Rasterleistung bietet und zu wenig in Rt, als es bei meinem Monitor (3440x1440) überhaupt sinnvoll wäre!
Edit: die 4070ti Super liegt im Leistungsindex hinter der 7900xt, und die 4070ti noch deutlicher, siehe Screens. Klar RT macht sie die amd nass, aber darauf bin ich ja schon oben eingegangen...
Nein, auch aktuell flimmert FSR noch regelmäßig, wenn auch nicht immer.Schmarrn, früher ja, aktuelle Titel flimmern null. Und nein es gab Spiele mit schlechten Implementierungen, aber das aht mit dem hier und jetzt nix zu tun, DLSS Perf sieht niemals in Beispielweise D4 oder GoT so gut aus wie FSR Quality...