Gurdi
Kokü-Junkie (m/w)
Hast du denn dahingehend Erfahrungswerte?versucht es doch mal damit im RTSS den scanline sync zu aktivieren.
Hast du denn dahingehend Erfahrungswerte?versucht es doch mal damit im RTSS den scanline sync zu aktivieren.
Ich bringe damit das Jutter in Cyberpunk weg.Hast du denn dahingehend Erfahrungswerte?
Was nutzt du dabei als Setting, wäre interessant für mich das in Pagonia oder BG3 zu testen.Ich bringe damit das Jutter in Cyberpunk weg.
Also Basis-fps sind auch +/-30fps mit PathTracing und UHD FSR2B, was halt eine schlechte Ausgangslage ausserhalb der Spezifikationen ist, egal ob bei NVidia oder AMD
Was halt bleibt ist das Tearing. Da muss AMD betreffen VSync/VRR noch liefern.
FSpremium beschreibt normalerweise nur die Kompatibilität mit HDR.. bzw bringt ein eigenes tonemapping mit.Warum VRR in den Titeln mit Antilag+ bei mir sauber funktioniert aber laut anderen Testern nicht ist mir zumindest erst mal ein Rätsel. Evtl. liegt es an meine FSPremium Monitor, evtl. nehm ich das vermeintliche Tearing aber auch bei hohen Fps mit nem 240 Hz Panel einfach nicht wahr.
Damit wäre es aber Stand jetzt ziemlich nutzlos?- Zu niedrige Fps damit zu kompensieren kann ich nicht empfehlen, vor allem ohne AntiLag+. Das Ergebnis ist gruselig, zumindest nach meinem Empfinden. Schade, das wäre sonst wirklich ne nette Sache um langsamen Systemen wieder Beine zu machen.
Ist doch bei nvidia auch so.Damit wäre es aber Stand jetzt ziemlich nutzlos?
Ausreichend FPS noch schneller zu machen kann ja kaum der Sinn der Sache sein.
Mal abgesehen davon, das es wohl nicht ausreciht einfach einen Schalter umzulegen sondern man X Sachen beachten muss.
Aber gut, ist ja eh noch "Preview"
Ja dafür ist die Technk schlicht nicht geeignet. Ich wunder mich immer wie so mancher sich damit z.B. Pathtracing in Cyberpunk schön säuft. Meiner Meinung nach ist Technik lediglich dazu zu gebrauchen auf die Zielfrequenz des Panels zu pushen und da einen Benefit von zu erhalten. Das gefriggel derzeit ist auch super nervig, wobei man natürlich sagen muss dass es schon feine Sache ist die Option zu haben es ÜBERALL einzuschalten.Damit wäre es aber Stand jetzt ziemlich nutzlos?
Ausreichend FPS noch schneller zu machen kann ja kaum der Sinn der Sache sein.
Mal abgesehen davon, das es wohl nicht ausreciht einfach einen Schalter umzulegen sondern man X Sachen beachten muss.
Aber gut, ist ja eh noch "Preview"
Überraschenderweise läuft es in Borderlands 2 bei mir wie gesagt Premium. Dürfte rein ne Sache der Fps sein und AntiLag+ ist in nem Shooter Pflicht.Vermutlich aber nicht in Shootern.
Ich würd das abhängig davon machen ob einer der gespielten Titel Unterstützung für AntiLag+ hat.Also was ich hier so lese lass ich das lieber bleiben mit dem preview Treiber....
Auf VRR kann ich notfalls verzichten mit dem 165Hz Monitor. Aber wenn ich laut Anzeige 160 fps habe, such aber bescheiden anfühlt, kann ich es auch bleiben lassen.
Ich lehne mich zurück und warte wie sich das entwickelt.
Interessante Frage. Leider hab ich keine passende Hardware dazu.Weiß jemand, wie das in VR ist? Speziell bei Flug Sims?
Super schnelle Bewegungen macht man da ja nicht.
Wenn man damit save auf die 90 FPS kommt und einfach mehr Puffer hat, wäre das ein riesen Ding.
(DCS oder IL-2 auf HP Reverb G2)
in 10 Jahren ist.Nur das pathtracing ein gamechanger
Ja genau. Jetzt schon 100fps mit 4090in 10 Jahren ist.
Was nutzt du dabei als Setting, wäre interessant für mich das in Pagonia oder BG3 zu testen.
Minecraft oder CP? Mit der wassergekühlten oc 4080 komme ich mal gerade auf 45, wie willst du da auf 100 kommen? Redest du von 1080p, oder wie ist das zu verstehen?Ja genau. Jetzt schon 100fps mit 4090
"Gamechanger" impliziert Breitenwirkung. Das "Game" an sich wird komplett und unwiederbringlich verändert.Ja genau. Jetzt schon 100fps mit 4090
"Gamechanger" impliziert Breitenwirkung. Das "Game" an sich wird komplett und unwiederbringlich verändert.
Die 4090 ist aber für weniger als 1% der Zocker da.
Und Pathtracing ist zwar ganz nett aber es bringt im Vorzeigespiel schlechthin (Cyberpunk) lediglich ein kleines bischen hübschere Optik. Wenn die Lichverhältnisse gerade mitspielen.
Und die 100fps hast du mit unausgereifter Frame Generation.
Bis 51% der Zocker einen besseren, weil echt gamechangerigen Effekt sehen, vergehen mal eben ganz locker noch 10 Jahre.
Gegenfrage:Was aber klar ist, spätestens ab 35 und weniger Baseframes zerreisst es das Bild mehr oder weniger zwangsläufig sehr unangenehm stark,
Genau dafür ist die Technik eigentlich da. Niedrige FPS die sonst unspielbar und träge waren mit Technik auf eine vernünftige Basis zu stellen. Das klappt mit VRR, guten Latenzen auf der 4090 in Pathtracing wunderbar. 70 oder 80 FPS noch flüssiger zu machen lohnt finde ich weniger..Ja dafür ist die Technk schlicht nicht geeignet.
Die unterscheidet sich deutlich zwischen AFMF und Nvidias Frame Gen. AMD empfiehlt glaube ich 70 Nvidia 30 bis 40 FPS. In Cyberpunk oder Flugsimulator läuft DLSS3+ FG auch mit 30 FPS Basis absolut sauber, das ist doch gar nicht vergleichbar mit AMDs kaputter Treiberlösung.AMD (und auch NVidia) geben nicht ohne Grund eine empfohlene Mindestbaseframerate an.
Hier im Forum sind's doch 30% oder nicht?Die 4090 ist aber für weniger als 1% der Zocker da.
Ich finde den Sprung sehr groß, ein rasterbasierter Ansatz kann das nicht mehr leisten.Und Pathtracing ist zwar ganz nett aber es bringt im Vorzeigespiel schlechthin (Cyberpunk) lediglich ein kleines bischen hübschere Optik.
Frame Gen funktioniert in Cyberpunk absolut Bombe. Im Grunde immer dieselbe Argumentation, sieht keiner, kann keiner nutzen, Nvidias Frame Gen unausgereift, aber AMDs Frickellösung.Und die 100fps hast du mit unausgereifter Frame Generation.
Quelle?Nvidia empfiehlt 30 bis 40 FPS.