Dieselben Leute die lieber hohe FPS haben und in sinnvollen Abständen zum Monitor sitzen als bei einer Diashow Pixel zählen. ..
Ich sitze in vernünftigen Didtanzen vor meinem Monitor und msn erkennt dort keinen Unterschied beim Spielen ob 1440P oder 4K ja oft gar bei 1080P nicht swhr wohl aber zwischen den 30-60 fps@4k statt 144 oder 200+ bei 1080 P.
Außerdem erkenne ich -das liegt vielleicht leider daran, dass ich in der Natur wohne und oft draußen bin- den Unterschied zwischen einer Nachbildung von realistischen Beleuchtungen durch aktuelle Rasterizing verfahren und RT
Insofern ist es mir völlig egal wie viel Performance ein Feature frisst, wenn es dem Fotorealismus näher kommt. Was nämlich auch hier irgendwann der letzte kapiert haben wird: grafische Fortschritte werden ab jetzt immer kleiner und dennoch kostspieliger
Ich weiß nicht ob ich dich da korrekt verstanden habe.
Ich zb. spiele noch auf einem 27" 1080p-Monitor. Wenn ich darauf mit DSR@4k spiele, sehe ich schon einen sehr deutlichen Unterschied, und das obwohl ich einen "Herren-Schreibtisch" habe, den Monitor also nur dann mit den Fingern berühren kann, wenn ich mich ordentlich nach vorne beuge.
Ob das jetzt sinnvoller ist als ihn beim Zocken mit der Nasenspitze berühren zu können, keine Ahnung.
Bezüglich Bildrate: Ich bin, eigentlich schon immer, ein Low-FPS-Spieler. Auch mir ist die Bild- bzw. Darstellungsqualität wichtig, und auch wichtiger als FPS. Ob die Bildrate nämlich 60FPS oder 200FPS beträgt ist mir dahingehend "woscht", als dass die hohen Frames
mir keinen wirklichen Mehrwert bieten. Wenn ich mich zb. auf einem BF-Server mal auf die ersten Plätze geballert hab, waren da ganz sicher mehr Spieler mit deutlich höheren FPS hinter mir, als Spieler mit ähnlich niedrigen FPS wie bei mir. Von Single-Player-Games ganz zu schweigen. Hier reichen (mir) häufig wirklich schon ~30FPS, wenn die Bildausgabe halbwegs flüssig ist. Zumal Ruckler bzgl. Wahrnehmung in der Regel schon ganz gut von der ungleichmäßigen Bewegung der Spielfigur "geglättet" werden, zackige Linien, schlechte Texturen, oder ein unruhiges Bild (Treppchenbildung) usw. nimmt man hingegen deutlich schneller/leichter wahr.
Und genau hier ist das - aktuelle, und in meinen Augen - Problem von Raytracing. Momentan bietet es keinen wirklichen Mehrwert, kostet aber sehr viel Leistung. Diese Leistung würde
ich zb. lieber in zb. AA/DSR usw. investieren, einfach weil der optische Impact/die Immersion so für mich deutlich mehr ansteigen würde.
Und jetzt das zweite Problem von Raytracing: Realismus. In erster Linie soll die Grafik die Immersion anheben. Der Spieler soll durch eine bessere Darstellung einfach nur mehr/tiefer/intensiver "eintauchen" können - der Spielspaß soll ansteigen. Und genau hier ist der Knackpunkt: Es muß nicht zwingend echt sein, es muß sich für den Spieler nur
echt geil anfühlen. Und hier kann es durchaus passieren, dass das klassische (schon etwas aufwendigere) Beleuchtungsmodell weniger mathematisch korrekt/realistisch ist, sich aber besser anfühlt als "partielles" Raytracing. Oder dass die Differenz zwischen "qualitätsreduziertem Raytracing" und der klassischen Darstellung so gering ist, dass der Spieler lieber in einer 4x höheren Auflösung (4k statt 1080p) spielt, und auf (häufig ja auch nur peripher wahrgenommenes) "realistischere" Spiegelungen/Schattenwürfe verzichtet.
Man sagt ja auch, auf dem Weg zur "perfekten" Grafik kommt erst noch mal ein Punkt, an dem das Empfinden der eigentlich besseren Darstellung beim Spieler nach unten abfällt, bevor es dann am Ende wieder ansteigt. Es bringt also nichts für minimale Veränderungen massive Performance zu opfern, wenn diese minimalen Veränderungen entweder kaum bis gar nicht, oder sogar negativ, wahrgenommen werden.
Es kann also durchaus passieren, auch wenn ich es nicht hoffe, dass die kommenden Spiele hier nicht die Raytracing-Wunder bringen, die die Spieler (und auch Besitzer von RTX-Karten) sich wünschen. In der Geschichte der Computergrafik gab es eigentlich zu jedem neuen Killer-Feature eine ganze Reihe an "Demonstrationen" (Benchmarks, Tech-Demos, Spiele), welche direkt zum Release (bzw. schon davor) oder ganz kurz danach verfügbar waren. Nicht so beim Thema RTX-Raytracing. Hier sah es ja schon in den Reviews mehr als nur mau aus.
Nicht das ich falsch verstanden werde: Ich finde die RTX technisch super (den fehlenden Sprung beim RAM und die Preise aber shice^^), und ich finde auch Raytracing geil. Und ich hoffe hier auf enorme Sprünge in der nächsten Zeit. Aber ich habe so meine Zweifel, dass die erste Charge an RT-Karten hier so eine krasse Veränderung bringen wird, wie die Marketingabteilung von Nvidia "uns" verkaufen will.
Bei CPUs haben so viele User über Jahre immer und immer wieder gesagt "Also bis die Kerne mal genutzt werden, ist die CPU schon zu alt", dabei halten CPUs mittlerweile problemlos 5-7 Jahre und länger. Aber eine Grafikkarte altert hier sehr viel schneller. Von den zb. 24 Monaten "Premium-Lifetime" der RTX sind schon 2 Monate um. Ob da in den nächsten 22 Monaten wirklich so viel passiert? Und was kommt danach... wenn zb. eine RTX3080Ti am Start ist... wird das dann aktuelle RT dann noch gut mit einer 2080Ti laufen? Oder mit einer RTX 2070?
Hier sollte man mMn die Erwartungen an die aktuelle Raytracing-Hardware/-Technik vielleicht erstmal nicht zu hoch ansetzen. ^^