Rastern ist eine einzige große Trickkiste. Gestört hat sich daran nie jemand.
Rastern ist noch dazu ein gangbarer Spagat zwischen guter Grafik und toller Performance.
Dasselbe bei der unsäglichen Auflösungsdiskussion. Beim Rastern wird ein Großteil der Effekte nicht in der vollen Auflösung gerendert, stört dort auch niemanden. Mich interessiert einzig das Bild was am Ende auf meinem Bildschirm ankommt und da sieht Pathtracing in UHD inkl. DLSS Performance deutlich besser aus als Rastern nativ in UHD.
Mich interessiert vorrangig die Bildqualität.
Während man tolle Effekte haben kann, leidet das Bild unter Unschärfe und Instabilität.
Und daran ist nicht RT-RT schuld - Vernünftiges, "echtes" RT ist der Benchmark für Grafik.
Die Schuld liegt beim Leistungsmangel und den Methoden, mit welchen man so tun will, als ob man genügend Ressourcen für RT hätte. Schau dir mal die Screenshots weiter oben an, sogar dem Standbild merkt man schon das Upscaling/TAA an.
Frame Generation nutze ich persönlich auch nicht, allerdings ist das mit dem Rest auch nicht wirklich vergleichbar.
Frame-Generation ist auch eine besonders schlechte Methode um mehr FPS zu bekommen.
Wenn man FG braucht, dann hat man eine zu geringe FPS-Basis und entsprechenden InputLag.
Wenn man eine ausreichende Basis-Framerate hat, dann braucht man kein FG.
Dir ist klar, dass auch bei deinem Liebling Rasterization das "Compute later" Gang und gäbe ist?
Welches Rasterspiel verschlingt denn so viele Ressourcen, dass die kommenden GraKa-Generationen nicht in der Lage sind, es nativ ordentlich darstellen zu können?
Und warum ist das ein Problem? Bei Raster wurde seit jeher getrickst (SSR oder Cubemaps z.B.) und niemanden hats gestört, aber bei RT geht das auf einmal gar nicht. Scheinheiliges Argument.
SSR kann ich ausschalten, wenn mich das flimmern stört.
Cubemaps neigen nicht dazu, zu flimmern.
Generell kann ich die Grafikeinstellungen anpassen um die Leistung zu optimieren und bewege mich in einem recht breiten Rahmen, der es erlaubt Änderungen vorzunehmen, ohne direkt massive Verluste bei der Bildqualität hinnehmen zu müssen.
Bei Raytracing-Effekten hat man quasi keinen Spielraum, was die Qualitätseinstellungen anbelangt.
Entweder es sieht mit höchsten Einstellungen passabel aus, oder dir fliegt der Bildinhalt um die Ohren, nachdem du die Einstellungen etwas herabsetzt.
Sag mir, dass du keine Ahnung von DLSS und co. hast ohne mir zu sagen, dass du keine Ahnung von DLSS hast.
Das war bei Version 1 so, aber seit Version 2 wird da nichts per KI hinzugedichtet. Das wüsstest du, wenn du dich informieren würdest, anstatt stumpf zu haten
Deine Betrachtungsweise von Frame-Generation ist sehr interessant.
Artefakte gab und gibt es auch bei Rasterization, aber hey, das ist halt unser Liebling, ne?
Klar.
Raytracing ist super, es fehlt halt die Leistung um es ordentlich implementieren zu können.
Und der Leistungsmangel ist der Grund für meine Kritik.
Aber das will keiner hören.
Wie kommst du zu der Annahme? Weil das Spiel nicht die FPS liefert, die du erwartest? Oder weil du mit der 3060 nicht alle Regler auf Anschlag drücken kannst?
Nimm mal deine 4090 in die Hand und lass BMW drauf laufen - In UHD mit RT-RT ohne Tricks.
Anschließend können wir gerne über unsere Erwartungshaltungen sprechen, was FPS anbelangt.
In welchem Spiel ist das denn der Fall? Es gibt nichts, was nicht in 4K mit 60 FPS auf der 4090 läuft. Vor RT fähigen Karten waren 4K 60 FPS nicht mal mit Raster möglich, jetzt sind 4K 60 FPS auf einmal Schrott
Black Myth Wukong - 16FPS
Cyberpunk 2077 - 46FPS
Alan Wake II - 38FPS
Wenn du mal angucken möchtest, was deine Karte in einem echten RT-Szenario zu leisten vermag, dann render mal den Blender BMW-Test. Das ist dann wirklich echtes Raytracing, vollständig in Strahlen getaucht, kein Rastern, keine Tricks.
Du brauchst halt ~30 Sekunden per Frame, mit OptiX...
Aber hey, es sieht verdammt gut aus.