Gurdi
Kokü-Junkie (m/w)
Genau, die Blätter sind schuld, welche durch RT gar nicht dargestellt wurden...
Die Blätter haben die Rays gestört, das war das Problem.
Genau, die Blätter sind schuld, welche durch RT gar nicht dargestellt wurden...
Ich wäre für eine Neuauflage der Vodoo Karte!!!!
Hat man 2001 auch gesagt über Spiele die Shader vorraussetzen. Oh wait...Spiele können nicht von Grund auf für Hybrid Raytracing programmiert werden da die Basis zu klein ist. Es stellt damit einen gewaltigen Mehraufwand dar der extrem viel Aufmerksamkeit und Pflege erfordert.
Das tut sich doch kaum ein Entwicklerteam an wenn es nicht gerade die Dollars in den Arsch geblasen bekommt dafür.
Hat man 2001 auch gesagt über Spiele die Shader vorraussetzen. Oh wait...
Wenn es einen optischen Unterschied macht und man eine Killer-App hat, dann kaufen die Leute auch die Hardware. Das hat ID oft genug bewiesen
Die Blätter haben die Rays gestört, das war das Problem.
Oh doch. Dynamische Szenen wären ab 250 Millionen Rays möglich und unter Berücksichtigung des ausreichenden Aufspührens divergenter Rays. Statische Objekte ab 1 Million primärer Rays....wenn Hybrid-Raytracing derzeit einen größeren Aufwand darstellen würde als die Implementation von Pixelshadern anno 2001.
Sieht man auch an den nachträglichen Optimierungen die keine sind, sondern man hat schlichtweg die Raymenge reduziert.
Der Changelog den die Entwickler angekündigt und zur Verfügung gestellt haben, spricht nicht von einer Reduktion der Rays als einzige Optimierung, bin mir nicht mal sicher ob man die Rays überhaupt pauschal reduziert hat, sondern ob man nicht sogar mehr nutzt.
Ich wünsche für deine Behauptung das Vorlegen einer Quelle, ansonsten ist das wieder ein ellenlanger Beitrag mit lauter Unwahrheiten gespickt.
NVidia selbst hat mitgeteilt, dass zu viele Rays auf das Laub abgeschossen wurden (lese mal meinen obigen Post genauer, dann kommst du darauf warum), was zu einem Bug geführt hat.
Du kannst auch "klassische" GPUs über die ALUs raytracen lassen. Ist halt super langsam, aber ist prinzipiell machbar. Das ist ja das Tolle an programmierbaren Einheiten: Sie sind programmierbar. Nvidia hat das doch sogar in die Star Wars Reflections Demo implementiert und vorgeführt, um Pascal alt aussehen zu lassen. Ich kann das als Programmierlaie nicht sauber einschätzen, aber mich würde es wundern, wenn Hybrid-Raytracing derzeit einen größeren Aufwand darstellen würde als die Implementation von Pixelshadern anno 2001.
MfG,
Raff
Ja das geht. Unter UE4 konnte man auf schwächeren Systemen bis zu 11% mehr FPS generieren.Unter DX12 könnte ich mir auch eine mit einbezogene iGPU vorstellen.
Oder wäre das technisch Unsinn?
Und wenn man Geometrie entfernt, erhöht man die Raymenge?Ja, schon klar, dennoch behauptest du die einzige Optimierung sei eine Reduzierung der Rays, was ganz einfach zu widerlegen ist.
Man hat unter anderem auch inaktive Geometrie entfernt.
Da kannst du noch so mit Fachbegriffen um dich werfen, das ist einfach Bullshit.
Jeder kann Google benutzen...
Ja das geht. Unter UE4 konnte man auf schwächeren Systemen bis zu 11% mehr FPS generieren.
Und wenn man Gemotrie entfernt erhöht man die Raymenge?
Man schießt die Rays nur noch auf Objekte ab wo man denkt das es den meisten Effekt hat (Bild). In der Szene alles was rosa gekennzeichnet ist. Man kann das auch Effekthascherei nennen.
Nochmal, bleibe einfach in deinem Universum!