AW: Geforce 2018: Nvidia und Microsoft fördern Ray-Tracing in DirectX 12
ja stimmt. Ich hasse Screen Space Relections. Immer toll wenn Objekte im Vorgrund im Wasser in der Entfernung spiegeln
selbst früher hat man es besser geschafft. (Crysis)
Das ist eigentlich eher das Problem klassischer Cube Maps. Rein geometrisch sollten Screen Space Reflections korrekt sein, aber da man nur die Farben-, Tiefen- und Normaleninformation aus dem fertigen Frame nimmt, gibt es halt Probleme bei verdeckter oder allgemein nicht im Screen Space vorhandener Geometrie.
Siehe:
http://www.cse.chalmers.se/edu/year...omputer Graphics/Screen-space reflections.pdf
Ab S. 50
Natürlich zwingt mich niemand dazu, dies zu kaufen. Es wäre nur schön, wenn eine gewisse Verhältnismäßigkeit gewahrt bliebe.
Naja, Raytracing ist halt nicht eine Rendermethode, die aktuelle Grafikkarten mal so nebenher bewältigen können. Soll jetzt Nvidia die 2080 Ti für 200 € anbieten, nur damit du ein Feature nutzen kannst, das wahrscheinlich eh nur eine Handvoll Titel nutzen werden? Und der optische Zugewinn hält sich dann doch in Grenzen. Daher würde ich es eher so ausdrücken: wer das Geld hat, der kauft sich eine 2080 Ti, wer das Geld nicht hat, der spielt halt ohne Raytracing. Ich hab gehört, auch ohne RT können Spiele ganz ansehnlich aussehen.
Das AMD seine horrende Rohleistung bei aktuellen Rendertechniken oftmals nicht auf die Strasse bringt ist ja leider kein Geheimniss .Wenn dafür keine properitäre Hardware in Form der Tensorkerne benötigt wird könnte es interessant sein wieviel von der AMD Leistung bei Raytracing am Monitor ankommt .Leider wird das wohl so nicht in der Realität zu sehen sein wenn es wieder ein Gameworksteil wird .
Warum bringt denn AMD "seine Rohleistung bei aktuellen Rendertechniken nicht auf die Straße"? Und jetzt fang mir nicht mit FLOP/s an!
Eigentlich könnte man das AMD viel eher negativ auslegen: 100% der Spiele laufen aktuell mit Rasterisierung - und AMD richtet seine Aufmerksamkeit laut dir auf andere Rendertechniken?
Kann, muss aber nicht. Raytracing ist durchaus in der Lage auch andere geometrische Formen darzustellen, z.B. perfekte Kugeln. Die meisten Renderdemos auf YT verwenden das auch, denn Kugeln sind mathematisch wesentlich einfacher als Dreiecke (nur eine Position und ein Radius), und so auch für den Anfang wesentlich einfacher zu implementieren.
Da Raytracing aber vorerst nur ergänzend eingesetzt wird, hast du zumindest mttelfristig aber praktisch Recht.
Nebenbei: Rasterizing ist prinzipiell nicht auf Polygone beschränkt, sondern ist mit beliebigen "flachen" Objekten durchführbar, also z.B. auch Kreisen. Das macht bloß keiner, weil die Rasterizer in den GPUs das nicht können, die sind voll auf Dreiecke optimiert.
Nein, sorry, das stimmt nicht. Wie man eine Kugel darstellen kann, hat in erster Instanz nichts mit der Rendermethode zu tun und perfekte Kugeln kann ein Rechner so oder so nicht darstellen und wird es auch niemals machen. Der Grund, warum bei sehr feiner Geometrie Raytracing eingesetzt wird, ist, dass Raytracing besser mit der Polygonanzahl skaliert als Rasterisierung - und wenn ein Frame eh schon Einige Minuten bis Stunden rendert, dann macht es auch nichts mehr, wenn der durch die Geometrie 5 Minuten länger braucht. Daher nutzen einige Raytracing-Engines Mikrosubdivision, bei der das Modell so lange unterteilt wird, bis die einzelnen Polygone kleiner sind, als die Pixel des Ausgangsbildes. Das meinst du vielleicht.
gRU?; cAPS