Raytracing-Effekte werden bald Standard sein, glaubt Entwickler

Naja. Irgendwo muss man eben den Anfang machen. Ich gehe aber nicht davon aus, dass es "bald" gutes Raytracing gibt, sondern lege eher noch einen Zeitraum von 5 Jahren+ drauf (spätestens zum erscheinen der PS6 / XBox n), bis endlich "gescheites" Raytracing Verwendung findet und nicht nur 1-2 RT Effekte in Spielen (die man qualitativ auch noch ausbauen könnte, wenn die Leistung da wäre).

Der Release der PS5/XBox Scarlett wird natürlich den Anfang von Raytracing positiv beeinflussen und auch anschieben, da dann Hardware für die Masse vorhanden ist und nicht einfach für ein paar Computerspiele-Nerds, so dass es für die Spieleentwickler attraktiver wird.

Zudem fehlt mir die Verbreitung an HDR(R) Bildschirme/Spiele, welche die Ausgabe dank größerem Farb- und Lichtraum nochmals intensivieren könnten.
 
Zuletzt bearbeitet:
Zudem fehlt mir die Verbreitung an HDR(R) Bildschirme/Spiele, welche die Ausgabe dank größerem Farb- und Lichtraum nochmals intensivieren könnten.

Weil es da keine verbindung gibt bzw überhaupt geben KANN.
genauso wie HDR nichts mit der gegner-KI zu tun hat. raytracing ist nur ein Werkzeug um eben strahlen zu berechnen - wie diese dann ausgewertet werden - zB shading - ist dann wieder ein normaler Shader. RT liefert nur die Daten die der Entwickler spezifiziert - für einfache Spiegelung wird im hitShader der normale Shader aufgerufen und die berechneten 3 Werte (RGB) dann zurückgegeben um dann bei Ursprünglichen Strahl drauf addiert zu werden.
 
Spätestens 2021 wird...
- PlayStation RT unterstützen (Nov 2020)
- XBox RT unterstützen (Nov/Dec 2020)
- Intel's GPU RT unterstützen (2020)
- AMD's GPUs RT unterstützen (2020)
- Nvidia bereits die zweite Generation der RTX Karten haben (Mitte 2020)

Also da erwarte ich, dass RT langsam der Standard für AAA Games wird. Wenn auch erstmal nur optional.

Klar und auch nur in geringem Ausmaß (für volles RT brauchen wir locker nochmal 50x so viel Leistung)
Grade kleinere Teams profitieren übrigens von RT: während für Schattenberechnung, SSAO und Co viele Tricks brauchen, ist es bei RT ein einzelner Algorithmus der viele Daten auf ein Mal liefert In 5+ Jahren, werden wohl auch die Indiegames nach und nach RT einsetzen
 
Zur Verteidigung der Noir Demo, sind die Spiegelungen aber keine Fakes, die sind schon "origina"l raytraced, oder nicht?
Die Spiegelungen der Noir Demo beschränken sich auf glatte Spiegel mit ein wenig "künstlicher", also shadergestützer Refraction. Also das einfachste Szenario, bei welchen nur 1 Ray per Pixel verschossen werden muss, der auch nicht "bounced".
Wenn ich die technische Abhandlung dazu richtig erfasst habe, dann wird auch nur eine sehr vereinfachte Szene der Umgebung als "pseudo"- Beschleunigungsstruktur generiert,
so dass die Spiegelungen wenn auch offscreen (und das ist ja die Errungenschaft) dann aber doch in der Praxis nur mit qualitativen Einbußen dargestellt werden können.

Das wird man aber anhand der Demo dann schön analysieren können und die Unterschiede zu DXR Raytracing herausarbeiten können.
 
Zuletzt bearbeitet:
Die Konsolen haben kein hardware-RT sondern lediglich einen kleinen Cache - der hilft, ist aber ziemlich unwichtig im vergleich da so die Rechenleistung noch immer von den normalen Shadern erbracht werden muss.
Und was Shader-basiertes Raytracing an Leistung kostet ist seit vielen Jahren bekannt.
Die künftigen Konsolen haben das aber.

Denn so lange es auch auf anderer Hardware laufen muss bedeutet das das das Ganze Engine und Shader-Design auf einem Nicht-RT Ansatz aufbauen müssen und RT dann drüber gestülpt wird - mehr Aufwand, weniger effizient.
Und das sogar ganz deutlich.

jein - so einfach ists dann auch wieder nicht.
Die Giga-Ray angabe bezieht sich auf den idealfall - im Normalfall wird man davon nur einen bruchteil zur verfügung haben
Das ist das, was ich mit Kampf um die Shaderressourcen erwähnt habe. Zudem ergibt sich durch Rastern+RT ein ordentlicher Bandbreitenflaschenhals.
Im Visual Studio kannst Du die RT- Einheiten mal befeuern. Nach Abzug des DXR Overheads bleiben bei meiner 2080TI noch gut 8 Gigarays "echt" verschossene Strahlen über.
Deswegen sage ich - Die Raytracing bzw. BHV Traversal Einheiten sind nicht der Schwachpunkt.

- derzeit ist dieser, teils wegen treibern, großteil wegen den Engines selbst - absurd klein.
Exakt- Wieder Kampf um Ressourcen

Und mit 1 Strahl kann man nur Spiegelungen Berechnen wenn das ganze schon sehr ausgeklügelt funktioniert, die "Standard"-Variante benötigt 2 Strahlen. Dazu kommt noch - während die RT-Cores zwar unabhängig laufen können haben sie auch einen entsprechenden Stromverbrauch (Die RT-Cores allein können anscheinend das Powerbudget fast vollständig aufbrauchen).
Aufgrund des Flaschenhalses Bandbreite und belegte Shadercores ist im Augenblick oft das Gegenteil der Fall. Mit RT sinkt der Stromverbrauch meist leicht.

Realistisch sind dann eher ~20-30% der maximal-Leistung. Reicht noch immer für gute Spiegelungen in 4K aus.
Das ist genau die Quote bei der wir uns in aktueller Software durch Schwellwert- RT und Beschleunigungsstruktur in ungefähr bewegen.

Das ist so nicht richtig: Die RT-Cores können völlig unabhängig vom Rest laufen - deren Aufgabe ist nur die Berechnung der Schnittstellen. Was dann mit diesen Ergebnissen gemacht wird obliegt den Entwicklern. Bei BF5 zB werden die Strahlen 'relativ' spät berechnet und rufen dann wieder normalen Shader-Code auf.
Ja- Nur nützt Dir ein unabhängiger RT- Core nichts, wenn nicht vorher durch überwiegend FP32 (wonach auch die anderen Rechenaufgaben der Szenengenerierung gieren) die Beschleunigungsstruktur generiert wird.
Du kannst ja nicht auf irgendwas Strahlen verschiessen, was in der Karte noch garnicht als Szene bzw. deren Beschleunigungsstruktur vorhanden ist.
Und das meine ich mit Abhängigkeit bzw. dass in der Szenengenerierung einige Dinge erst synchronisiert werden müssen.

LG
Zero
 
Zuletzt bearbeitet:
Ja- Nur nützt Dir ein unabhängiger RT- Core nichts, wenn nicht vorher durch überwiegend FP32 (wonach auch die anderen Rechenaufgaben der Szenengenerierung gieren) die Beschleunigungsstruktur generiert wird.
Du kannst ja nicht auf irgendwas Strahlen verschiessen, was in der Karte noch garnicht als Szene bzw. deren Beschleunigungsstruktur vorhanden ist.
Und das meine ich mit Abhängigkeit bzw. dass in der Szenengenerierung einige Dinge erst synchronisiert werden müssen.
Ja - was der kleinste aufwand ist.
 
Die Spiegelungen der Noir Demo beschränken sich auf glatte Spiegel mit ein wenig "künstlicher", also shadergestützer Refraction. Also das einfachste Szenario, bei welchen nur 1 Ray per Pixel verschossen werden muss, der auch nicht "bounced".
Wenn ich die technische Abhandlung dazu richtig erfasst habe, dann wird auch nur eine sehr vereinfachte Szene der Umgebung als "pseudo"- Beschleunigungsstruktur generiert,
so dass die Spiegelungen wenn auch offscreen (und das ist ja die Errungenschaft) dann aber doch in der Praxis nur mit qualitativen Einbußen dargestellt werden können.

Das wird man aber anhand der Demo dann schön analysieren können und die Unterschiede zu DXR Raytracing herausarbeiten können.

Wenn ich die Ausfürungen von DICE damals richtig verstanden hab, wäre 1 Ray pro Pixel schon eine deutliche Steigerung im Vergleich zur Implementierung in BF V.
Damals hieß es, dass sie mehrere Pixel zusammenfassen und dafür dann 1 Ray drauf loslassen.
 
Kann man ja auch an AVX2 sehen - gibt es seit so vielen Jahren aber bisher wird es nur von sehr sehr wenigen Spielen genutzt und noch weniger vorausgesetzt obwohl es gewaltige Leistungssteigerungen bringen kann.

Das wird aber zu großen Teilen einfach an Abhängigkeiten im Code hängen. Das war bei "normalen" Anwendungen schon immer ein Problem mit SIMD.

Der aktuell genutzte "Ersatz" für Raytracing macht seine Arbeit doch noch ganz ordentlich. Gerade wo es mindestens 2 Bereiche gibt, deren Einfluss (mMn) auf die Immersion sehr viel größer ist. Zumindest von speziellen "Licht und Schatten" Spielen einmal abgesehen, die die Beleuchtung mit Abstand in den Fokus stellen. Und zwar meine ich die Geometrie/Komplexität von Objekten, sowie deren Oberfläche (Texturen).

Meine Vermutung steht weiter oben. ;) TLDR: Das Problem ist da immer weniger die Software oder die Hardware, sondern immer mehr das erstellen des Contents.

Und es ist halt eine unendliche Geschichte. Die alten semi-dreidimensionellen Spiele haben auch viel besser oder gleich gut gemacht wie die ersten echten 3D-Spiele. Soll halt weitergehen.

Es gibt in dem Sinne auch keine Echtzeit-Raytracing Grafik in Spielen im herkömmlichen Sinne. Wird es auch nie geben.

Mit solchen Aussagen wäre ich ja vorsichtig...
 
Wenn ich die Ausfürungen von DICE damals richtig verstanden hab, wäre 1 Ray pro Pixel schon eine deutliche Steigerung im Vergleich zur Implementierung in BF V.
Damals hieß es, dass sie mehrere Pixel zusammenfassen und dafür dann 1 Ray drauf loslassen.

Das ganze von Dice ursprünglich praktizierte Prinzip wurde komplett auf den Kopf gestellt.

Es gibt erstmal ein Testing, ob sich die Spiegelung innerhalb des Screenspaces befindet. Ist das der Fall, wird im Screenspace gerechnet- Also althergebrachte Methode.

Die Rays werden inzwischen nur noch abgeschossen, wenn sicher ist, dass die Reflektion Dinge ergänzen muss, die die Screenspace Reflektionen nicht befriedigend abdecken können.
Außerdem wird geprüft, ob ein Ray ausreicht (100% Spiegel) oder ob in schwierigen, weil rauhen Stellen dann doch mehrere Rays verschossen werden sollten.
Man konzentriert die Rays also nur auf die wichtigen Stellen.

Übersteigt die Anzahl der Pixel, die durch Rays beschossen werden müssen einen gewissen Prozentsatz der gewählten Auflösung, dann fängt das System an die Strahlenmenge aufzulockern.
Das ist das, was Du wohl damit meinst, dass dann auch mal zwei Pixel für einen Raybeschuss herhalten müssen.

LG
Zero
 
Zuletzt bearbeitet:
OK, für mich kann herkömmliches Echtzeit-Raytracing auch optimiert sein. Aber optimiert heißt für mich nicht, dass da noch Rastergrafikanteile drin sind.

Und damit heist für dich "optimiert" das was programmierer als "schwachsinn hoch 3" bezeichnen würden. Rasterisierung wird verwendet eben weil sie dermaßen Effizient ist. Auch bei 3D-Software im professionellen Bereich wird viel gerastert da für viele Sachen hier das exakte Ergebnis Erzielt wird und es dort um ein vielfaches Effizienter ist. Die Richtige technik für jede Aufgabe einsetzen und nicht Blindlings auf ein Buzzword setzen sonst hat es aber schon rein garnichts mit Optimierung zu tun.
 
Und damit heist für dich "optimiert" das was programmierer als "schwachsinn hoch 3" bezeichnen würden.

Komisch, ich habe mich das nicht sagen hören.

Auch bei 3D-Software im professionellen Bereich wird viel gerastert da für viele Sachen hier das exakte Ergebnis Erzielt wird und es dort um ein vielfaches Effizienter ist.

Gut, wenn Beleuchtung kein Thema ist, kommt man auch mit Rastergrafik exakt hin. Ich sage ja nicht, dass ein fließender Übergang nicht legitim ist oder dass der Übergang schnell passier oder überhaupt vollständig, aber ich würde nicht ausschließen, dass es mal einen signifikanten Anteil an rein RT-basierten Spielen geben könnte.
 
Zurück