Geforce RTX 2080: Raytracing-Support in Battlefield 5 und Shadow of the Tomb Raider

Ich versteh das doch richtig, dass eine Game Engine grundsätzlich Raytracing explizit unterstützen muss, damit das Feature genutzt werden kann oder?

Und ich gehe wahrscheinlich Recht der Annahme, dass eine etwas ältere Engine, wie z.B. der CryEngine Kern von Lumberyard das nicht tut?

Ich hoffe nur, die schlauen Köpfe bei CIG (Die Jungs, die immer ganz stolz darauf sind, dass alles "state of the art" und so gut oder besser als jeder andere Triple-A Titel sein muss) kommen jetzt nicht auf eine ganz GANZ dumme Idee......

Nvidia nutzt die DXR (DirectX Raytracing) Schnittstelle von Microsoft. Das heißt schonmal dass die Engine DX12 unterstützen muss, dann hat Nvidia zusätzlich noch seine eigene RTX Schnittstelle die Teil von Gameworks ist. Man kann das ganze nachrüsten indem man Gameworks in die Engine einbaut oder z.B. die Unreal Engine nutzt die in der neuen Version nativ RTX und DXR bieten wird. Wie es mit anderen Arten von Raytracing über DXR oder gar Raytracing ohne DXR API ausschaut kann man aktuell nicht sagen.
 
Wow jetzt schon 11 Spiele mit Raytracing (keine Ironie das ist durchaus ernst gemeint). Scheint sich ja sehr leicht implementieren zu lassen wodurch es bestimmt bald noch mehr Spiele anbieten werden. Ich finde es schon beeindruckend was damit möglich ist. Ich denke besonders Screenshots können davon sehr profitieren, da sie dann noch realistischer werden. Aber im allgemeinen muss Raytracing für mich erst noch beweisen was für einen Mehrwert es mir sonst als Spieler bringt. Bisher scheint es mir zu viel Leistung zu fressen, trotz der extra verbauten Technik in der RTX. Aber ich denke es ist ein guter erster Schritt in die richtige Richtung, sprich das RT für alle möglich wird ohne größere Einbußen.
 
Allerdings bin ich auch ganz sicher kein Käufer der kommenden Grafikkartengeneration, sondern wahrscheinlich erst von der darauffolgenden. Bis dahin hat sich die neue Technik hoffentlich bewähren können und auch die nötige Softwareunterstützung ist vorhanden.

Das hab ich damals auch von DX10 gedacht, als nach der GTX 8800 eigentlich nur Software in homöopathischen Dosen für DX 10 erschienen ist... Mal gucken, wie viele Grafikkartengenerationen es dauert, bis RT in der größeren Zahl der Spiele vertreten ist :ugly: Meine spontane (Kristallkugelgestützte) Vermutung sagt 2023 - 2025 - also eher so Richtung RTX 5080


[EDIT] Zitat von Golem aus 2006 - lässt sich fast schon wieder für RT hernehmen (abgesehen davon, dass wir über Mehrleistung nix wissen):

Ob es sinnvoll ist, jetzt schon 450,- bis 600,- Euro in eine Grafikkarte zu investieren, deren Funktionen vielleicht erst in fünf Monaten mit den ersten DirectX-10-Spielen genutzt werden können, erscheint angesichts des Wertverlustes immerhin zweifelhaft. Für den G80 sprechen außer der technischen Faszination dennoch die höhere Leistung auch bei schon erhältlichen Spielen und die gesteigerte Bildqualität.

GeForce 8800: DirectX 10, mehr Speicher und Strombedarf - Golem.de
 
Zuletzt bearbeitet:
Raytraycing wird übrigens in 10 oder 20 Jahren dann mal der Sargnagel für die Grafikkartenhersteller werden. Der Witz ist nämlich, das aus heutiger Sicht die Grafik nicht realistischer werden kann, als mit Raytraycing. Aktuell bringen die Karten nicht mal genug Leistung für ein ordentliches Hybridmodell. Aber sobald die Grakas Echtzeit-Raytraycing für das gesamte Bild mit einer Strahlendichte schaffen, die für ein von der Realität nicht mehr zu unterscheidendes Bild ausreichen, lässt sich nix mehr steigern. Sobald das möglich ist, kann man den Karten Mehrleistung verpassen und tolle neue Features einbauen - mehr als "alles" geht dann nicht mehr. Immerhin ein Lichtblick :schief:
 
@KaneTM: Die Physik bietet mehr als nur Beleuchtung. Was ist mit Dynamik? K.I. sollte man auch nicht vergessen.
 
Die Effekt von Raytracing sind ja ganz nett, aber mehr auch nicht. Ich habe mich Stellenweise im Stream schwer getan die Unterschiede zu erkennen. Und in der Action achten
doch eh nur die wenigsten drauf, ob jetzt die Schatten realistischer sind, oder sich ein Flugzeug auf dem Autodach spiegelt...

Raytracing hat bestimmt potenzial, das mit den aktuellen RTX Karten bei weitem nicht ausgeschöpft wird. Dafür sind diese zu langsam und (off topic) zu teuer.

greetz
hroessler
 
@KrHome: Es skaliert nicht bloß mit der Strahlendichte, welche nicht auf die Auflösung festgelegt ist. Man kann ja auch unterabtasten.
Das hab ich so auch nicht geschrieben. Ich hab geschrieben die Strahlendichte gibt die Auflösung des Effekts vor und im Bestfall entspricht 1 Strahl einem Pixel des Bildes - wobei man sicher auch Überabtasten könnte zwecks Antialiasing.

Es skaliert mit der Rekursionstiefe, mit dem Grad der Parallelisierung, mit der Auflösung der Boxstruktur, mit der Speicherbandbreite usw.
Wenn du das mit einer CPU machst, dann skaliert es linear mit der Zahl der Kerne.

unbenannt-png.1007008


Raytraycing wird übrigens in 10 oder 20 Jahren dann mal der Sargnagel für die Grafikkartenhersteller werden. Der Witz ist nämlich, das aus heutiger Sicht die Grafik nicht realistischer werden kann, als mit Raytraycing. Aktuell bringen die Karten nicht mal genug Leistung für ein ordentliches Hybridmodell. Aber sobald die Grakas Echtzeit-Raytraycing für das gesamte Bild mit einer Strahlendichte schaffen, die für ein von der Realität nicht mehr zu unterscheidendes Bild ausreichen, lässt sich nix mehr steigern. Sobald das möglich ist, kann man den Karten Mehrleistung verpassen und tolle neue Features einbauen - mehr als "alles" geht dann nicht mehr. Immerhin ein Lichtblick :schief:
Korrekt. Siehe auch das Performance Diagramm in meinem ersten Link oben (Rot - Rasterisierung, Grün - Raytracing). Es braucht eine hohe Einstiegsperformance, aber wenn die mal da ist, kann man praktisch alles damit machen. Dauert aber wirklich noch 20 Jahre, da nach 4K noch 8K kommt und wir derzeit nichtmal 1080p hinbekommen.

27-1080-4152485585-jpg.1007009
 

Anhänge

  • Unbenannt.PNG
    Unbenannt.PNG
    19 KB · Aufrufe: 137
  • 27-1080.4152485585.jpg
    27-1080.4152485585.jpg
    12,3 KB · Aufrufe: 140
Zuletzt bearbeitet:
@KrHome: Woher hast du das Diagramm? Ich habe eine deratige Skalierung auf der CPU nicht hinbekommen, vermutlich weil das Model sehr groß war und die Bandbreite limitierte.
 
Der Aufwand pro Ray (Zugriff auf die Datenstruktur) steigt logarithmisch mit der Anzahl der Dreiecke, ist aber proportional zur Strahldichte und Rekursionstiefe.

Wobei mein Ansatz sogar besser ist . Ich schaffe einen Zugriff mit O(1). Ich bekomme das hin über geschicktes Hashing und eine feste Anzahl von Dreiecken pro Box. Das kostest dann aber ordentlich Speicher.
 
Zuletzt bearbeitet von einem Moderator:
Zurück