Cyberpunk 2077: Das Technik-Interview - "Raytracing hat sich als ziemliche Herausforderung erwiesen"

"Cyberpunk 2077 scheint sich sehr gut für Raytracing zu eignen, wenn man bedenkt, dass es ziemlich viele saubere und glänzende Oberflächen, ...."

Ist das der Grund, weshalb in den neuen Gameplay Videos plötzlich vieles so sauber und glänzend wirkt?
YouTube
Bis auf die erste Szene wirkt das für mich wie ein Rückschritt im Artdesign und gefällt mir nicht wirklich. Für nicht RTX Nutzer ahne ich da nichts gutes...
 
Zitat: "Raytracing hat sich als ziemliche Herausforderung erwiesen"
Kann gar nicht sein!
Denn Jen-Hsun Huang wurde damals nicht müde immer wieder zu betonen: "It just works!" und er muss es ja schliesslich am besten wissen.
 
"Cyberpunk 2077 scheint sich sehr gut für Raytracing zu eignen, wenn man bedenkt, dass es ziemlich viele saubere und glänzende Oberflächen, ...."

Ist das der Grund, weshalb in den neuen Gameplay Videos plötzlich vieles so sauber und glänzend wirkt?
YouTube
Bis auf die erste Szene wirkt das für mich wie ein Rückschritt im Artdesign und gefällt mir nicht wirklich. Für nicht RTX Nutzer ahne ich da nichts gutes...



Sehe ich genauso. Leider ist Raytracing noch weniger ein Effekt dem man einfach draufsetzen kann, wie zB damals PhysX. Wenn man das Artdesign konsequent auf Raytracing auslegt, schauts ohne RTschlechter aus, als es müsste. Um GI mit RT komplett zu ersetzen, muss die Hardware noch deutlich leistungfähiger werden. Der Weg der mit RT von NV eingeschlagen wurde, geht wieder einmal vollkommen in die falsche Richtung. Da schafft man USPs in dem man ein proprietäre Feature zur Verfügung stellt, und damit sichs verkauft MUSS es besser aussehen, als die herkömmlichen Trixereien. Tut es auch im Normalfall. Aber eben nicht deutlich genug. Je weniger Mühe man sich sich bei den Fallbackmethoden gibt, desto besser ist natürlich der Unterschied erkenntbar. Demnach schauen RTX Spiele im Fallback fast zwangsläufig schlechter aus, als sie müssten.

Warum es imo in die falsche Richtung geht? CDP hats eh gesagt. Der Artist spart sich ein bisschen Arbeit. Dennoch sind ein paar indirekte Spiegelungen aktuell NICHT den Leistungsverlust wert, denn die zusätzliche Grafikqualität mit sich bringt. Warum ich das hier so konstatiere? Weil ich den Markt seit >30 Jahren beobachte und bei jedem Hype dabei war:

Wo ist denn nun PhysX oder 64xOGSSAA? Oder unoptimiertes 128xAF? Oder megafette Tessellation (Crysis Wasser)? Nirgendwo, weil man die Leistung lieber sinnvoll investiert hat. Das wird mit RT auch so lang der Fall sein, wie die Leistung der GraKa eine Rolle für die letztliche Darstellungsqualität spielt. Und das wird sie wohl auch noch in den nächsten 10 Jahren. Nochmal - man braucht kein NVidia für Raytracing. Pascal Gilcher macht schön vor, dass man RT sogar als 3rd-Party-Postprocessingeffect (mit Einschränkungen, da im PP nur der Screenspace / Depthbufffer herangezogen werden kann) realisieren kann. Dennoch schaut es kaum besser aus als manche anderen PP-GI-Effekte (eben wegen der Einschränkung auf den Screenspace). Na gut. Als Spiele Entwickler hat man da aber direkt Zugriff auf den Worldspace! D.h. könnte Raytracing ohne Einschränkungen auf verfügbare Hardware plattformübergreifend realisieren. Die unified Shadercores reichen technisch dafür heutzutage locker aus. Und dennoch machts niemand. Warum? Nicht, weils außer NV niemand gebacken bekommt (siehe Beispiel Quint-Framework, und das von einen Hobbyentwickler - der sich mit seinem Hobby zugegebenermaßen mittlerweile eine goldene Nase verdient) - sondern weil sichs aus Leistungssicht nicht rentiert.

Immer noch nicht überzeugt? Ok: Ambient Occlussion - ist auch nicht trivial zu implementieren. Eine Referenzimplementation existiert auch nicht - auch wenn NV das mit HBAO versucht hat - wars mal je nach Szenerie besser als SSDO, oder mal wieder nicht. Dennoch - jedes Spiel hat heutzutage AO in irgendeiner Form. Warum? Eben weil das BQ/Performanceverhältnis stimmt. Wenn das bei RT auch der Fall wär, hätten wir überall schon individuelle RT Implementationen.

Solang die RT-Cores nur Beiwerk sind und nicht das gesamte GPU Design konsquent auf RT ausgelegt ist, wird sich daran auch nichts ändern (siehe PhysX). Dass wir da aber noch nicht so weit sind, zeigt auch die Fehleinschätzung von John Carmack. Sein nächster Meilenstein sollte eine Voxelengine werden. Und wo ist die? Nicht da, weil die GPUs nach wie vor auf Polygonbasis arbeiten. Und so wirds mit RT auch noch die nächsten 5-10 Jahre sein. Auch wenn aktuell die Hypesau fleissig durchs Dorf getrieben wird...

Just my 200 cents ;-)
 
Zitat: "Raytracing hat sich als ziemliche Herausforderung erwiesen"
Kann gar nicht sein!
Denn Jen-Hsun Huang wurde damals nicht müde immer wieder zu betonen: "It just works!" und er muss es ja schliesslich am besten wissen.

Ja und Bill Gates hat gesagt, dass nie jemals irgendwann jemand mehr als 640kb brauchen würde.
U.S. News: Interview with Bill Gates (8/20/01)

Es wird halt immer wieder von einem gewissen Klientel versucht Jensen Huang durch fehlerhafte Unterstellungen in ein falsches bzw. schlechtes Licht zu rücken.
Leider wirft diese Behauptung aber eher ein schlechtes Licht auf diejenigen, die diese in die Welt setzen und munter als Fakt weiter verbreiten.

Ich betreibe mal ein wenig spoon- feeding:
Hier ist die Turing- Präsentation und die stelle an dem das legendäre "Everything/It Just Works" erklärt wird (Wer vorspulen will: Ab 39:50 - 41:45):
YouTube

Wer anhand dieses Videos und dem sehr eindeutigen Kontext in dem dieser und die folgenden Aussprüche fielen, daraus fantasiert, dass es ein Klax sei, dies in bis auf den letzten Milimeter rasterleistungstechnisch ausgelutschten AAA Titel einzufügen...
Tja- Der sollte mal in sich gehen und seine Auffassungsgabe oder wahlweise sein Fremdsprachenverständnis einer ordentlichen Prüfung unterziehen.

Bei it just works ging es von Anfang an um den technisch visuellen Aspekt/Vorteil von Ray Tracing.
 
Zuletzt bearbeitet:
Sehe ich genauso. Leider ist Raytracing noch weniger ein Effekt dem man einfach draufsetzen kann, wie zB damals PhysX.
Genau, weil Raytracing kein Effekt ist, sondern eine Rendertechnik. Oder denkst Du auch, dass Rasterisierung ein Effekt wäre?

Wenn man das Artdesign konsequent auf Raytracing auslegt, schauts ohne RTschlechter aus, als es müsste.
Was verstehst Du unter "Artdesign"? Das kann ich sowohl unter RT oder Rasterisierung aussehen lassen wie ich will. Obs dann physikalisch näherungsweise korrekt dargestellt wird, was ich da so fabriziere, steht auf einem anderen Blatt.

Um GI mit RT komplett zu ersetzen, muss die Hardware noch deutlich leistungfähiger werden.
Du kannst GI nicht mit RT ersetzen, sondern sie, die "globale Beleuchtung" entweder über Rastertricks annähern oder eben Strahlenbeschuss.

Der Weg der mit RT von NV eingeschlagen wurde, geht wieder einmal vollkommen in die falsche Richtung.
Raytracing ist ein uralt- Verfahren, an dem Du nicht groß rütteln kannst. NV schlägt da keinen besonderen Weg ein, weil dieser schlichtweg in vielen Teilaspekten schon vorgegeben war.

Da schafft man USPs in dem man ein proprietäre Feature zur Verfügung stellt, und damit sichs verkauft MUSS es besser aussehen, als die herkömmlichen Trixereien.
Tut es auch im Normalfall.
Aber eben nicht deutlich genug. Je weniger Mühe man sich sich bei den Fallbackmethoden gibt, desto besser ist natürlich der Unterschied erkenntbar. Demnach schauen RTX Spiele im Fallback fast zwangsläufig schlechter aus, als sie müssten.
Das ist eine reine Behauptung, die durch viele AAA Produktionen, die state of the art Rastertricks angewandt haben bereits widerlegt ist.
Im Gegenteil- 4A Games hat beim GDC- Techtalk sogar erwähnt, dass sie die Raytracing- Version absichtlich hinter ihren Möglichkeiten integriert haben, um kein zu großes Ungleichgewicht in Sachen Spielelebnis unter den Spielern zu schaffen. Stichwort:"Both versions must look good. / We didn´t want any version to be a loser/ It´s Exodus vs Exodus."
YouTube

Das Bessere ist nun einmal des Guten Feind. Gäbe es das RT Vergleichsbild nicht, hätten alle bei der Standardgrafik gejubelt, wie toll das nicht aussähe.
Somit liegt der Fall hier eher umgekehrt nämlich, dass das Potenzial von RT nicht voll ausgeschöpft wurde, um keine zwei- Klassen- Gesellschaft zu provozieren.

Schlimm genug, dass solche Maßnahmen inzwischen überhaupt getroffen werden müssen (siehe auch Downgrade von The Witcher 3, aufgrund mangelnder Leistung der Konsolen), weil es wohl genug Leute gibt, die den Gedanken mental nicht ertragen können, wieviel grafisch hochwertiger andere das Spiel nicht zocken könnten.
Gleichmacherei für den sozialen frieden :)
Schade, dass man da im vorauseilendem Gehorsam und im Angesicht des modernen Shitstorms inzwischen kapituliert hat und sich meist auf den kleinsten gemeinsamen Nenner herablässt.

Warum es imo in die falsche Richtung geht? CDP hats eh gesagt. Der Artist spart sich ein bisschen Arbeit.
Was wiederum nur ein kleiner Teilaspekt des Ganzen ist. Da spart sich eine ganze Menge von Departments einen Haufen Arbeit. Vor allem werden die Designer nicht in ihrer Kreativität gebremst und haben nicht 1000 Regeln zu befolgen, was sie nicht ins Level bauen dürfen, weil das dann rasterisiert schlecht/fehlerhaft aussieht bzw. ein zu großes Augenmerk auf die Unzulänglichkeiten lenkt. Von der sofortigen Überprüfungsoption des Szene im Viewport mal ganz abgesehen...
Allein das beschleunigt den ganzen Gestaltungsvorgang erheblich.

Dennoch sind ein paar indirekte Spiegelungen aktuell NICHT den Leistungsverlust wert, denn die zusätzliche Grafikqualität mit sich bringt.
Doch das sind sie für einige, weil es eben viele Satt haben, zwar in 4K und XY Hz zu spielen, das aber dann mit vermatschter, fehlerhafter Rastergrafik tun müssen, wo es dann noch deutlich eher ins Auge sticht, wenn die Fake- Effekte niedrig aufgelöst und oftmals fehlerhaft sind. Wofür kauft man High- Tech Grafikkarten?
Dafür dass man dann Glitches, Fehler und schlechte Qualität in 144FPS und 4K auf den Bildschirm schickt?

Zudem beschleicht mich immer weiter das Gefühl, wenn ich z.B. die Aussage "ein paar indirekte Spiegelungen" höre, dass Du tatsächlich nicht genau zu wissen scheinst, was RTRT überhaupt ist und was es macht.

Wo ist denn nun PhysX oder 64xOGSSAA? Oder unoptimiertes 128xAF? Oder megafette Tessellation (Crysis Wasser)? Nirgendwo, weil man die Leistung lieber sinnvoll investiert hat.
Oder einfach überall und inzwischen teils in den Engines aufgegangen, es umfassend benutzt wird und Du vielleicht einfach nicht ausreichend informiert bist?

Nochmal - man braucht kein NVidia für Raytracing.
Das hat auch nie jemand behauptet. Nur geht es damit im Augenblick alternativlos am schnellsten und mit in Relation dazu der höchsten Qualität.

D.h. könnte Raytracing ohne Einschränkungen auf verfügbare Hardware plattformübergreifend realisieren.
Technische Entwicklung verschlafen? Gibts schon- Ist für alle nutzbar. Nennt sich DXR oder Vulkan RT.

Die unified Shadercores reichen technisch dafür heutzutage locker aus. Und dennoch machts niemand. Warum? Nicht, weils außer NV niemand gebacken bekommt (siehe Beispiel Quint-Framework, und das von einen Hobbyentwickler - der sich mit seinem Hobby zugegebenermaßen mittlerweile eine goldene Nase verdient) - sondern weil sichs aus Leistungssicht nicht rentiert.
Oder weil bis auf NVIDIA bis jetz als einzige in der Lage waren eben eine entsprechende Leistung zur Verfügung stellen zu können, das ganze in spielbar zu erhalten.

Immer noch nicht überzeugt?
Wovon? Wieso überhaupt überzeugen?

Ok: Ambient Occlussion - ist auch nicht trivial zu implementieren. Eine Referenzimplementation existiert auch nicht
Doch- Damit kam Crytek um die Ecke. Die haben ihren Referenzcode sogar offen zugänglich gemacht. Kannst Dir jederzeit unter gamedev.net snippen.

auch wenn NV das mit HBAO versucht hat - wars mal je nach Szenerie besser als SSDO, oder mal wieder nicht. Dennoch - jedes Spiel hat heutzutage AO in irgendeiner Form. Warum? Eben weil das BQ/Performanceverhältnis stimmt.
Und Du denkst, dass das alles vom Himmel gefallen ist? Auch die unterschiedlichen SSAO Varianten wurden in ihrer Rechweite und Qualität über die Zeit weiterentwickelt und hatten gerade am Anfang einen deutlichen Impact auf die Performance.
Schau Dir mal unter Game-debate.com die prozentuale Verteilung bezüglich des Ressourcenhungers diverser Effekte bzw. derer Settings an.

Solang die RT-Cores nur Beiwerk sind und nicht das gesamte GPU Design konsquent auf RT ausgelegt ist, wird sich daran auch nichts ändern (siehe PhysX).
Wieso vergleichst Du eine Physik- Bibliothek mit einer Rendertechnik?

Dass wir da aber noch nicht so weit sind, zeigt auch die Fehleinschätzung von John Carmack. Sein nächster Meilenstein sollte eine Voxelengine werden. Und wo ist die? Nicht da, weil die GPUs nach wie vor auf Polygonbasis arbeiten.
Die Ansätze seiner Voxel- Engine waren richtig und charmant. Aber leider proprietär. Zudem hatte Carmack zwar immer geniale Ideen, jedoch haperte es dann oft an einem wichtigen Punkt, nämlich der schnellen Erstellung von Szenen bzw. eines gameready proofs eines Levels mit seinen Engines.
Das Kompilieren war jeweils die Hölle (habe das mal mit einer Rage- Map versucht) und das Datenaufkommen einfach schlicht nicht praxisgerecht.

Wer weiss- Vielleicht gibt es mit den neuen I/O Subsystemen der Konsolen eine Renaissance seiner Techniken.
 
Zuletzt bearbeitet:
Bei it just works ging es von Anfang an um den technisch visuellen Aspekt/Vorteil von Ray Tracing.
Aber nur in deiner Phantasie, es ging darum das einmal sauber implementiertes RTRT einfach automatisch funktioniert, um realtime Lichtausbreitungen zu imitieren. Vor allem auf Basis von RTX Grafikkarten.

Und was GI versus RT angeht, setzen beide auf ein direktes und indirektes globales Beleuchtungsmodell, wobei RTX auf ein "backward tracing Verfahren" setzt. Das hat auch seinen Grund, denn es ist vor allem für die direkte Beleuchtungssimulation leistungsschonender. Übrigens setzen beide Beleuchtungsmodelle auf Strahlengeometrie.

Das Problem an RTRT ist das, das backward tracing keine effiziente Methode ist, indirekte Beleuchtung unter 3D zu simulieren, da wird also genauso gefrickelt und von real kann man deshalb kaum sprechen. Da Ineffizienz in dem speziellen Fall langsamer bedeutet, sehen wir nur in sehr seltenen Fällen indirekte Beleuchtung unter RTX (max 3 Bonces aber nicht bei Reflexionen), was den Schluss zulässt das es ohne hybride Verfahren, deutlich schlechter aussehen würde als GI oder kaum lauffähig wäre.

Der Rest ist ja bekannt...DLSS usw.. Den Lichtenergieaustausch von Oberflächen, kann man also kaum simulieren. Und da kommt dann wieder eine Rendergleichung ins Spiel die altbekannt ist. Der Lichttransport und dessen Berechnung rein von der Leistung her, ist kaum real machbar. Es gibt Modelle, die würden aber solange laufen das ein Spiel zu Ruckelshow verkommen würde.

Es gibt also genauso Leute, die herunterbeten RTRT unter RTX wäre in jedem Fall real, auch nur in deren Phantasie. In der Natur breitet sich Licht, in einer forward Methode aus. Somit bleibt GI und RTGI eine reine Simulation.
 
Zuletzt bearbeitet von einem Moderator:
Aber nur in deiner Phantasie, es ging darum das einmal sauber implementiertes RTRT einfach automatisch funktioniert, um realtime Lichtausbreitungen zu imitieren. Vor allem auf Basis von RTX Grafikkarten.
Dir ist schon klar, dass Du mir mit dem von Dir verfassten Satz erst schreibst, dass ich mir das alles ausdenken würde, nur um mir dann im zweiten Halbsatz recht zugeben, oder? Oder ist die realtime Lichtausbreitung nicht der technisch Visuelle Vorteil überhaupt?
Weiter habe ich diesen Aspekt garnicht ausgeführt, wird in dem Absatz ja Hauptursächlich widerlegt, dass It just works so gemeint war, dass man es in jede Engine mit Knopfdruck integrieren kann.

Diesen Eindruck haben nämlich eher die Entwickler der ersten RTRT Titel (SOTTR, Battlefield V) erweckt, nachdem sie das ganze innerhalb von wenigen Wochen in ihren Engines lauffähig hatten.
Man kann Huang mögen oder nicht. Aber gelogen hat er, wie ihm aber viele unterstellen eben nicht, weil der Bezug von it just works sonnenklar ist (siehe mein Link).

Und was GI versus RT angeht, setzen beide auf ein direktes und indirektes globales Beleuchtungsmodell,
Naja GI ist der Ausdruck für ein Beleuchtungsmodell.
RT oder die Rasterisierung sind jeweils die aktuellen Renderverfahren mit welchen GI überhaupt erst in den Screenspace getragen wird.

Das Problem an RTRT ist das, das backward tracing keine effiziente Methode ist, indirekte Beleuchtung unter 3D zu simulieren, da wird also genauso gefrickelt und von real kann man deshalb kaum sprechen. Da Ineffizienz in dem speziellen Fall langsamer bedeutet, sehen wir nur in sehr seltenen Fällen indirekte Beleuchtung unter RTX (max 3 Bonces aber nicht bei Reflexionen), was den Schluss zulässt das es ohne hybride Verfahren, deutlich schlechter aussehen würde als GI oder kaum lauffähig wäre.
Du musst das globaler sehen. Gehts Richtung Multieffekt RTRT sind die Strahlen, die man z.B. durch eine GI verschiessen muss, für mehrere Auswertungen brauchbar. Das ist einer der Vorteile, dass Du andere Effekte (zB. ambient occlusion) quasi kostenlos on top bekommst. Damit ist der Rechenaufwand nicht vergebens.

Somit wird man bei RTRT, wenn sozusagen der break even erreicht ist, dass man grundsätzlich die Leistung erreicht hat, jeden Bildpunkt sagen wir noch 6-8 mal zu samplen, quasi alle Effekte ohne weiteren Leistungsverlust dazu (Spiegelungen, AO, Schatten, GI). Steigt die Leistung weiter kann man die Samplezahl erhöhen und/oder die Aggressivität des Denoisers runterschrauben.

Der Rest ist ja bekannt...DLSS usw.. Den Lichtenergieaustausch von Oberflächen, kann man also kaum simulieren. Und da kommt dann wieder eine Rendergleichung ins Spiel die altbekannt ist. Der Lichttransport und dessen Berechnung rein von der Leistung her, ist kaum real machbar. Es gibt Modelle, die würden aber solange laufen das ein Spiel zu Ruckelshow verkommen würde.
Genau da will man aber hin. Zumindest will man es annähern, was ja auch schon eben ausreichen würde. Denn da wiederum ist der Unterschied von 20 zu 200 möglichen Bounces kaum sichtbar und der Mehrwert gering, da der Anteil an Akkumulation zum letztendlichen Farbwert des Pixels auch mit jedem Bounce deutlich abnimmt, außer bei einem perfekten Spiegel, der trägt ca. 95% des Lichts weiter. Bei Haushaltsspiegeln sinds 85%-90%. Da ists dann beim 10ten Bounce auch schluss mit der Vernunft.
Siehe auch hier - Unendlich Foto & Bild | spiegel, menschen, spiegelung Bilder auf fotocommunity
Da kommt nach hinten nur noch "Plörre" raus, die man dann eben nicht mehr pixelgenau abtasten muss.

Es gibt also genauso Leute, die herunterbeten RTRT unter RTX wäre in jedem Fall real, auch nur in deren Phantasie. In der Natur breitet sich Licht, in einer forward Methode aus. Somit bleibt GI und RTGI eine reine Simulation.
Ja
 
Zuletzt bearbeitet:
Zurück