Cryengine-Demo Neon Noir: Mit Raytracing in 1080p und 30 Fps auf der Radeon RX Vega 56

NOchmal, ich spreche nicht von DXR oder Raytracing generell, sondern Nvidias eigener Implementierung in Form von RTX.

Du sprichst in Rätseln, Harwdware eines IHV ist immer proprietär, ansonsten könnten sie gleich alle Unterlagen, Patente und Howto Dos per Github ins Netz stellen.

Das Argument, dass die RT-Cores effizienter als Unified Shader seien, könnt Ihr vielleicht in hundert Jahren bringen, wenn man 100% Pathtracing einsetzt.

Hast du für diese Aussagen ein Indiz oder irgend eine Quelle?
Aktuell sieht man bei vielen Strahlen recht deutlich wie viel die RT Cores herausholen, nämlich vor allem in Metro und Tombraider eine ganze Menge an Performance.
Bis man das ganze Bild in hoher Qualität in 4K raytracen kann, dauert es noch 10 oder 20 Jahre, allerdings benötigt man heute schon dedizierte Einheiten um den Vorgang zu beschleunigen.

Folglich sehe ich gar keinen Grund, warum AMD auf Kosten der deutlich wichtigeren Leistung für das bisschen Raytracing Die-Fläche opfern sollte.

Dann tritt AMD eben weiterhin auf der Stelle und deren Marktanteil fällt noch weiter ab.
Raytracing is the next big thing. Das haben AMD und Intel auch erkannt, deswegen arbeiten sie fieberhaft an Lösungen.

DXR ist ein DirectX-Feature, wo ist das denn bitte nicht proprietär?

Und somit für Intel, Nvidia und AMD zu nutzen.
Die Schnittstelle Directx12 ist an und für sich schon proprietär, aber darum ging es Rollora ja nicht.
Der meint ja, Raytracing gehöre Nvidia.
 
Zuletzt bearbeitet:
Sehe ich ähnlich, egal ob jetzt AMD, oder Nvidia.

Details und Auflösung runter, da ein bissel RT, dort nicht, dann wieder nur unter bestimmten Voraussetzungen, etwas tricksen dort, etwas anpassen da...

Das ist doch kein RT, das ist ein Mischmasch aus allen möglichen Tricktöpfen, dessen Ergebnis am Ende manchmal vielleicht sogar akzeptabel aussieht, aber eben nicht immer und je nach Situation und Einsatz, manchmal richtig derbe Grafikfehler produziert...

mfg
Vor allem hat Nvidia nie behauptet das RT ohne RTX nicht gehen würde, schlicht das man dedizierte Hardware dafür entwickelt hat und das als fundamentales Zukunftselement sieht wo dran man sehr lange gearbeitet hat. Für punktuelles Pathtracing braucht es nicht die "Erleuchtung" durch Crytek, die sind doch nur beleidigt weil Nvidia sie nicht mehr finanziert sondern jetzt AMD auf der Tasche liegen. Wenn allerdings einer RT nötig hat dann Crysis, Schläuche und Reflektionen die 3.:ugly:
 
Aktuell sieht man bei vielen Strahlen recht deutlich wie viel die RT Cores herausholen, nämlich vor allem in Metro und Tombraider eine ganze Menge an Performance.
Also primär führt Raytracing erst mal zu einem Verlust von Performance und ich würde eher sagen, dass die RT-Cores diesen massiven Verlust besser ausgleichen können als Unified Shader, aber trotzdem ist sehr fraglich, ob er im Verhältnis zur Optik steht.

Bis man das ganze Bild in hoher Qualität in 4K raytracen kann, dauert es noch 10 oder 20 Jahre, allerdings benötigt man heute schon dedizierte Einheiten um den Vorgang zu beschleunigen.
Sehe ich nicht so. Nvidia hat in der aktuellen Generation das Verhältnis von FP64, FP32, FP16, Int8 und Int4 durcheinander gebracht, zugunsten von FP16.
Bisherige Spiele haben aber vor allem FP32-Berechnungen gemacht und zudem lässt sich ziemlich effizient ein Verhältnis von 1:2:4 usw. herstellen, wie es beispielsweise AMDs Vega hat.

Das kann nur erfolgreich werden, wenn man die Hardware komplett auf Raytracing auslegen kann und dann müsste man die Leute, die die anderen elementaren Datentypen nutzen wollen, enttäuschen. Nur in einer Handvoll Spielen bringen diese Schaltkreise auf den RTX-Karten merkliche Vorteile.

Es ist also bereits sicher, dass sich RT in dieser Form nicht durchsetzen kann. Es macht die Grafikkarte unkompetitiv.
Es wird sich aber auf Unified Shadern durchsetzen. Da wird es eine Generation hinterherhinken als wenn man angepasste Hardware hätte. Aber es hat gute Gründe, warum man Unified Shader entwickelt hat, die keine Die-Fläche verschwenden und eben nicht mehr verschiedene, angepasste Schaltkreise verwendet.
So kann die Hardware auch weiterhin genutzt werden, um z.B. Videobearbeitung und Bildbearbeitung zu beschleunigen und bisherige Spiele performant zu rendern.
 
Also primär führt Raytracing erst mal zu einem Verlust von Performance und ich würde eher sagen, dass die RT-Cores diesen massiven Verlust besser ausgleichen können als Unified Shader, aber trotzdem ist sehr fraglich, ob er im Verhältnis zur Optik steht....

Das kannst dich schon bei Ultraeinstellungen von volumetrischen Nebel oder Wolken wie AC Odyseey oder Monster Hunter fragen. Die fressen dir auch gut 30% der Framerate weg. Da gibt es noch etliche Beispiele mehr die für etwas Optik immer mehr Leistung benötigen. Dazu braucht es also nicht mal Raytracing.

Aber wir sind halt an dem Punkt wo jede kleine optische Verbesserung gut Leistung frist sei es Fake-Effekte oder in Echtzeit berechnet.

Raytracing macht meiner Meinung nach bei Global Illumination am meisten her wie in Metro.
Es ist zumindest wesentlich auffälliger als paar Spiegelungen oder Schatten bei anderen Games.

Würde man anstatt Path-Tracing Minecraft auf die RTX Karten anpassen könnte man auch mehr als Full HD schaffen. Dort ist der Unterschied ja schnell zu erkennen zur Originalversion.

Wir werden schon paar Spiele mehr brauchen um zu sehen für welche Bereiche es sich richtig lohnt.
Aber der Weg wird dahin führen es immer realistischer berechnen zu wollen. Was nicht heißt dass man nicht mit Filter einen gewissen Artstyle erzielen kann.
Manche meinen ja Raytracing macht automatisch alles zu realistisch. Aber es lässt sich auch immer noch nachträglich bearbeiten.
 
Das sagt uns halt, daß es hier eine Softwareanwendung gibt, welche auf verschiedener Hardware simuliert werden kann. Und wer seine Software anständiger umsetzt, der verbraucht dann weniger Leistung.

Ich weiß jetzt da nicht, wer da mehr Geld zu Verfügung hat, moment, ich "gögel" mal. So 120 Millionen bei Crytech 2014, da die besten Zeiten hinter denen liegen dürfte es nun soviel oder weniger sein. Moment, mal schaun bei Nvidia. OH, 9,7 Milliarden! Da werden ein paar Hansel zum Optimieren von Software zu bezahlen sein?

Oder? Sag mal? :D
 
Also primär führt Raytracing erst mal zu einem Verlust von Performance und ich würde eher sagen, dass die RT-Cores diesen massiven Verlust besser ausgleichen können als Unified Shader, aber trotzdem ist sehr fraglich, ob er im Verhältnis zur Optik steht.

Sehe ich nicht so. Nvidia hat in der aktuellen Generation das Verhältnis von FP64, FP32, FP16, Int8 und Int4 durcheinander gebracht, zugunsten von FP16.
Bisherige Spiele haben aber vor allem FP32-Berechnungen gemacht und zudem lässt sich ziemlich effizient ein Verhältnis von 1:2:4 usw. herstellen, wie es beispielsweise AMDs Vega hat.

Das kann nur erfolgreich werden, wenn man die Hardware komplett auf Raytracing auslegen kann und dann müsste man die Leute, die die anderen elementaren Datentypen nutzen wollen, enttäuschen. Nur in einer Handvoll Spielen bringen diese Schaltkreise auf den RTX-Karten merkliche Vorteile.

Es ist also bereits sicher, dass sich RT in dieser Form nicht durchsetzen kann. Es macht die Grafikkarte unkompetitiv.
Es wird sich aber auf Unified Shadern durchsetzen. Da wird es eine Generation hinterherhinken als wenn man angepasste Hardware hätte. Aber es hat gute Gründe, warum man Unified Shader entwickelt hat, die keine Die-Fläche verschwenden und eben nicht mehr verschiedene, angepasste Schaltkreise verwendet.
So kann die Hardware auch weiterhin genutzt werden, um z.B. Videobearbeitung und Bildbearbeitung zu beschleunigen und bisherige Spiele performant zu rendern.

Das Problem ist aber das über die normalen Shader RT sehr viel langsamer ist. Man muss sich nur die Präsentation von Nvidia angucken wo gezeigt wurde wie viel Zeit pro Frame für welche Aufgabe genutzt wird. Der Unterschied zwischen RT über Shader und RT über RT Cores liegt bei ca. Faktor 8-10. Um mit Shadern dort hin zu kommen wo man schon jetzt mit RT Cores ist bräuchtest du eine GPU die um den Faktor 8-10 schneller ist als eine aktuelle und der Leistungszuwachs je Generation beträgt nur um die 30%. Man hängt also nicht 1 Generation hinterher sondern 30 Generationen. So Demos wie jetzt von Crytek oder die Umsetzung in Battlefield 5 laufen natürlich besser und brauchen erheblich weniger Leistung weil nur kleine Teilbereiche des Frames per RT gerendert werden müssen (da liegt man dann bei Faktor 2).
 
Raytracing macht meiner Meinung nach bei Global Illumination am meisten her wie in Metro.
Es ist zumindest wesentlich auffälliger als paar Spiegelungen oder Schatten bei anderen Games.

Zur Zeit hat man vor allem überhaupt keinen Vergleich von RT und der diversen Nicht-RT Methoden. Gerade bei GI und Schatten kann man auch ohne RT sehr gute Ergebnisse erzielen (und ähnlich schön FPS vernichten), die RT Spiegelungen haben den Vorteil, dass "korrekte" Spiegelungen auf beliebig geformten Flächen erzeugt werden können, das gab es bisher IIRC nicht.
 
In the Division 2 gibt es manchmal richtige Spiegel. Darin kann man sich selbst von hinten und total unscharf sehen. Wenn man das gleich in BF5 gesehen hat, würde man sich wünschen, sie hätten in The Division 2 alle Spiegel weglassen.
 
Zur Zeit hat man vor allem überhaupt keinen Vergleich von RT und der diversen Nicht-RT Methoden. Gerade bei GI und Schatten kann man auch ohne RT sehr gute Ergebnisse erzielen (und ähnlich schön FPS vernichten), die RT Spiegelungen haben den Vorteil, dass "korrekte" Spiegelungen auf beliebig geformten Flächen erzeugt werden können, das gab es bisher IIRC nicht.
Du kannst das, was gespiegelt werden soll einfach immer berechnen lassen, auch wenn die Kamera gerade nicht drauf zeigt. Das kostet mit zunehmender Komplexität halt exorbitant Performance. Deshalb nimmt man idR. nur eine statische Cubemap - die kann aber auf jede Oberfläche gespiegelt werden.

Zum Vergleich:
Cube Map Reflections
 
Zurück