Raytracing: Nvidia schaltet DXR ab der Geforce GTX 1060/6G frei

Da sieht man aber auch mal das die Turingpräsentation eigentlich zum Großteil fake war. BF5 hätte man genau so gut auch auf 1080Ti präsentieren können.
 
Keine Ahnung wie es euch geht, ich hab jeglichen Überblick darüber verloren wofür die RTX-Kerne jetzt genau da sind und warum der offizielle "Shader-Fallback" in DXR quasi rausgeflogen ist, wenn eh alles irgendwie auch ohne "Tensor-Kerne" geht.

Außerdem dachte ich, dass BF:V DXR nutzt und nicht RTX, wenn das per Treiber freischaltbar auf einer GTX läuft, müsste es doch auch auf jeder x-beliebigen "DX12-fähigen" Karte laufen - und sei es noch so bescheiden.
 
Da sieht man aber auch mal das die Turingpräsentation eigentlich zum Großteil fake war. BF5 hätte man genau so gut auch auf 1080Ti präsentieren können.

Würde ich so nicht sagen. Das RT in Battlefield 5 wurde mit vielen Patches weiter "optimiert" und nutzt andere Rauigkeitswerte als Cutoff und weniger Samples pro Pixel (merkt man besonders beim Wasser, welches mit jedem Patch mehr Artefakte zeigt). Interessant ist die Grafik wo gezeigt wird wie ein einzelner Frame gerendert wird. Im ersten Abschnitt wird der Raster Frame gerendert und im darauf folgenden, sehr langen Teil wird das RT berechnet. Man sieht ganz gut wie viel Zeit RT ohne RT Cores in Anspruch nimmt. Danach kommt das Denoisen des Frames, was anscheinend doch nicht wie von Nvidia zuerst kommuniziert, über die Tensor Cores läuft. Wie gesagt sind die Vorgänge vor und nach dem RT auf 1080ti und 2080 ohne RT Cores fast gleich, was Sinn macht da beide Karten in Spielen fast die selbe Leistung haben. Wenn man sich jetzt auf den RT Teil konzentriert sieht man das die 2080 schon ohne RT Cores nur die halbe Zeit für den RT Teil braucht. Der Sprung auf aktivierte RT Cores ist etwas unglücklich, da zusätzlich DLSS genutzt wird was die Gesamtmenge an Pixel reduziert. Wenn man davon ausgeht dass per DLSS die Renderauflösung je Achse halbiert wird, dann sollte der RT Teil nur noch 1/4 so lang dauern, mit den RT Cores ist es aber grob geschätz 1/8 bis 1/10, was eine 2-2,5x Beschleunigung ergibt.

Interessant ist zudem dass der Teil vor dem RT und nach dem RT fast gleich viel Zeit in Anspruch nimmt und das RT an sich mit aktivierten RT Cores sehr schnell ist. Wenn das Denoising noch nicht über die Tensor Cores läuft sondern über die Shader, könnte man da noch weiter optimieren. Das Denoising der Quake 2 Demo läuft zumindest über die Tensor Cores (wenn ich das richtig in Erinnerung habe).

Keine Ahnung wie es euch geht, ich hab jeglichen Überblick darüber verloren wofür die RTX-Kerne jetzt genau da sind und warum der offizielle "Shader-Fallback" in DXR quasi rausgeflogen ist, wenn eh alles irgendwie auch ohne "Tensor-Kerne" geht.

Außerdem dachte ich, dass BF:V DXR nutzt und nicht RTX, wenn das per Treiber freischaltbar auf einer GTX läuft, müsste es doch auch auf jeder x-beliebigen "DX12-fähigen" Karte laufen - und sei es noch so bescheiden.

RT geht komplett ohne RT und Tensor Cores und der Fallback Modus ist nicht aus DXR rausgeflogen. Dieser muss aber explizit von den Entwicklern und GPU Herstellern unterstützt werden. Was DXR und RTX angeht. RTX ist einfach Nvidias Umsetzung für die DXR API, so wie Freesync AMDs Umsetzung von Adaptive Sync ist. Theoretisch ist es wie gesagt auf allen DX12 Karten lauffähig aber die Entwickler müssen den Fallbackmodus in der API und die GPU Hersteller im Treiber aktivieren.
 
Da geht es hin, das letzte Argument für die überteuerten Tuoring Karten. Schleppen jetzt viel Ballast mit den jetzt genau ein Entwickler (Metro) benutzt hat. Der Rest wird in Zukunft gleich FP32 benutzen um auch Pascal und AMD zu erreichen. Was für ein Desaster.
 
Darf jeder selbst gern das hinein interpretieren was er möchte. :D :D

Ich sag mal so, bissel "verarsche" ist es ja schon. Wie man ja sieht geht´s doch. Auch wenn und das muss man nun einmal akzeptieren leider mehr schlecht als recht.
Ob gewollt oder ungewollt...muss jeder für sich interpretieren. ^^

Ich verstehe deinen Beitrag aber auch nicht ganz. Nvidia hat ja nie behauptet, dass RT nur auf RTX Karten gehen würde. Letztere haben halt zusätzlich noch Tensor Cores (denoising) und RT Cores (bouncing). Falls du also Rayttacing wie in Metro und BF5 verwenden möchtest, wirst du dann recht klar den Unterschied zwischen der ansonsten gleich schnellen Karten wie etwa 1080 Ti und 2080 erkennen.
Letztlich hilft das ganze Nvidia. Man sieht nun: Raytracing läuft auf allen Karten (auch AMD). Aber wenns mehr als eine Diashow sein soll kommt man derzeit (!) nicht um eine Turing herum.
 
Also im ersten Moment hab ich das nicht verstanden warum Nvidia das macht, aber eigentlich ist das eine ganz geile Art Werbung zu machen. Die werden ihre überteuerten RTX Modelle nicht los, die Fanboys die einfach alles kaufen haben schon zugeschlagen.
Jetzt kann man für viele andere Nvidia Nutzer am heimischen Bildschirm RT erlebbar machen. Aber natürlich mit dem Verlust vieler FPS, da wird es dann bestimmt den ein oder anderen geben der nicht mehr auf RT verzichten will und sich dann der FPS wegen eben doch eine RTX Karte kauft.
 
RT geht komplett ohne RT und Tensor Cores und der Fallback Modus ist nicht aus DXR rausgeflogen. Dieser muss aber explizit von den Entwicklern und GPU Herstellern unterstützt werden. Was DXR und RTX angeht. RTX ist einfach Nvidias Umsetzung für die DXR API, so wie Freesync AMDs Umsetzung von Adaptive Sync ist. Theoretisch ist es wie gesagt auf allen DX12 Karten lauffähig aber die Entwickler müssen den Fallbackmodus in der API und die GPU Hersteller im Treiber aktivieren.

Dachte ich hätte da mal was gelesen, dass der Fallback-Modus nur zu Testzwecken für Entwickler verfügbar wäre, aber wenn das nicht so ist, um so besser.
 
Da würde ich mir jetzt verarscht vorkommen, wenn ich wüsste ich habe mir sehr teures Silizium gekauft mit noch geringerem Mehrwert als vorher gedacht. Bitter.
Eine 2080Ti ohne RT als ka 1680Ti für maximal 700€, dann wäre die Welt in Ordnung.
 
Der Hammer wird erst noch kommen. Natürlich werden jetzt viele Spiele erstmal mit Raytracing Light entwickelt werden, denn die Nutzerbasis ist deutlich größer und es dürfte auch einfacher zu implementieren sein. Und jetzt stelle man sich vor BF6 kommt ähnlich gut Raytracing optimiert wie heute und bekommt dazu noch richtig fette Texturen. Da wird dann eine 1080Ti möglicherweise schneller mit Raytracing laufen als eine RTX 2080 mit nur 8GB Vram. Das muss man sich nach der Präsentation mal rein ziehen. 10x schneller als Pascal - 11elf - Muaahhh :D
 
Ich verstehe deinen Beitrag aber auch nicht ganz. Nvidia hat ja nie behauptet, dass RT nur auf RTX Karten gehen würde. Letztere haben halt zusätzlich noch Tensor Cores (denoising) und RT Cores (bouncing). Falls du also Rayttacing wie in Metro und BF5 verwenden möchtest, wirst du dann recht klar den Unterschied zwischen der ansonsten gleich schnellen Karten wie etwa 1080 Ti und 2080 erkennen.
Letztlich hilft das ganze Nvidia. Man sieht nun: Raytracing läuft auf allen Karten (auch AMD). Aber wenns mehr als eine Diashow sein soll kommt man derzeit (!) nicht um eine Turing herum.

Das stimmt, aber wieso dann das Feature nicht gleich für Pascal freigeben und uns allein mit der Mehrleistung von Turing überzeugen? Das wäre zumindest der "schönere" Schritt gewesen. ;)
 
Es sieht in der Tat danach aus, dass der Kunde seine Stimme durch den Nichtkauf von Turing erhoben hat und Nvidia in Zugzwang ist. Sollte für uns gut sein. Der Ganze proprietäre Mist von den Entwicklern und Herstellern soll weg bleiben. MS DXR, die Engine des Spiels und Ende. So verbreitet man dann auch neue Technologien sinnvoll. Vielleicht konnte Nvidia aber auch nicht anders handeln. Wenn wie bisher kolportiert die neuen Konsolen ebenfalls RT nutzen werden, und diese ja nunmal bekanntlich mit AMD HW laufen werden, war der zukünftige Weg vielleicht auch schon vorbestimmt hierdurch. Warum sollten sich die Entwickler neben DXR auch noch den Support für RTX antun bei einem Port bzw. Multiplattform Titel. Die Launch Titel für die nächste Konsolengen wird ja jetzt schon angestoßen. Da hat sich Nvidia vielleicht eine dicke Nase geholt beim Anklopfen bei den Entwicklern. Das ist reine Spekulation meinerseits, also bitte keinen Glaubenskrieg anfangen. Nvidia macht sowas aus Erfahrung eben nun mal nicht aus Nächstenliebe. Im Prinzip haben sie damit ja RTX begraben durch die Öffnung für 80% des Marktes zu DXR und nicht RTX.
 
Du solltest den Artikel nochmal lesen. Oder liegt bei dir ein klarer Unterschied bei 10% mehr Fps ?
Dazu brauche ich keinen Artikel mit unbestätigten Daten, wenn es unabhängige Benchmarks zwischen Volta und Turing gibt die teils eine (bis zu) verdoppelung der Performance zeigen in Szenen, wo Raytracing auch wirklich zum Einsatz kommt...
RayTracing in Battlefield V laeuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org (dort sind auch die Links zu den deutlichen Performancesprüngen)
Das stimmt, aber wieso dann das Feature nicht gleich für Pascal freigeben und uns allein mit der Mehrleistung von Turing überzeugen? Das wäre zumindest der "schönere" Schritt gewesen.
zwinker4.gif
Stimme ich natürlich zu (und man hätte auch gleich zeigen können wie groß der Perf. Unterschied ist. Es hängt halt immer davon ab, ob man die RT Cores auch ordentlich nutzt
 
Das ist mal wirklich eine interessante Neuerung. Da wird zwar Kalkül und keine Nächstenliebe hinter stecken, aber mir soll's egal sein ich bin echt gespannt auf die Benchmarks in Bf V und Metro mit den "alten" Pascals :)

Der Schritt wird auf jedenfalls zu einer breiteren Unterstützung von RT führen und vermutlich einige Leute anfixen doch ne Turing zu kaufen weil ihnen die RT Leistung ihrer Karten nicht ausreicht von daher ein recht cleverer Schachzug der sich für Nvidia lohnen könnte nachdem die Verkaufszahlen von turing momentan ja wohl hinter den Erwartungen zurückbleiben.
 
Der Hammer wird erst noch kommen. Natürlich werden jetzt viele Spiele erstmal mit Raytracing Light entwickelt werden, denn die Nutzerbasis ist deutlich größer und es dürfte auch einfacher zu implementieren sein. Und jetzt stelle man sich vor BF6 kommt ähnlich gut Raytracing optimiert wie heute und bekommt dazu noch richtig fette Texturen. Da wird dann eine 1080Ti möglicherweise schneller mit Raytracing laufen als eine RTX 2080 mit nur 8GB Vram. Das muss man sich nach der Präsentation mal rein ziehen. 10x schneller als Pascal - 11elf - Muaahhh :D

Größere Nutzerbasis? Die Verbreitung von RTX Karten liegt wohl immer noch im Promillebereich. So schnell wird sich das durch die starke Verbreitung von Pascal Karten auch nicht ändern.
 
Mmh, das ist ja mal der Hammer wie NVIDIA mal wieder die Kunden verarscht hat. Man braucht ja dringend die RT Cores.... nicht....

Was kommt als nächstes? Statt 6 GB hat die 1660 nur 5 Gb schnell angeschlossen? Würde ich denen zutrauen...
 
Zurück