Bin ich froh, das ich mir noch eine GTX 1080 Ti vor dem Launch von Turing gegönnt hatte. RTX das war wohl "NIX".
Wieviel die RT Cores bringen hängt von der Szene ab und wie viele Strahlen verschossen werden.
Das ist bei GI in Metro viel, ergo bringt es auch einen drastischen Zuwachs, bei Battlefield werden in der maximalen Einstellungen 40% des Bildes mit Raytracing abgetastet und wenn viele Spiegelungen zu berechnen sind, siehst du auch dort einen relativ hohen Performanceimpact.
Das hatte man ja damals bei den Tests TitanV vs. Titan RTX/2080 Ti bereits herausgefunden, dass es szenenabhängig ist.
Da stehen teilweise durchaus +50/60% auf der Uhr und anfänglich als die Strahlen noch gegen Geometrie verschossen wurde die gar nicht dargestellt wurde, war der Unterschied irgendwo bei 100% Mehrleistung.
Es lief auf meiner Titan V damals im Singleplayer nur mit 10 bis 15 FPS im Blätterwald.
Na dann wird Amd wohl was im köscher haben, aus nächstenliebe macht Nvidia selten was.
Die ganze Sache ist ziemlich peinlich.
Das einzige was peinlich ist sind die immerwährenden Schmähbeiträge der AMD Sympathisanten.
Es ist doch eine super Sache wenn diese Features auch für die alte Gen freigeschaltet wird, auch wenn es teilweise massiv langsamer läuft.
So verbreitert sich die Nutzerbasis und jeder Pascal Nutzer kann es aktivieren. Das ist ein super Schritt - denn es erhöht den Druck auf AMD endlich einen DXR Treiber zu schreiben.
Wenn man sieht, wie die Leistung von RTX Features in den Games bei den Turing Grafikkarten, mit ihren extra spezialisierten RT-Kernen einbricht, will man sich gar nicht vorstellen, was DXR bei der Leistung mit den Pascal Grafikkarten in den Games anrichtet.
Wenn nur wenig Strahlen verschossen werden, dann kann man das auch mit einer Pascal GPU, siehe analog Titan V performant berechnen.
Ich bin ja schon ziemlich Nvidia-kritisch, aber dass die RT-Cores in 2 von 3 Games dermaßen wenig Mehrleistung bringen (Battlefield V +~10% bzw. Shadow of the Tomb Raider +~20%), hätte selbst ich nicht im Traum erwartet. Noch mehr verwundert aber, dass Huang die Fakten so offen/schonungslos Preis gibt. Ganz freiwillig erscheint mir das momentan nicht.
Du bist nicht nur Nvidia-kritisch sondern reagierst einfach allergisch auf den schon oft diskutierten Fakt, dass RT Cores nur in Szenen mit relativ viel Raytracing-Einsatz die gewünschte Mehrleistung auch bringen.
Man erinnert sich zurück an die hanebüchene PCGH news wo unterstellt wurde, dass die RT-Cores gar nicht existieren, bzw. gar nichts bringen oder nicht genutzt werden.
Je nach Szene wird das in Battlefield und Tombraider werden die RT Cores
deutlich mehr Leistung bringen, weil Nvidia bei der Präsentation nicht die maximale Stufe genutzt hat, sondern sehr wahrscheinlich Mittel oder High, nicht ultra.
Warum? Weil die TitanV ohne RT Cores trotz Unterstützung bei Szenen in denen viel gespiegelt wurde 40% langsamer gerechnet hat.
Früher kam das Mainzelmännchen ja zwischen den Werbeblöcken und nicht darin vor... wie auch immer. Ohne Druck/Zugzwang glaube ich nicht, dass Nvidia den Kurs gefahren wäre.
Willst du jetzt behaupten, dass der Release der Crytek Demo vor ein paar Tagen Nvidia dazu bewegt hat, Raytracing für Pascal zu aktivieren?
Wenn überhaupt ist das nur eine grobe Vermutung, ohne jeden Beweis.
Ich denke viel eher dass Nvidia das gemacht hat um mehr Entwickler für das Feature zu gewinnen und die Entwicklung zu beschleunigen.
Da sieht man aber auch mal das die Turingpräsentation eigentlich zum Großteil fake war. BF5 hätte man genau so gut auch auf 1080Ti präsentieren können.
Genausogut ja nicht, das wäre dann je nach Szene nur halb so schnell gelaufen.
Der Shitstorm wegen der Leistung auf den RTX Karten war schon so groß und da willst du mir jetzt sagen, die hätten das auf Pascal präsentieren können?
Der Ganze proprietäre Mist von den Entwicklern und Herstellern soll weg bleiben. MS DXR, die Engine des Spiels und Ende.
Proprietär? Directx12 hat am PC Markt bezüglich aktuelle Games mit aktuellen Technologien eine Verbreitung von 99,999% usw., wieso sollen dann Schnittstellen wie DXR bitte wegbleiben?
DXR wird sich wie jede Directx Erweiterung verbreitet, ganz unabhängig von den Konsolen, welche wie die XBOX auch teilweise Directx12 nutzen.
Langfristig sollen alle XBOX Spiele auch am PC spielbar sein.
Mmh, das ist ja mal der Hammer wie NVIDIA mal wieder die Kunden verarscht hat. Man braucht ja dringend die RT Cores.... nicht....
Wo hat Nvidia jemals behauptet dass man für geringfügiges Raytracing eine Beschleunigung durch die RT Cores erzielt?
Jetzt überleg mal wieso sich die Frames in Metro bei GI verdoppeln. Weil man die RT-Cores nicht braucht?
Ich denke mal, da kommt ne richtig starke Umsetzung vom AMD auf Basis von mGPU, was die RTX Karten von Nvidia alt aussehen lassen wird.
Wo man jahrelang Multi GPU bei AMD stiefmütterlich behandelt hat und die Frametimes grundsätzlich bei Multi GPU jenseits von Gut und Böse liegen, kommt für einen Ansatz, der die entstehenden Latenzen zwischen GPUA und GPUB massiv erhöht, das Multi GPU Wunder?
Wie kann man als Entwickler eigentlich nur an sowas ernsthaft glauben?
Lol, als Besitzer einer RTX-Karte käme ich mir jetzt aber verarscht vor. Zum Glück hab ich mir keine gekauft
Eigentlich überhaupt nicht, denn es läuft auf Turing ja je nach Szene in Battlefield schon massiv schneller und ist in Metro doppelt so performant.
Dabei weiß man gar nicht welche Einstellungen Nvidia verwendet hat um RT auf Pascal zu zeigen. Bei Battlefield V weiß man schon dass die nicht die ultra Einstellung verwendet haben.
RTX ist bis jetzt nicht gezogen, ergo muss man die Verbreitung steigern. Gleichzeitig kann man aber nicht 50 Entwickler finanziell unterstützen. Das müssen die von alleine machen. Ergo schaltet man DXR für alle frei um die Entwickler zu animieren es in ihre Games einzubauen und RTX Käufer haben dann die (nicht immer, aber oft) überlegene Performance. Und Performance verkauft sich dann, wenn sie konsistent ist und nicht nur in zwei Games.
Ich denke die Performance wird unter maximalen Settings eigentlich immer recht deutlich überlegen sein.
Letztendlich wird es nur darauf angekommen wie es die Spielehersteller implementieren. Wenn nur ein paar low res Reflektionen mit 15% abgetastetem Bild berechnet werden oder so ähnlich, dürfte sich Turing nicht absetzen können.
Und das was Crytek da gezeigt hat, läuft sowieso auf jeder Grafikkarte (was klasse ist).
Das was Crytek da gezeigt hat, ist eine Demo und kein fertiges Spiel, das kann man überhaupt nicht vergleichen.
Zumal bei Kameraschwenks die nicht vorberechnet sind Denkpausen ergeben, bei Szenenwechsel sind das sogar mehrere Sekunden, in denen sich das Voxelgitter aufbauen muss.
Na und DLSS ist sowieso tot. Jeder, der sich halbwegs mit Bildbearbeitung auskennt, hat inzwischen herausgefunden, dass simples Upscaling+Schärfefilter gleich performt
So ein Unfug kann ja auch nur von dir kommen.
Ich glaube nicht, dass Nvidia da noch viel investiert. Man wird es als Buzzword noch ne Weile mitschleifen, aber das war's dann.
Die Entwicklung kann man da nicht absehen, aber AI basierte Kantenglättung ist ein Zukunftsansatz der nicht einfach wieder verworfen wird, das kann ich mir überhaupt nicht vorstellen.
Aha, kannst du lesen? BF V
profitiert Battlefield 5 dagegen kaum: Die Fps steigen in 1440p (Raytracing-Einstellung nicht spezifiziert) von knapp 60 auf gut 60 Fps
Und jetzt überlege mal, wieso die Raytracing-Einstellung nicht spezifiziert ist, andere aber bereits mehrfach Titan V mit 2080 Ti verglichen haben und die Ergebnisse deutlich zugunsten der 2080 Ti ausfielen.
RayTracing in Battlefield V laeuft (mit guten Frameraten) auch auf der Titan V | 3DCenter.org
56 zu 81 FPS und das unter RT=Hoch, nicht mal unter Ultra.
Wer weiß vielleicht werden in BF V die Raytracing Kerne überhaupt nicht genutzt?!
Natürlich werden sie genutzt, je nach Szene bringt das auch einen riesen Impact.