Battlefield 5: Relativ schnelles Raytracing auf einer Titan V

AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

1. Würden die Rt Kerne tatsächlich nicht laufen hätte AMD recht .
Über Software und Leistungs der Grafikkarte kann man es auch zum laufen bekommen!
2. Sollte die Kerne doch mit Rechnen, ist es noch ein harter und schwerer weg für den 2k und 4K Bereich .
3. Spiele Entwickler sollten besser aufhören an der Performance Schraube zu drehen. Lieber mal ein ordentliches Game abliefern.

Bei den Hardware Preisen gibts bald keine
Kunden mehr!!!
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Es heißt Raytracing abgekürzt also RT. Hört mal entlich auf es "RTX" abzukürzen :wall:. RTX steht lediglich für bestimmte Nvidia Grafikkarten :schief:.
Richtig und eigentlich ist RT nur der Name unter Nvidia im allgemeinen heißt es DXR da es eine API von DX12 ist, aber es wird ja von jedem der die RTX Karten kauft als Nvidias Heiliger Gral an gesehen.

AMD wird auch noch Karten mit RT bringen dafür muss es aber Massen tauglich sein was es noch nicht ist.

Gesendet von meinem RNE-L21 mit Tapatalk
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Edit: @Ceres du hast doch eine. ;)

Ja und langsam komme ich auch dahinter wie der, in der News erwähnte, User auf solche Fabelwerte kommt.
Also im Best-Case habe ich auch (etwa) die angegebenen Werte.
Das ist dann aber wie gerade erwähnt in Szenen in denen rein gar nichts von RTX Effekten zu sehen ist.
Sobald massig Rays berechnet werden, würde ich das Spielerlebnis eher als durchwachsen bezeichnen :ugly:
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Ja und langsam komme ich auch dahinter wie der, in der News erwähnte, User auf solche Fabelwerte kommt.
Also im Best-Case habe ich auch (etwa) die angegebenen Werte.
Das ist dann aber wie gerade erwähnt in Szenen in denen rein gar nichts von RTX Effekten zu sehen ist.
Sobald massig Rays berechnet werden, würde ich das Spielerlebnis eher als durchwachsen bezeichnen :ugly:

Die Frage ist, wie es auf einer 2080(ti) im Vergleich aussieht. Vielleicht ist es dort auch nicht viel besser.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Ein anderer User (RTX2080Ti) hat meine Screenshots (alles Worst-Case) bei sich nachgestellt und ist auf etwa 60fps gekommen.
Leider hat er keine Screenshots dazu eingestellt.

d.h. wenn ich ca. 40fps hatte waren es bei ihm 60fps.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Ja und langsam komme ich auch dahinter wie der, in der News erwähnte, User auf solche Fabelwerte kommt.
Also im Best-Case habe ich auch (etwa) die angegebenen Werte.
Das ist dann aber wie gerade erwähnt in Szenen in denen rein gar nichts von RTX Effekten zu sehen ist.
Sobald massig Rays berechnet werden, würde ich das Spielerlebnis eher als durchwachsen bezeichnen :ugly:

Nuja aber die Werte von dir sind ne Ansage. Mit ner 14 TFlops Karte geht dann ja schon was^^ Hat nur eben das selbe Problem wie die RTX-Karten. Wer kauft ne 13-15 TFlops Karte für sowas?^^ (also FHD mit < 144hz)^^ Die sind idR. teuer. Und interessant wäre auch wie sowas wie Vega oder ne 1080(ti) auf der Fallback-Layer Performen würden. TFlops hat Vega viel^^ Aber ob die dann was bringen^^
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Jetzt wird's unfair. Wir haben klar geschrieben, dass "zwischen den Jahren" Notbetrieb herrscht, da sogar wir mal Urlaub machen (müssen, rechtlich). Du kannst nicht von der Ausnahme auf die Regel schließen.
Ich sehe nicht wo es unfair wird. Die Hände in Unschuld waschen indem du wieder mit dem Urlaubsargument kommst ist albern. Ich bin selber Arbeitnehmer und kenne die rechtlichen Rahmenbedingungen. Es kann einfach nicht sein, dass ihr jedes Mal mit eurem Urlaub als Argument kommt um die Fehltritte der freien "Redakteure" zu entschuldigen! Macht klare Vorgaben wie ein Artikel auszusehen hat, legt fest, dass Gerüchte, Annahmen und Forenbeiträge möglichst nicht als Grundlage dienen sollten. Und legt fest, dass die Artikel sachlich statt provokant geschrieben werden sollen, damit im Forum nicht ständig die Fetzen fliegen.

Und auf Märchen basiert diese nicht.
Diese hier nicht, dafür mindestens eine vom 29.12.2018 ...
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Bullshit,
Ich habe letztens, hier im eigenen Forum, auch bestätigt das RTX auf einer Titan V funktioniert.
Aber die FPS die Tobi angibt sind einfach nur Utopisch.

Ließ sich auch auf meiner Titan V aktivieren, lief aber nicht gut, naja mal schauen was rauskommt, das war aber vor dem Patch.

Schaut man sich Nvidias Benchmarks zur RT Demo an ist diese News hier gar nichts neues.

Wie in der News steht, sind die RT Cores als fixed function units ja nur für einen Teil der Arbeit zuständig.

Jedenfalls sind das interessante Informationen, die vielleicht auch das Murren um zu wenig RT Cores ad acta legen.

Mal sehen was im Detail herauskommt.
Generell hat man bereits bei Volta schon die Architektur gegenüber Pascal aufgebohrt.

Einen Shitstorm sehe ich hier bisher aber nicht, bis die genaue Arbeitsweise nicht klar ist, wobei eigentlich ist wie üblich nichts dran.

Meh... Vielleicht lässt sich Raytracing aber dennoch auch auf AMD Karten performant berechnen, da müsste AMD mal in die Pushen kommen.
 
Zuletzt bearbeitet:
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Fetzen fliegen auch wegen so toxischen Usern wie dir. Sorry, aber ist nicht das erste Mal, dass ich mich über einen deiner Beiträge ärgere.

Grüße
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Die haben immerhin bestenfalls 4.096 ALUs, wenn auch ein anderes Caching-System. Fraglich ist natürlich, inwiefern DICE als Technologiepartner von Nvidia andere IHVs reinlässt.
Zu aller erst ist RT ein Compute-Workload und das NVidia besonders viele ALUs mitbringt, naja Sparsamkeit zahlt sich nicht immer aus. Sie optimieren lieber rundherum, anstatt einen gemeinsamen Standard daraus zu machen, wie es M$ anstrebt. Vulkan gibt es ja auch noch.

Leider kann Vega nicht das Maß der Dinge sein, AMD geht die Verbreitung oft anders an. 4096 ALUs in der Mittelklasse würden den Verbrauch ja derzeit auch explodieren lassen. Lassen wir uns mal überraschen.

Dice ist jedenfalls aufgeschlossen (so wie vermutlich alle anderen), warum denn nicht. Entwickler wollen das ihr Machwerk allen zu Gute kommt, gibt ja zuletzt auch mehr Kohle. Man scheint ja für den Ray Tracer an einer Softwareemulation gearbeitet zu haben.:)

Da die üblichen Verdächtigen wieder ihr "Hickhack" veranstalten wollen, schon mal einen guten Rutsch und ein gesundes neues Jahr 2019.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Am Ende gibt es gar keine RT Cores, und das ist alles mal wieder ein reiner Marketing-Fake.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Ich habe den Text mal umfassend ergänzt und die Tatsache, dass hier nur eine Vermutung aufgestellt wird, hervorgehoben.

Ihr überseht im Eifer der Erzürnung die spannende Idee hinter der Spekulation: Raytracing läuft offenbar prima über die ALUs, sofern man genug davon hat. Es wäre vielleicht sinnvoll, AMD etwas Feuer zu machen, dass sie ihre DXR-Implementierung veröffentlichen, sodass man auch Radeons mal testen könnte. Die haben immerhin bestenfalls 4.096 ALUs, wenn auch ein anderes Caching-System. Fraglich ist natürlich, inwiefern DICE als Technologiepartner von Nvidia andere IHVs reinlässt.

MfG,
Raff

Im Falle von VEGA wird es richtig interessant, denn deren CUs können ja sowohl FP16 als auch INT8 mit doppelter bzw. 4 facher Leistung berechnen. Zumindest die Tensorcores bei Nvidia berechnen ja ebenfalls in niedrigeren Genauigkeiten und somit könnte AMD z.B. beim Denoising über die ALUs sogar Vorteile haben, oder?
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Am Ende gibt es gar keine RT Cores, und das ist alles mal wieder ein reiner Marketing-Fake.

Und auch für dich schreibe ich nochmal

CeresPK schrieb:
Oder wir haben hier einfach nur herausgefunden das ein Entwickler noch nicht mit der neuen Hardware und/oder Softwareschnittstelle zurecht kommt.
Keiner hier kann abschätzen ob da nicht eventuell noch Leistung brach liegt.

Und eventuell weiß auch Nvidia selbst noch nicht richtig in welchem Verhältnis Anzahl der Shader und Anzahl der Tensor-Cores stehen müssen um bei aktuellen Hybrid-Renderern eine brauchbare Performance abzuliefern:
Aber halt, aktuell gibt es nur einen solchen Renderer...
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Fetzen fliegen auch wegen so toxischen Usern wie dir. Sorry, aber ist nicht das erste Mal, dass ich mich über einen deiner Beiträge ärgere.
Ich bin nicht toxischer als viele andere hier, vor allem provoziere ich nicht bei jeder erstbesten Gelegenheit. Und so schlimm kann es für dich am Ende anscheinend nicht sein, du weißt ja wo der Ignore Button ist.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Im Falle von VEGA wird es richtig interessant, denn deren CUs können ja sowohl FP16 als auch INT8 mit doppelter bzw. 4 facher Leistung berechnen. Zumindest die Tensorcores bei Nvidia berechnen ja ebenfalls in niedrigeren Genauigkeiten und somit könnte AMD z.B. beim Denoising über die ALUs sogar Vorteile haben, oder?

Vega64 - 25.2 TFlops - gesammte Karte ausgelasstet.
Rtx 2070 - 27 TFlops - Tensors
Wird wohl eher nix.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Irgendwie finde ich diese Schnellschussberichte, die ungeprüft rausgehauen werden, ohne eigene Nachforschungen angestellt zu haben, wenig hilfreich.
Das führt nur zu Streit hier und mehr klicks, wenn es das ist, was gewollt ist.

PCGH halt, natürlich ist das gewollt, die Fans sollen sich die Köppe kloppen (es reden ja schon genügend wieder voreilig von Beschiss) , dabei weiss man seit den Raytracing Demos, dass Volta dort auch sehr stark ist, ergo verwundert eine ähnliche Leistung einer Titan V kein Stück.

Die RT Cores sind doch in die GPCs integriert, die übernehmen doch nicht die komplette Arbeit sondern nur die BHV traversal.

Peinlich wird es für NVidia dann wenn Pascal in der Lage ist das auch performant berechnen zu können.
Ab dann riecht es sicherlich.

Aber ansonsten ist das wieder eine peinliche redaktionelle Leistung. Mich dünkt dass die zusätzlichen RT Cores die Geschwindigkeit gegenüber Volta ohne Shading vervierfacht oder verfünfacht haben, oder so ähnlich.

Aber nur weil man in einer Disziplin besser ist
, heisst das nicht dass die FPS dann sprudeln.
Die Folien hat man doch auch so noch halbwegs irgendwie im Kopf.
 
Zuletzt bearbeitet:
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Ich fände es viel interessanter herrauszufinden wie man die Device ID im Nvidia Treiber abändert damit BF V eine 1080Ti als 2080 Ti erkennt und man RTX on testen kann. :D Ihr könntet ja irgendwie nen Wettbewerb starten wo der erste der RTX auf einer GTX Karte ans laufen bekommt irgendwas gewinnt. ;)

ja das ist mal ein guter Einfall^^ Dann teste ich Ray Tracing mit 2x 1080Ti. Für 60 fps bei max out reichen wohl schon 2x1070 4K ohne RT
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Volta hat halt Tensorcores sowie auch Turing und NV hat schon zur Vorstellung von Volta etwas zum Thema KI und accurate real-time ray tracing gesagt, was durch die Tensorcores möglich werden solle. Es ist also anzunehmen, dass RTX Cores abgespeckte Tensorcores sind.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

Mh, die Disskusion gab es schon vor Wochen auf Reddit, aber am Ende ließ sich, mit tweaks, RT aktivieren im Spiel, aber tatsächlich aktiv war Raytracing nicht auf anderen Karten abseits der RTX Reihe.

Ohne handfeste Beweise das Raytracing auf der Karte aktiv ist, glaub ich da erstmal gar nichts, irgendwie erzählt da jeder mal was anderes.

Edit: Und damit mein ich nicht den Menüeintrag, der ließ sich, wie gesagt schon vor Wochen mit tweaks aktivieren, aber Raytracing war trotzdem nicht aktiv auf der Karte.
 
AW: Battlefield 5: Raytracing wird wohl ohne RT-Kerne berechnet

PCGH halt, natürlich ist das gewollt, die Fans sollen sich die Köppe kloppen (es reden ja schon genügend wieder voreilig von Beschiss) , dabei weiss man seit den Raytracing Demos, dass Volta dort auch sehr stark ist, ergo verwundert eine ähnliche Leistung einer Titan V kein Stück.

Die RT Cores sind doch in die GPCs integriert, die übernehmen doch nicht die komplette Arbeit sondern nur die BHVs.

Peinlich wird es für NVidia dann wenn Pascal in der Lage ist das auch performant berechnen zu können.
Ab dann riecht es sicherlich.

Es ist auch Beschiss. Da wird die neue Generation 30 Prozent teurer verkauft, mit Verweis auf die krasse neue Technik, und dann läuft das quasi auch auf dem Vorgänger. Nur der Treiber regelt. Ich freu mich schon auf den ersten Homebrew Treiber für AMD der das ganze besser hinkriegt.

Aber wenn das Grüne Auge in Barad Dur befiehlt, dann marschiert der Ork. Seine GTX 970 als Schild vor sich her tragend.
 
Zurück