Boh, das wird ja immer schlimmer. Die RTX Karten zielen wohl auf die neuen Gameworks Features.
GameWorks Ray Tracing Overview | NVIDIA Developer
Deswegen auch das vorgestellte Entwicklermodul auf der Siggraph.
Heist also, RTX für Gameworks und evtl. den neuen AA Mode.
amd wird nur noch vernichtet^^
Endlich wird AMD vernichtet, dann kann Nvidia seine Grafikkarten den Spielern zuliebe wieder günstiger machen.
Ja man setzt OC Werte gegen Standard Werte und beklagt sich über geringen Abstand, man sollte eben nicht Äpfel mit Birnen vergleichen, sondern jeweils nur untereinander. Genauso wie es bisher unklar bleibt, ob Turing tatsächlich besser und effizienter rechnet als Pascal, womit der reine SP Rohdaten Vergleich ohnehin hinkt. Das sehen wir seit Jahren zwischen AMD und nVidia Karten.Ganz einfach, weil man damit die Rohdaten in ein Verhältnis setzen kann. Außerdem bleibt unklar wie gut sich Turing dann übertakten lässt wenn er evtl. auf Kante genäht ist.
Also wenn da keine Performanceverbesserung durch das AA machbar sein wird bei den RTX Karten ist das eine ziemlich miese Nummer.
Karten die Raytracing nicht nativ unterstützen gehen in einen Fallbackmodus, der das zwar dann darstellt via Compute aber die Leistung dürfte unterirdisch sein.
Ergo, für alle ohne RTX auf der Karte werden diese Features außen vor sein.
Wenn die Leistungssteigerung jetzt in dem erwartenden Rahmen bleibt, gibt das kein Highlight hier. Da kann man auch seine 1080ti einfach prügeln.
Andereseits muss die Raytracing Technik ja auch irgendwie eingeführt werden, lohnenswert ist die Technik ja.Ob das jetzt unbedingt wieder mit Gameworks passieren musste sei mal dahingestellt. Da hätte man mit Microsoft auch direkt was zugängliches aufbauen können.
@SFVogt:Mehr weiß man aber auch schlicht nicht, stand heute.Worüber soll man sonst reden.
Es gibt Raytracing ja schon lange auch in Spielen - allerdings mehr in vorberechneten Varianten.
Nvidia versucht das Feature per Implementierung von Tensor Kernen zu pushen - auch wenn es diese Generation noch nicht für Echtzeit Berechnung reicht.
Adaptive TAA ist interessant, keine Frage - aber so lange das Feature auf die High End Karten beschränkt sein sollte, wird es ein Nischendasein fristen, bis wir in ein bis zwei Generationen Karten für unter 300€ auf dem Markt sind.
Das ist finde ich die interessante Frage: Wenn man quasi nichts wirklich weiß, warum muss man dann mit fragwürdigen Vergleichen und Vermutungen das Neue 'schlecht reden' statt etwas handfeste abzuwarten?!@SFVogt:Mehr weiß man aber auch schlicht nicht, stand heute.Worüber soll man sonst reden.
Das ist finde ich die interessante Frage: Wenn man quasi nichts wirklich weiß, warum muss man dann mit fragwürdigen Vergleichen und Vermutungen das Neue 'schlecht reden' statt etwas handfeste abzuwarten?!
Endlich wird AMD vernichtet, dann kann Nvidia seine Grafikkarten den Spielern zuliebe wieder günstiger machen.
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.Es gibt Raytracing ja schon lange auch in Spielen - allerdings mehr in vorberechneten Varianten.
Nvidia versucht das Feature per Implementierung von Tensor Kernen zu pushen - auch wenn es diese Generation noch nicht für Echtzeit Berechnung reicht.
Adaptive TAA ist interessant, keine Frage - aber so lange das Feature auf die High End Karten beschränkt sein sollte, wird es ein Nischendasein fristen, bis wir in ein bis zwei Generationen Karten für unter 300€ auf dem Markt sind.
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.
Nur ist es offensichtlich das viele das gerne in ein negatives Licht rücken, weil der Innovationsführer Nvidia ist und die meisten Nvidias Marktpraxis nicht mögen, mich eingeschlossen, aber die anti Raytracing-Haltung ist schon etwas arg künstlich.
Nvidia pusht Raytracing nicht nur durch Tensor-Cores, sondern noch durch zusätzliche Raytracing Hardware, welche sich um die Intersection kümmert und das Durchqueren der BHV beschleunigt.
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.
Nur ist es offensichtlich das viele das gerne in ein negatives Licht rücken, weil der Innovationsführer Nvidia ist und die meisten Nvidias Marktpraxis nicht mögen, mich eingeschlossen, aber die anti Raytracing-Haltung ist schon etwas arg künstlich.
Nvidia pusht Raytracing nicht nur durch Tensor-Cores, sondern noch durch zusätzliche Raytracing Hardware, welche sich um die Intersection kümmert und das Durchqueren der BHV beschleunigt.
Das galt und gilt aber für viele neue Rendertechniken. Tesselation wurde z.B. mit der Radeon 5870 bzw. GTX 480 eingeführt, und war lange Zeit kaum nutzbar und deshalb eben nur ein Feature. In Spielen wie Metro konnte man Tesselation dann anschalten, und "tiefe" Fußspuren oder etwas weniger kantige Pflanzen bewundern, aber mehr eben auch nicht. Und Mittelklassegrafikkartenbesitzer haben es einfach ausgemacht, weil eine GTX 460 in Metro bei angeschaltetem Tesselation einfach zusammengebrochen ist.Ich sage nichts gegen Raytracing an sich.
Wenn du meine Kommentare liest, wird dir das auch aufgefallen sein.
Ich seh nur nicht wirklich, dass ein "großer Push" kommen wird.
Die Rechenleistung ist schlicht bei weitem noch nicht da, wo sie für den Massenmarkt sein müsste, um aus Raytracing mehr als ein Marketing Feature zu machen.
Die 2080 wird die Hardware bekommen.
Wahrscheinlich noch die 2070.
Alles darunter... eher nicht.
[...]
Für alle anderen ist das noch ein unerreichbares Ziel.