Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

Ganz einfach, weil man damit die Rohdaten in ein Verhältnis setzen kann. Außerdem bleibt unklar wie gut sich Turing dann übertakten lässt wenn er evtl. auf Kante genäht ist.
Ja man setzt OC Werte gegen Standard Werte und beklagt sich über geringen Abstand, man sollte eben nicht Äpfel mit Birnen vergleichen, sondern jeweils nur untereinander. Genauso wie es bisher unklar bleibt, ob Turing tatsächlich besser und effizienter rechnet als Pascal, womit der reine SP Rohdaten Vergleich ohnehin hinkt. Das sehen wir seit Jahren zwischen AMD und nVidia Karten.
 
Also wenn da keine Performanceverbesserung durch das AA machbar sein wird bei den RTX Karten ist das eine ziemlich miese Nummer.
Karten die Raytracing nicht nativ unterstützen gehen in einen Fallbackmodus, der das zwar dann darstellt via Compute aber die Leistung dürfte unterirdisch sein.

Ergo, für alle ohne RTX auf der Karte werden diese Features außen vor sein.
Wenn die Leistungssteigerung jetzt in dem erwartenden Rahmen bleibt, gibt das kein Highlight hier. Da kann man auch seine 1080ti einfach prügeln.

Andereseits muss die Raytracing Technik ja auch irgendwie eingeführt werden, lohnenswert ist die Technik ja.Ob das jetzt unbedingt wieder mit Gameworks passieren musste sei mal dahingestellt. Da hätte man mit Microsoft auch direkt was zugängliches aufbauen können.

@SFVogt:Mehr weiß man aber auch schlicht nicht, stand heute.Worüber soll man sonst reden.
 
Also wenn da keine Performanceverbesserung durch das AA machbar sein wird bei den RTX Karten ist das eine ziemlich miese Nummer.
Karten die Raytracing nicht nativ unterstützen gehen in einen Fallbackmodus, der das zwar dann darstellt via Compute aber die Leistung dürfte unterirdisch sein.

Ergo, für alle ohne RTX auf der Karte werden diese Features außen vor sein.
Wenn die Leistungssteigerung jetzt in dem erwartenden Rahmen bleibt, gibt das kein Highlight hier. Da kann man auch seine 1080ti einfach prügeln.

Andereseits muss die Raytracing Technik ja auch irgendwie eingeführt werden, lohnenswert ist die Technik ja.Ob das jetzt unbedingt wieder mit Gameworks passieren musste sei mal dahingestellt. Da hätte man mit Microsoft auch direkt was zugängliches aufbauen können.

@SFVogt:Mehr weiß man aber auch schlicht nicht, stand heute.Worüber soll man sonst reden.

Es gibt Raytracing ja schon lange auch in Spielen - allerdings mehr in vorberechneten Varianten.
Nvidia versucht das Feature per Implementierung von Tensor Kernen zu pushen - auch wenn es diese Generation noch nicht für Echtzeit Berechnung reicht.

Adaptive TAA ist interessant, keine Frage - aber so lange das Feature auf die High End Karten beschränkt sein sollte, wird es ein Nischendasein fristen, bis wir in ein bis zwei Generationen Karten für unter 300€ auf dem Markt sind.
 
Es gibt Raytracing ja schon lange auch in Spielen - allerdings mehr in vorberechneten Varianten.
Nvidia versucht das Feature per Implementierung von Tensor Kernen zu pushen - auch wenn es diese Generation noch nicht für Echtzeit Berechnung reicht.

Adaptive TAA ist interessant, keine Frage - aber so lange das Feature auf die High End Karten beschränkt sein sollte, wird es ein Nischendasein fristen, bis wir in ein bis zwei Generationen Karten für unter 300€ auf dem Markt sind.

Stimm ich dir zu, mein Gedankengang war einfach das man mit dem ATAA eine Entlastung des Computeteils erreichen könnte, ergo die Berechnung dafür ausgelagert wird was die Performance deutlich steigern würde da der Computeteil nicht mehr das AA übernehmen müsste was ja massiv Leistung kostet.

Das ist aber eine reine, eigene Theorie.
 
Das ist finde ich die interessante Frage: Wenn man quasi nichts wirklich weiß, warum muss man dann mit fragwürdigen Vergleichen und Vermutungen das Neue 'schlecht reden' statt etwas handfeste abzuwarten?!

Macht doch keiner? Nur 16TFlops sind einfach nicht der burner, ganz einfach. Bleibt abzuwarten was die Arch Verbesserungen in der Praxis bringen. Ein verbesserter Durchsatz dürfte vor allem in UHD etwas bringen, sonst hören sich die Verbesserungen aber nicht bahnbrechend an. Kann mich aber auch täuschen, Nvidia ist ja immer für ne Überraschung zu haben.Egal in welcher Hinsicht.
 
Es gibt Raytracing ja schon lange auch in Spielen - allerdings mehr in vorberechneten Varianten.
Nvidia versucht das Feature per Implementierung von Tensor Kernen zu pushen - auch wenn es diese Generation noch nicht für Echtzeit Berechnung reicht.

Adaptive TAA ist interessant, keine Frage - aber so lange das Feature auf die High End Karten beschränkt sein sollte, wird es ein Nischendasein fristen, bis wir in ein bis zwei Generationen Karten für unter 300€ auf dem Markt sind.
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.
Nur ist es offensichtlich das viele das gerne in ein negatives Licht rücken, weil der Innovationsführer Nvidia ist und die meisten Nvidias Marktpraxis nicht mögen, mich eingeschlossen, aber die anti Raytracing-Haltung ist schon etwas arg künstlich.

Nvidia pusht Raytracing nicht nur durch Tensor-Cores, sondern noch durch zusätzliche Raytracing Hardware, welche sich um die Intersection kümmert und das Durchqueren der BHV beschleunigt.
 
Ist doch perfekt (für nVidia). Super neue Features für Workstations und nur leicht bessere Performance in Spielen. Da derzeit keine Konkurrenz in Sicht ist, kann man immer noch mit der schnellsten Karte prahlen, diese nochmals teurer anbieten, und die übriggebliebenen Pascals zu UVP-Preisen weiterverkaufen. Die Taschen werden weiter gefüllt, die Aktionäre freuen sich und wir Gamer sind mal wieder die gearschten. Yay! :ugly:

Ich hoffe echt, Intels neue Gaming-GPU taugt was. Mit AMD ist in den nächsten Jahren ja (leider) nicht unbedingt zu rechnen.
 
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.
Nur ist es offensichtlich das viele das gerne in ein negatives Licht rücken, weil der Innovationsführer Nvidia ist und die meisten Nvidias Marktpraxis nicht mögen, mich eingeschlossen, aber die anti Raytracing-Haltung ist schon etwas arg künstlich.

Nvidia pusht Raytracing nicht nur durch Tensor-Cores, sondern noch durch zusätzliche Raytracing Hardware, welche sich um die Intersection kümmert und das Durchqueren der BHV beschleunigt.

Ganz im Gegenteil, Raytracing ist ne geile Sache, dass das auch irgendwie erstmal in den markt gedrückt werden muss, dafür habe ich auch Verständnis.
Aber du bist doch sonst so detailliert.
Fassen wir mal zusammen, vorgesehen sind bisher Implikationen in der Unreal, Allegorithmic, Unity, Frostbite und "trommelwirbel" 3DMark Engine.

Als Effekte kommen die drei Gameworks Effekt sowie (evtl?)ATAA.
GameWorks Ray Tracing Overview | NVIDIA Developer

Wenn ich mir die Demo von Exodus aufmerksam anschaue, dann sehe ich auch noch einige Beleuchtungsfehler darin.
YouTube

Also, mal ernsthaft. 3d Mark ist geschenkt.
Unreal und Unity? Stangenware die meist von kleinen Entwicklern genutzt wird. Da ist man oft froh wenn die Performance allgemein halbwegs gut ist und es ohne Bugs läuft.Dort Rayttracing implementieren?

Frostbite wird wohl ein geiles Ergebnis abliefern, da bin ich von überzeugt.

Allegorithmic kenn ich nicht mal, weiß einer was dazu`?
 
Es ist natürlich offensichtlich das man nicht erwarten sollte, dass hier eine weite Verbreitung und eine tiefe Integration stattfinden wird.
Dafür bietet Nvidia auch mit ihrer aktuellen Marktmacht nicht ausreichend Boden.
Ohne ausreichenden Konsolensupport wird Raytracing in den nächsten Monaten bis Jahren primär ein extra Anhang sein.
Nur ist es schon verdammt cool wenn damit angefangen wird und die Grundbausteine gelegt werden.

Ähnlich wie VR, dass war 20 Jahre lang der Traum, seit wenigen Jahren gibt es endlich Consumerprodukte welche das Konzept umsetzen.
Die Welt erobert hat das aber auch noch nicht, aber es bewegt sich so vieles, von der Technologie, dem Preis etc.

Allegorithmic stellt Software für die Erstellung und Bearbeitung von Texturen dar.
 
Bin gespannt was die RT Cores bei Vray RT (ActiveShade), Mental Ray und GPU Rendering bringen, erwarte dort jetzt einen richtigen Boost :)
 
Ob es für Echtzeitberechnungen ausreicht kommt ganz auf die Szene und den Verwendungszweck von Raytracing an, immerhin hat Nvidia einen so großen Schritt nach vorne machen können, um das in greifbare Nähe zu pushen, dass ist wahre Innovation und fördert Konkurrenzdruck.
Nur ist es offensichtlich das viele das gerne in ein negatives Licht rücken, weil der Innovationsführer Nvidia ist und die meisten Nvidias Marktpraxis nicht mögen, mich eingeschlossen, aber die anti Raytracing-Haltung ist schon etwas arg künstlich.

Nvidia pusht Raytracing nicht nur durch Tensor-Cores, sondern noch durch zusätzliche Raytracing Hardware, welche sich um die Intersection kümmert und das Durchqueren der BHV beschleunigt.

Ich sage nichts gegen Raytracing an sich.
Wenn du meine Kommentare liest, wird dir das auch aufgefallen sein.
Ich seh nur nicht wirklich, dass ein "großer Push" kommen wird.

Die Rechenleistung ist schlicht bei weitem noch nicht da, wo sie für den Massenmarkt sein müsste, um aus Raytracing mehr als ein Marketing Feature zu machen.
Die 2080 wird die Hardware bekommen.
Wahrscheinlich noch die 2070.
Alles darunter... eher nicht.
Dazu fehlt es schon an der Rohleistung der Karten unterhalb einer XX70.
Und selbst bei der 2070 bin ich momentan eher skeptisch.
Wenn der 745mm² Profi Chip es gerade so auf 16 TF bringt. Wo soll dann ein kleinerer Chip landen, der irgendwie in das Budget von Endkunden passen soll?
Ja, es gibt den dicken Profi Aufschlag.

Aber selbst die Quadro P6000 hat maximal €7999 gekostet.
Da liegt die neue RTX deutlich drüber.

Ich würde nicht drauf wetten, dass wir Endkunden den dicken Chip vor dem Release der 2080 TI sehen.

Und selbst mit dem 745mm² Chip geht es zwar in eine gute Richtung, aber es fehlt die Rechenleistung im Bereich um €300, damit das Feature auch nur ansatzweise mehr wird, als ein Marketing Feature in ein paar AAA, oder Indie Spielen.

Vor ein, zwei Jahren sagte noch ein Entwickler (ich meine, es war wer bei DICE), dass es 21 TF braucht, um Raytracing gut umzusetzen.
Im High End könnten wir dank Tensor Kernen und Raytracing Hardware (was auch immer das sein mag) auf dem Wert sein - aber auch nur beim Raytracing.

Für alle anderen ist das noch ein unerreichbares Ziel.
 
Klingt einerseits geil, andererseits ernüchternd. Die Eckdaten lesen sich beeindruckend im Vergleich zu einer 1080 Ti, aber eben nicht im Vergleich zu einer GV100. Und letztere ist ja in Spielen nicht so der Bringer, wie man das von einem solchen Chip erwarten würde. Ja, es ist eine Workstation Karte und es gibt keine optimierten Spieletreiber, aber dennoch: Selbst der RTX 8000 Chip hat ja nur 20% mehr Shader als der "kleine" GP102, und dieses mal gibt es auch keinen Fertigungssprung um das ganze mit Takt auszugleichen (wie bei 980Ti ==> 1080).

Meine Erwartungen an die Consumerkarten halten sich daher in Grenzen. Aber die vorgestellten neuen Rendertechniken sind schon interessant, und ich finde es auch gut, dass nVidia versucht Raytracing in den "Mainstream" zu bringen :daumen:.


Ich sage nichts gegen Raytracing an sich.
Wenn du meine Kommentare liest, wird dir das auch aufgefallen sein.
Ich seh nur nicht wirklich, dass ein "großer Push" kommen wird.

Die Rechenleistung ist schlicht bei weitem noch nicht da, wo sie für den Massenmarkt sein müsste, um aus Raytracing mehr als ein Marketing Feature zu machen.
Die 2080 wird die Hardware bekommen.
Wahrscheinlich noch die 2070.
Alles darunter... eher nicht.
[...]
Für alle anderen ist das noch ein unerreichbares Ziel.
Das galt und gilt aber für viele neue Rendertechniken. Tesselation wurde z.B. mit der Radeon 5870 bzw. GTX 480 eingeführt, und war lange Zeit kaum nutzbar und deshalb eben nur ein Feature. In Spielen wie Metro konnte man Tesselation dann anschalten, und "tiefe" Fußspuren oder etwas weniger kantige Pflanzen bewundern, aber mehr eben auch nicht. Und Mittelklassegrafikkartenbesitzer haben es einfach ausgemacht, weil eine GTX 460 in Metro bei angeschaltetem Tesselation einfach zusammengebrochen ist.

Mit dem Siegeszug von DirectX 11 ist Tesselation Standard geworden, und heute ist es ein integraler Teil des Renderprozesses. Aktuelle Grafikbomben verwenden es in fast jeder Szene, abschalten kann man es wenn überhaupt nur noch über einen generellen Detailregler.

Ich denke mal so wird es mit Raytracing auch laufen. Ein am Anfang nettes Gimmick, das von wenigen Karten unterstützt wird, sich aber dann langsam zum Standard mausert. Aber eben erst in ~ 5 Jahren oder so, wenn jeder eine fähige GPU besitzt und das Feature auch auf Konsolen implementierbar ist.
 
Zurück