Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor

Nvidia hat wie erwartet die Siggraph 2018 dazu genutzt, seine neue GPU-Architektur Turing vorzustellen. Zum Einsatz kommt sie in entsprechenden, professionellen Quadro-Grafikkarten (Quadro RTX 5000, 6000 und 8000). Die in 12 Nanometer gefertigte GPU verfügt über 18,6 Mrd. Transistoren, ist gigantische 754 mm² groß und setzt im Maximalausbau auf 4.608 Shader-Einheiten, die bis zu 16 TFLOPS FP32-Leistung erreichen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Quadro RTX Turing: Nvidia stellt neue GPU-Architektur vor
 
in die Tabelle haben sich paar Fehler eingeschlichen

QUADRO RTX 5000

Die Size is wohl eher ~500mm²? (ebenso weniger Transistoren)

und 265Bit beim Speicher


oder wisst Ihr mehr und die QUADRO RTX 5000 ist ein stark beschnittener GTU102 und kein GTU104?
 
Da wird die neue Titan RTX wohl an der

19TFlop Grenze streifen oder leicht drüber liegen.

Da bin ich ja mal gespannt, ein Leistungsschub gegenüber meinen 14,7 TFlops wird es aufjedenfall geben :-)
 
Spannend!
Vermutlich wird Echtzeit-Raytracing das nächste große, leistungsfressende Ding in der Spieleentwicklung werden, neben immer höheren Auflösungen. Das angehängte Video mit Metro Exodus sieht schon sehr beeindruckend aus.

Aber beschwer sich mal einer über extra Speicherpreise bei Apple :D :D $3700 für 24GB DDR6 :D
 
Warum sollen die 10 GRay/s eigenlich nicht für echtes Raytracing ausreichen? Das wären bei 100 FPS schließlich immer noch 100 Millionen Strahlen pro Frame.
Bei einer Auflösung von 8,3 MP bei UHD wären das genau 12 Strahlen pro Pixel.
 
Warum sollen die 10 GRay/s eigenlich nicht für echtes Raytracing ausreichen? Das wären bei 100 FPS schließlich immer noch 100 Millionen Strahlen pro Frame.
Bei einer Auflösung von 8,3 MP bei UHD wären das genau 12 Strahlen pro Pixel.

Dürfte schon gehen, vor allem dann, wenn das Denoising gut funktioniert. Das Problem ist, dass man entweder Ruckeln oder "Bröseln" (jeweils in abstimmbarer Ausprägung) hat.

MfG,
Raff
 
Warum sollen die 10 GRay/s eigenlich nicht für echtes Raytracing ausreichen? Das wären bei 100 FPS schließlich immer noch 100 Millionen Strahlen pro Frame.
Bei einer Auflösung von 8,3 MP bei UHD wären das genau 12 Strahlen pro Pixel.

Weil die Strahlen ja nicht einfach von der Kamera zur Lichtquelle gehen. Das Abprallen an Oberflächen und eventuell mehrere Lichtquellen sind dann doch nicht zu vernachlässigen.
Denk dran, dass für das ILM Star Wars Filmdemo 4 Volta Karten in SLI liefen - und das waren keine 4k und auch noch bei einem streng vorgegebenen Ablauf, ohne mögliche Abweichung durch wechselnde Kamerapositionen.
 
Wobei man die 12 Rechenschritte pro Pixel für die Abprallefekte nutzen kann. Mehr als 2-3 Reflektionen braucht man eigentlich nicht, da dann das Licht zu schwach, bzw. zu stark gesträut ist.
 
Raytracing schön und gut, die 16 TFLOPS bei FP32-Formaten sind auf dem Papier nicht so prickelnd. Das schafft eine Titan Xp mit 2.083 MHz auch. Es wird also interessant, was Nvidia macht, um die Schlagkraft pro Einheit zu steigern, ansonsten wird das kein Im-Hier-und-Jetzt-Spielemonster. Rasterisierung wird nämlich noch viele Jahre an der Macht bleiben.

MfG,
Raff
 
Ist die Frage, welchen Takt die Gaming-Karten normal nutzen. Die Workstation-Karten laufen schon immer mit geringerem Takt und liegen jetzt schon bei um die 1,7 GHz.
 
Wobei man die 12 Rechenschritte pro Pixel für die Abprallefekte nutzen kann. Mehr als 2-3 Reflektionen braucht man eigentlich nicht, da dann das Licht zu schwach, bzw. zu stark gesträut ist.

Die Berechnungen gehen nicht von der Lichtquelle aus, sondern von der Kamera rückwärts zur Lichtquelle.
Also werden sowieso nur die Rays betrachtet, die auch beim Spieler ankommen.
Da kommen dann auch mal mehr als 3 bounces bei raus.
 
Jetzt also doch Raytracing. Das hätte ich nicht erwartet. Bin mal gespannt wie Turing im Vergleich zu Pascal liegt. Das ist für mich die spannende Frage.
 
Ist die Frage, welchen Takt die Gaming-Karten normal nutzen. Die Workstation-Karten laufen schon immer mit geringerem Takt und liegen jetzt schon bei um die 1,7 GHz.

Es kommt auch drauf an, ob die Spieler den aktuellen "Vollausbau" der Turing GPU mit 36 SMs (bei 128 Kernen pro SM) bekommen, oder ob da noch weiter beschnitten wird.
Der 745mm² Chip dürfte einigen Ausschuss bei der Produktion haben.
Den könnte man nicht nur in den kleineren Quadros, sondern auch bei den Spieler Karten nutzen.

Die Aktuelle Schallmauer beim Takt liegt ja bei knapp 2000 MHz.
Vielleicht schafft Nvidia es, die auf 2100, oder 2200 MHz zu heben.
Ich würde aber nicht auf viel mehr hoffen, da sich der Prozess kaum geändert hat.
 
Raytracing schön und gut, die 16 TFLOPS bei FP32-Formaten sind auf dem Papier nicht so prickelnd. Das schafft eine Titan Xp mit 2.083 MHz auch. Es wird also interessant, was Nvidia macht, um die Schlagkraft pro Einheit zu steigern, ansonsten wird das kein Im-Hier-und-Jetzt-Spielemonster. Rasterisierung wird nämlich noch viele Jahre an der Macht bleiben.

MfG,
Raff
Seit wann macht es denn Sinn eine max übertaktete Grafikkarte mit einer Grafikkarte bei Standard Taktfrequenzen zu Vergleichen? Der riesige GV100 hat doch schon gezeigt, daß sich dieser 12nm Chip an die 2GHz takten lässt. Dann dürfte das sicherlich auch auf den GT102 zutreffen. Womit der Vorsprung zu einem OC GP102 gewahrt bleibt.
 
Seit wann macht es denn Sinn eine max übertaktete Grafikkarte mit einer Grafikkarte bei Standard Taktfrequenzen zu Vergleichen? Der riesige GV100 hat doch schon gezeigt, daß sich dieser 12nm Chip an die 2GHz takten lässt. Dann dürfte das sicherlich auch auf den GT102 zutreffen. Womit der Vorsprung zu einem OC GP102 gewahrt bleibt.

Ganz einfach, weil man damit die Rohdaten in ein Verhältnis setzen kann. Außerdem bleibt unklar wie gut sich Turing dann übertakten lässt wenn er evtl. auf Kante genäht ist.
 
Zurück