Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Während eines Q&A hat eine Nvidia-Mitarbeiterin Informationen zu den kleinen Turing-Grafikkarten angedeutet. Demnach ist es möglich, dass die später kommenden Turing-Grafikkarten keine Unterstützung für (beschleunigtes) Raytracing erhalten werden. Außerdem sollen auch über die (Weihnachts-)Feiertage noch Pascal-Grafikkarten verkauft werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Was sollen die auch mit Raytracing, wenn die 2080Ti schon so dermaßen einbricht.
Dice muss ja schon die ganzen Effekte runterschrauben. Ist schön das Nvidia dies bringt, aber mit den bald erwarteten Karten ist das noch kein Zuckerschlecken, da @ Full HD schon die Framerate zu stark einbricht. Vielleicht kann der ein oder andere noch einen Schnapper machen bei den Pascal Karten demnächst, wann war Black Friday?
Edit: 22 November
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

War doch schon lange klar, dass es unterhalb der RTX 2070 weiterhin GTX heißen soll und die GTX 2060 wieder einmal nur maximal die halben Shader des vollaktivierten TU 104 haben wird, also 1536 und damit kaum an die 1070 heranreichen wird, was sie auf ein niedrigeres Preisniveau drückt, als viele befürchtet haben...
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

wenn RT wirklich so viel Leistung kostet macht es auf den kleineren Karten halt wirklich keinen Sinn.
Wobei es natürlich trotzdem schöner wäre wenn Nvidia die Entscheidung den usern überlassen würde,
es wäre ja auch eine gute Werbung für die schnelleren Karten denke ich.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Ich stimme überein, dass die Attraktivität für Raytracing derzeit noch überschaubar ist, wobei meiner Meinung nach dies nur der aktuelle Stand der Dinge ist. Man könnte ähnliches über RPM von Vega sagen, nur dürfte die Zukunft für Raytracing weitaus erfolgversprechender werden, wenn jede Oberklasse-Generation von Nvidia dieses Feature weiter entwickelt.

Die dafür wohl notwendigen GPU-Teile sind im Midrange und Low-Budget-Bereich preislich nicht realisierbar, weshalb mans eben gleich weg lässt. Die Käufer dieser Preisbereiche sind per se zu Abstrichen bereit, weshalb das nicht wirklich von Belang ist. Die Zukunft wird zeigen, wie gut Entwickler auf der einen (mit wohl Unterstützung von Nvidia) die Spiele entsprechend mit Raytracing aufpolieren und auf der anderen Seite Nvidia geeignete Hardware dann 2019+ veröffentlicht, um nach und nach die Rasterisierung abzulösen/zu ergänzen. Wie ihr ja in der aktuellen Ausgabe schreibt, ist es eh nur ein erster Schritt eines langen Weges mit sehr vielen Stellschrauben :daumen:
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wenn Raytracing für 60 fps @ FullHD für die 2080 Ti hin "optimiert" wird, dann sind doch schon die 2080 (es sei denn es stimmt, das diese die gleiche RT-Leistung wie die Ti haben wird) und 2070 zu langsam für aktiviertes Raytracing. Weshalb also die noch langsameren mit RT-Cores "belasten", wenn es am Ende eh nie eingesetzt werden kann (außer vlt. für ein paar Screenshots)? Das macht die Chips in der Produktion nur unnötig teuer, was die Gewinn-Marge reduziert.

Bevor ich die Auflösung reduziere, gehen die Details runter. Und Raytracing gehört zu letzterem.
Das scheint mir allgemein bei den allermeisten PC-Spieler die gängige Praxis zu sein.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

NVidia wird sich mit dem Fokus auf Raytracing bei einer überschaubaren Mehrleistung in allen sonstigen Szenarien durch die hohen Preise keinen Gefallen tun...
Wenn dann nicht mal die Mittelklasse Raytracing bietet, wohl auch wegen der grenzwertigen Leistungsfähigkeit bei Raytracing von den bisher vorgestellten Turing-Grafikkarten... Naja.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wenn Raytracing für 60 fps @ FullHD für die 2080 Ti hin "optimiert" wird, dann sind doch schon die 2080 (es sei denn es stimmt, das diese die gleiche RT-Leistung wie die Ti haben wird) und 2070 zu langsam für aktiviertes Raytracing. Weshalb also die noch langsameren mit RT-Cores "belasten", wenn es am Ende eh nie eingesetzt werden kann (außer vlt. für ein paar Screenshots)?
Wieso kommt eigentlich keiner auf die Idee, dass das Raytracing auch mit variabler Intensität eingesetzt werden könnte? Also mit einem (Ingame-) Regler von zb. 1-10, wobei man mit einer 2080Ti den Regler auf 10, mit einer 2070 auf 5, und mit einer 2050 auf 2 stellt.

Oder steht jetzt schon fest, dass die ganzen Spiele die RT unterstützen werden nur "RTX on" und "RTX off" erlauben? :hmm:
 
Zuletzt bearbeitet:
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wieso kommt eigentlich keiner auf die Idee, dass das Raytracing auch mit variabler Intensität eingesetzt werden könnte? Also mit einem (Ingame-) Regler von zb. 1-10, wobei man mit einer 2080Ti den Regler auf 10 stellt, mit einer 2070 auf 5, und mit einer 2050 auf 2 stellt.

Oder steht jetzt schon fest, dass die ganzen Spiele die RT unterstützen werden nur "RTX on" und "RTX off" erlauben? :hmm:
Das einzige was feststeht ist: die Turing-Karten sind... recht preisintensiv;)

Gruß
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wenn Raytracing für 60 fps @ FullHD für die 2080 Ti hin "optimiert" wird, dann sind doch schon die 2080 (es sei denn es stimmt, das diese die gleiche RT-Leistung wie die Ti haben wird) und 2070 zu langsam für aktiviertes Raytracing. Weshalb also die noch langsameren mit RT-Cores "belasten", wenn es am Ende eh nie eingesetzt werden kann (außer vlt. für ein paar Screenshots)? Das macht die Chips in der Produktion nur unnötig teuer, was die Gewinn-Marge reduziert.

Richtig, und wenn die 2080ti auch ohne rtx soviel schneller als eine alte 1080ti wäre, hätte es nvidia doch auch präsentiert...
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wieso kommt eigentlich keiner auf die Idee, dass das Raytracing auch mit variabler Intensität eingesetzt werden könnte? Also mit einem (Ingame-) Regler von zb. 1-10, wobei man mit einer 2080Ti den Regler auf 10 stellt, mit einer 2070 auf 5, und mit einer 2050 auf 2 stellt.

Oder steht jetzt schon fest, dass die ganzen Spiele die RT unterstützen werden nur "RTX on" und "RTX off" erlauben? :hmm:

Tehnisch bediengt, entweder simulierst du echtes Licht oder eben nicht.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

vor allem hatte die Lederjacke ja wohl oft genug betont: "Raytracing on" vs "Raytracing off"
aber ok, war ja nur Marketing Geschwätz. Demnach darf man ihm den Rest seiner Show aber auch nicht glauben. :P
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wieso kommt eigentlich keiner auf die Idee, dass das Raytracing auch mit variabler Intensität eingesetzt werden könnte? Also mit einem (Ingame-) Regler von zb. 1-10, wobei man mit einer 2080Ti den Regler auf 10 stellt, mit einer 2070 auf 5, und mit einer 2050 auf 2 stellt.

Oder steht jetzt schon fest, dass die ganzen Spiele die RT unterstützen werden nur "RTX on" und "RTX off" erlauben? :hmm:
Hatte ich so nicht aussagen wollen.

Aber das Ergebnis wird Grieselig, wenn die Intensität (zu stark) reduziert wird. Das zu korrigieren braucht auch wieder Rechenleistung.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

1. BF V benutzt kein RTX Framework, sondern den DirectX 12 eigenen Raytracing Pfad DXR.
2. RayTracing wird aus der Kamera gestartet und der Lichtstrahl "bounced" solange bis er auf eine Lichtquelle trifft.

Das vorzeitig abzubrechen würde also einfach bedeuten keine Reflektion. Nicht so geil.
Was man machen kann, ist man sagt statt 1920*1080 Strahlen schickt man nur 960*540 Strahlen raus und schaut was die Treffen. Ich denke mir die Spieleentwickler sind nicht dumm und werden schon Ansätze finden.

Fakt ist wie bei DX11 und Tesselation, die erste Generation ist dafür einfach zu schwach. Die neuen nV sind daher ein bisschen Leistungskrüppel. 40% Mehrleistung in normalen Spielen für 50% Mehrpreis.
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Tehnisch bediengt, entweder simulierst du echtes Licht oder eben nicht.
Ach, ist das so. Es wurde also nicht schon über eine Reduzierung der Auflösung der RT-Effekte gesprochen (unabhängig von der Auflösung des Bildschirms), um die Leistung zb. in einem Spiel zu erhöhen? Und es wird auch immer nur eine einzige Lichtquelle berechnet (sonst könnte man ja die Anzahl variieren)? ^^
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Wieso kommt eigentlich keiner auf die Idee, dass das Raytracing auch mit variabler Intensität eingesetzt werden könnte? Also mit einem (Ingame-) Regler von zb. 1-10, wobei man mit einer 2080Ti den Regler auf 10 stellt, mit einer 2070 auf 5, und mit einer 2050 auf 2 stellt.

Oder steht jetzt schon fest, dass die ganzen Spiele die RT unterstützen werden nur "RTX on" und "RTX off" erlauben? :hmm:

Da BF V als einer (wenn nicht gar) der größten Titel mit dieser Technik, wird für wirklich ALLE das RT gleichermaßen reduziert, gibt es anscheinend nur "an" und "aus"...
Ob es später mit mehr Erfahrung mit der neuen Technik vielleicht sogar einen mehrstufigen Regler gibt, könnte man zwar erwarten aber niemand (außerhalb nVs und einzelner Entwicklungsstudios) kennt die genaue Implementierung und daher ist das alles noch Glaskugel-lesen...
 
AW: Nvidia Turing: Kein Raytracing für Mittelklasse-Grafikkarten?

Ach, ist das so. Es wurde also nicht schon über eine Reduzierung der Auflösung der RT-Effekte gesprochen (unabhängig von der Auflösung des Bildschirms), um die Leistung zb. in einem Spiel zu erhöhen? Und es wird auch immer nur eine einzige Lichtquelle berechnet (sonst könnte man ja die Anzahl variieren)? ^^

Oder das man halt für bestimmte Reflektionen das Raytracing deaktiviert. Da sollten wie bei anderen Detaileinstellungen (z.B. Schatten oder Umgebungsverdeckung) durchaus Zwischenstufen möglich sein.
Das wäre auch bei BF5 besser Zwischenschritte einzuführen, als es gleich ganz herunter zu stufen. Schließlich kann man das Spiel auch mit kommenden Karten noch spielen, die dann eventuell genügend Leistung haben.
 
Zurück