Raytracing-Performance auf RTX 2080 Ti: Leistungsverbrauch ist laut Remedy Entertainment hoch

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Raytracing-Performance auf RTX 2080 Ti: Leistungsverbrauch ist laut Remedy Entertainment hoch

Remedy Entertainment hat auf der GTC Europe über die Leistung von Raytracing in Spielen gesprochen. Eine RTX 2080 Ti benötigte in 1080p-Auflösung insgesamt 9,2 ms für die Berechnung von Spiegelungen und Schatten mit der Northlight-Engine. Das wäre mehr als die Hälfte der Zeit, welche die Berechnung eines Bildes bei 60 fps insgesamt dauern dürfte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Raytracing-Performance auf RTX 2080 Ti: Leistungsverbrauch ist laut Remedy Entertainment hoch
 
Raytracing-Performance wird wohl erst in der nächsten Generation ein brauchbares Feature, jetzt ist es eher ein Locktfeature, um zu zeigen, eh soll toll ist die Grafikkarte, die müsst ihr euch holen.

Bei 1000,-€ und so eine schlechte Raytracing-Performance, dass steht in keinem Verhältnis.
 
Und wieder erhebt sich für mich die Frage nach Sinn und Zweck einer RTX 2070? Für mich erschließt sich hier nicht das berühmte "most bäng for the buck".
Aber die Rt-Auslastung war ja zu berfürchten und wurde auch schon so stark vermutet.
Aber warten wir auf echte, unabhängige Tests.
Gruß T.
 
Bei 1080p und einer RTX 2080 Ti benötigten die Raytracing-Effekte insgesamt 9,2 ms Rechenzeit pro Frame. Zum Vergleich: 30 Bilder pro Sekunde entsprechen 33,3 ms (9,2 ms Mehraufwand würden hier 28 Prozent Mehraufwand bei der Berechnung bedeuten), 60 Bilder pro Sekunde entsprechend 16,7 ms.

Sorry, aber sagt das irgendwas aus? Also ok, der RT-Part verschlingt 9,2 ms Rechenzeit der RT-Cores. Warum wären jetzt bei 30 fps 28% Mehraufwand für die Berechnungen nötig?! Die Shader machen ein Bild in entspannten 33,33 ms zurecht, die RTs genehmigen sich freundliche 9,2 ms und nach 33,33 ms wäre das Bild da. 30 fps, passt. Und dann machen wir halt hoch auf 60fps, das schaffen die Shader sicher auch - während die RT-Cores in ihren 9,2 ms zwischendurch halt ihr Ding machen. 120 fps klappt mit 8,35 ms pro Frame dann eben nicht mehr, da die RT-Cores noch bei der Arbeit sind. Oder läuft das alles völlig und ganz anders? Warum sollte die RT-Zeit von 9,2 ms ein Mehraufwand sein?! Tun die RT-Cores denn irgendwas, wenn keine RT-Berechnungen laufen, so dass das insgesamt langsamer wird? Wenn ja, dann gibt der Artikel echt nicht her, was jetzt mit der Raytraycingleistung auf den Karten eigentlich ab geht, sorry.

[EDIT] ...oder muss die 9,2ms RT-Berechnung fertig sein, bevor die Shader mit der Arbeit loslegen können, bzw. startet erst, wenn die Shader fertig sind?!
 
Zuletzt bearbeitet:
Wie will man das eigentlich bei den Spiele-Tests machen? Reine Benchmarks die nur Raytracing oder nur Rasterization benutzen sind eine Sache, aber was bei Spielen die beides nutzen? Wie will man (bei 2070 bis 2080Ti) bei der Auswertung der Spiele-Benchmarks erkennen, ob da jetzt gerade die Rasterization bremst, oder das Raytracing? Gerade wo die TDP ja für "beide Parteien" gilt, also eine Szene mit wenig Raytracing der Rasterization mehr Leistungsaufnahme/Rechenleistung zugesteht, und umgekehrt.

Oder gibt es im Afterburner o.ä. eine Auslastungs-Anzeige jeweils für Ray und Raster?

Oder werden zukünftig alle Spiele (mit den RTX-Karten) einmal "normal" und einmal ohne Ray gebencht?
 
Vielleicht liege ich hier falsch, aber ist es nicht so, dass dieser Mehraufwand parallel abläuft?

Das machen doch die zusätzlichen Kerne.

Wenn mich nicht alles täuscht muss die Berechnung asynchron ablaufen. Aus zwei Gründen:
Erst wenn die Szene Fertig berechnet ist und alles an der richtigen Position ist kann Raytracing durchgeführt werden. Außerdem würde die Grafikkarte sonst viel zu viel Strom verbrauchen wenn beide Teile der GPU gleichzeitig auf Volllast laufen.
 
Sorry, aber sagt das irgendwas aus? Also ok, der RT-Part verschlingt 9,2 ms Rechenzeit der RT-Cores. Warum wären jetzt bei 30 fps 28% Mehraufwand für die Berechnungen nötig?! Die Shader machen ein Bild in entspannten 33,33 ms zurecht, die RTs genehmigen sich freundliche 9,2 ms und nach 33,33 ms wäre das Bild da. 30 fps, passt. Und dann machen wir halt hoch auf 60fps, das schaffen die Shader sicher auch - während die RT-Cores in ihren 9,2 ms zwischendurch halt ihr Ding machen. 120 fps klappt mit 8,35 ms pro Frame dann eben nicht mehr, da die RT-Cores noch bei der Arbeit sind. Oder läuft das alles völlig und ganz anders? Warum sollte die RT-Zeit von 9,2 ms ein Mehraufwand sein?! Tun die RT-Cores denn irgendwas, wenn keine RT-Berechnungen laufen, so dass das insgesamt langsamer wird? Wenn ja, dann gibt der Artikel echt nicht her, was jetzt mit der Raytraycingleistung auf den Karten eigentlich ab geht, sorry.

[EDIT] ...oder muss die 9,2ms RT-Berechnung fertig sein, bevor die Shader mit der Arbeit loslegen können, bzw. startet erst, wenn die Shader fertig sind?!

Wie wollen die Tensorcores am Bild arbeiten wenn es noch keins gibt?
Ich kann jetzt selber nicht sagen ob es nacheinander sein muss aber egal wie muss zwischen den Einheiten eine Kommunikation + Arbeitsverteilung und Synchronisation stattfinden sonst würdest du immer 2 getrennte Bilder bekommen. Ein rasterisiertes und eins wo irgendwas mit Raytracing gemacht wurde

Egal wie und das war von Anfang an klar kostet Raytracing Leistung. Nicht nur die der Tensorcores sondern der gesamten GPU.
 
Wie wollen die Tensorcores am Bild arbeiten wenn es noch keins gibt?
Ich kann jetzt selber nicht sagen ob es nacheinander sein muss aber egal wie muss zwischen den Einheiten eine Kommunikation + Arbeitsverteilung und Synchronisation stattfinden sonst würdest du immer 2 getrennte Bilder bekommen. Ein rasterisiertes und eins wo irgendwas mit Raytracing gemacht wurde

Egal wie und das war von Anfang an klar kostet Raytracing Leistung. Nicht nur die der Tensorcores sondern der gesamten GPU.

Ja, macht ja durchaus sinn. Mann mus erstmal Pixel haben, bevor jeder davon zwei Strahlen abbekommt und dass dann von den Raytraycing-Cores berechnet wird. Die Tensorcores machen dann noch die tolle KI-Entrauschung des ziemliech löcherigen RT-Bildes und tada, fertiger Frame. Dann ist es defenitiv ein Mehraufwand.

[EDIT] Wenn die Arbeit eh zwangsweise nacheinander erfolgen muss, dann wäre das eigentlich echt mal eine schöne sache gewesen, wenn Sie einfach eine RT-Only Karte gebastelt hätten, die dann die Daten von der "Normalen" Karte quasi über SLI weitergereicht bekommt und über den Frame dann einmal RT drüber laufen lässt...
 
Zuletzt bearbeitet:
Ja, macht ja durchaus sinn. Mann mus erstmal Pixel haben, bevor jeder davon zwei Strahlen abbekommt und dass dann von den Raytraycing-Cores berechnet wird. Die Tensorcores machen dann noch die tolle KI-Entrauschung des ziemliech löcherigen RT-Bildes und tada, fertiger Frame. Dann ist es defenitiv ein Mehraufwand.

Die Frage ist ja ... wie ist die Pipeline im Rendercode vorgegeben? Wird nur jedes zweite Bild als RT-Vorlage genommen. Werden die RT-Strahlen parallel von der Engine über DXR berechnet und dann beim nächsten Frame eingeschnippelt. Fragen über Fragen. Wir wissen ja nicht, wie die Engine und DRX funktioniert. Wir reden hier ja nur in der Theorie :D
 
Wie will man das eigentlich bei den Spiele-Tests machen? Reine Benchmarks die nur Raytracing oder nur Rasterization benutzen sind eine Sache, aber was bei Spielen die beides nutzen? Wie will man (bei 2070 bis 2080Ti) bei der Auswertung der Spiele-Benchmarks erkennen, ob da jetzt gerade die Rasterization bremst, oder das Raytracing? Gerade wo die TDP ja für "beide Parteien" gilt, also eine Szene mit wenig Raytracing der Rasterization mehr Leistungsaufnahme/Rechenleistung zugesteht, und umgekehrt.

Oder gibt es im Afterburner o.ä. eine Auslastungs-Anzeige jeweils für Ray und Raster?

Oder werden zukünftig alle Spiele (mit den RTX-Karten) einmal "normal" und einmal ohne Ray gebencht?

Ich nehme mal man kann RayTracing deaktiveren - dann bencht man alle Karten ganz normal (20XX ohne RT), und dann nochmal die 20XX mit RT. Dann sieht man wie viele FPS das RT kostet, warum - ob das durch TDP, oder Limitierung der RT-Cores passiert ist ja solange irrelevant bis man da was beeinflussen kann. War damals mit Tesselation ja auch nicht anders.
 
Warum sollte die RT-Zeit von 9,2 ms ein Mehraufwand sein?! Tun die RT-Cores denn irgendwas, wenn keine RT-Berechnungen laufen, so dass das insgesamt langsamer wird?
Umgekehrt wird ein Schuh draus. Die RT-Hardware ist wirklich nur für das eigentliche Raycasting zuständig, also dafür, zu berechnen, mit was sich ein Strahl schneidet. Für jeden Strahl werden dann ein- oder mehrere Shader ausgeführt, und das kostet dann genau so "normale" GPU-Leistung wie bei Rasterisierung.
 
Raytracing-Performance wird wohl erst in der nächsten Generation ein brauchbares Feature, jetzt ist es eher ein Locktfeature, um zu zeigen, eh soll toll ist die Grafikkarte, die müsst ihr euch holen.

Bei 1000,-€ und so eine schlechte Raytracing-Performance, dass steht in keinem Verhältnis.

zum glück kennst die performance der games schon. und welche gpu kostet 1000€?? rtx 2085??
 
[EDIT] Wenn die Arbeit eh zwangsweise nacheinander erfolgen muss, dann wäre das eigentlich echt mal eine schöne sache gewesen, wenn Sie einfach eine RT-Only Karte gebastelt hätten, die dann die Daten von der "Normalen" Karte quasi über SLI weitergereicht bekommt und über den Frame dann einmal RT drüber laufen lässt...

Das Problem ist, das so eine Raytracingkarte momentan im Laden liegen bleiben würde, genau wie eine Karte nur mit Tensorkernen (wobei die für Profis sehr interessant wäre), den PhysX Karten ist es damals so ergangen. Im Moment hat Nvidia die eventuell einmalige Chance ergriffen eine Kombikarte auf den Markt zu bringen, AMD ist zu schwach, um die mit einer Graka ohne den zusätzlichen Ballast fertig zu machen und deshalb können sie sich so richtig austoben. Wenn siech Raytracing dann etabliert und die Leute bereit sind nur dafür viele hundert Euro auszugeben, dann kann man auch eine schnelle Karte rausbringen, die nur Raytracing beherrscht und nichts anderes, wenn die Tensorkerne breit genutzt werden, dann kann man auch da eine Karte rausbringen, die nur Tensorkerne hat und sonst nichts. Dann kann man sich auch wieder auf eine Karte konzentrieren, die nur die Rasterisierung beherrscht und sonst nichts.

Dann hätte man am Ende zwei weitere teure Karten im PC, was den Preis wohl insgesamt in die höhe Treiben dürfte (rechnen wir mal mit insgesamt drei Karten für je 300-1200€, je nach Bedarf)

zum glück kennst die performance der games schon. und welche gpu kostet 1000€?? rtx 2085??

Falls es in den letzten Monaten an dir vorbei gegangen ist: die RTX 2080Ti, sie ist sogar ein stück teurer.
 
Zuletzt bearbeitet:
War doch schon klar, dass RayTracing aktuell nur ein Marketing-Gag ist. Die Leistung die gefordert wird kann von aktuellen Grafikkarten nicht bereitgestellt werden. Evtl. wird die nächste Gen für durchgängige 60FPS in FHD ausreichen ggf. auch 30FPS in WQHD.
 
Interessant wäre zu wissen, wieviel Energiehunger die RT-Einheiten haben. Jetzt ohne RT sehen die Benchmarks so gut aus, weil der klassische Grafikkern das volle Energiebudget zur Verfügung hat. Wenn jetzt die RT-Einheiten aktiv werden, bremst das Energiebudget doch zusätzlich die Grafikkarte oder darf hierbei der Energiehunger zügellos sein?

Ist dann wohl das selbe generelle Problem, was die AMD-APU's haben.
 
Ich hatte mich ein Zeit lang sehr auf die neue Generation an grakas gefreut, dann kamm ein Gerücht nach dem anderen, und die Karten wurden immer uninteresanter, Und jetzt der RT Müll der noch gar nix richtig bringt, erst in der 4-5 Generation können wir mit einer brauchbaren Leistung rechnen, aber so, ne
 
Also dass die Raytracing Implementierungen in BF V zurückgestuft werden hatte sich ja schon lange abgezeichnet.
Schöne Blender zum „Paperlaunch“ der 2080ti präsentiert, aber eben auch nur eine statische Szene genutzt und TombRaider lief auch nicht rund. Dazu in 1080p..
Bin ja echt Fan von neuen Technologien, aber im aktuellen Status scheint es fast unbrauchbar.

Zu Beginn habe ich den Ansatz sehr mit Physx verglichen, denke heute aber, dass die Implementierung deutlich schwieriger ist.
Physx lässt sich halt schön auf einzelne Gegenstände (Fahnen, Kleidung etc. ) anwenden, womit das Bild aufgewertet wird und die durch die GPU-beschleunigung verursachten Leistungseinbußen lassen sich verhältnismäßig gut kalkulieren.
Aber im Bereich globaler Beleuchtung fällt eine nur teilweise Implementierung bestimmt aufwändiger aus.
Und Fenster 1 mit Spiegelung und Fenster 2 ohne (BF V) würden dann wohl doch merkwürdig aussehen.

Extrem negativ ist mir das starke Bildrauschen in der BF V Beta aufgefallen. Das gab es in dieser Form in der Alpha (also vor Raytracing-Versuchen) meiner Meinung nach noch nicht!
Guck ich mir definitiv nochmal an wenn das Game über Origin-Premium verfügbar ist und werds mit meinem Videomaterial aus der Alpha vergleichen.
 
Zurück