Luminous Engine: Raytracing-Tech-Demo Backstage mit Geforce RTX 2080 Ti

...er hat mich aber gequoted, insofern direkt angesprochen. Mir ist egal wer die Technik liefert ich kauf AMD/ INTEL und NVIDIA. Leider hab ich fast immer bei meinen AMD GPU Käufen Trouble mit den Treibern. Aber das nur mal so am Rande.
 
Weißt Du -lesen und verstehen sind so zwei grundlegende Skills, die in Foren total unterrated sind:
- ich würde AMD Karten nie als "Schrott" bezeichnen - den Beweis wirst Du zu 200% schuldig bleiben
- Weitblick =/ Vorsorge/Vorausschau - Weitblick ist die Sicht nach vorne im Bezug auf die praktische Anwendung und die Bedeutung für die Zukunft und nicht die Vorsorge durch den Kauf einer RTX per heute (dass Du den "Fehler" gemacht hat ist dennoch alleine dein Problem) leider ist das genau der Unterschied, den die Meisten kaum imstande sind zu machen - RTX als Produkt und Raytracing als Technologie werden gleichgesetzt
- dass es eine "Spielerei" ist hab ich quasi geschrieben, aber wie gesagt...vollkommen underrated

Bitte entschuldige, wenn du dich persönlich angegriffen gefühlt hast. Ich habe das anders gemeint, aber leider auch missverständlich ausgedrückt. Ich werde gleich noch ein paar Erläuterungen nachreichen...

Edit:
Grundsätzlich fand ich deinen Beitrag gut und ich stimme dem auch größtenteils zu. Ich habe selbst eine RTX Karte gekauft, weil ich das aus Neugierde ausprobieren wollte.

Was ich anders sehe, ist die Ursache für die Kritik (oder auch Hate teilweise) an RTX. Ich denke, dass niemand hier wirklich Raytracing an sich verteufelt oder die Bedeutung für die Zukunft leugnet. Das wird tatsächlich oft so wahrgenommen und insbesondere behauptet, aber es geht um was anderes. Es bilden sich Fronten in den Foren, weil auf der einen Seite das Feature als Killerfeature "verkauft" wird, was Grafikkarten von AMD im Gegensatz zu Nvidias Pixelbeschleunigern angeblich vööööllig obsolet machen soll und auf der anderen Seite sind Käufer von Navi oder Vega angefressen, dass ihre Hardware jetzt kompletter Schrott sein soll. Tatsächlich sind sehr harte Worte gefallen in der letzten Zeit, dass man sich nur an den Kopf fassen kann. Von dir natürlich nicht!

Letztlich wird das Thema Raytracing für Grabenkämpfe instrumentalisiert, daher kommt die negative Einstellung dazu und nicht, weil die Technik doof sein soll. Das glaubt hier mit Sicherheit keiner. In der Tat hat Nvidia hier beachtliche Leistungen vollbracht. Das wird schnell deutlich, wenn man sich damit näher beschäftigt.

Ich persönlich fühle der Technik ganz konkret auf den Zahn. Als Entwickler von CapFrameX interessiere ich mich für die Frametimes und wie flüssig das Spieleerlebnis mit RT nun tatsächlich ist. So kommt es dann aber auch vor, dass ich mich nicht immer positiv darüber äußere. Und natürlich würde ich genauso verfahren, wenn es um Karten von AMD ginge.
 
Zuletzt bearbeitet von einem Moderator:
Es bilden sich Fronten in den Foren, weil auf der einen Seite das Feature als Killerfeature "verkauft" wird, was Grafikkarten von AMD im Gegensatz zu Nvidias Pixelbeschleunigern angeblich vööööllig obsolet machen soll und auf der anderen Seite sind Käufer von Navi oder Vega angefressen, dass ihre Hardware jetzt kompletter Schrott sein soll.

Von der anderen Seite kommt aber definitiv auch genug. Einige bezeichen immerhin jeden, der eine Turing-Karte kauft, als einen Idioten, der viel zu viel Geld für überteuerte Speicherkrüppel ausgibt. Im Falle von RTX-Karten gleich doppelt, weil man eine Totgeburt von Feature mitbezahlt. Genau so unnötig, man sollte sich vermutlich gar nicht erst dazu hinreißen lassen, auf solche Kommentare überhaupt einzugehen, aber es fällt schwer.
 
Von der anderen Seite kommt aber definitiv auch genug. Einige bezeichen immerhin jeden, der eine Turing-Karte kauft, als einen Idioten, der viel zu viel Geld für überteuerte Speicherkrüppel ausgibt. Im Falle von RTX-Karten gleich doppelt, weil man eine Totgeburt von Feature mitbezahlt. Genau so unnötig, man sollte sich vermutlich gar nicht erst dazu hinreißen lassen, auf solche Kommentare überhaupt einzugehen, aber es fällt schwer.

Das Thema ist natürlich diifizeiler als manche das darstellen und das gilt für beide Seiten.

Klar ist das RT eine Technik ist die die Option bietet das sie massentauglich wird und damit auch eine dementsprechende Verbreitung findet.
Klar ist aber auch das noch einiges an Arbeit in die Technik gesteckt werden muss. Auch wenn immer wieder der Vergleich zu RT in Filmen kommt oder schön anzusehende Techdemos veröffentlich werden aber es gibt einen gravierenden Unterschied der RT in Spielen viel schwieriger umzusetzen macht als in Filmen oder Techdemos. Spiele sind dynamisch im Ablauf. Eine Spiegelung oder eine Beleuchtung ist daher ein viel höherer Berechnungsaufwand das es aus allen Winkel und Entfernungen gut aussieht. Anders als bei einer statischen Ansicht eines Filmes.

Leider gibt es einige Hardliner,die zu einem guten Teil alle aktuell gesperrt sind ohne mal über ihr eigenes Verhalten zu reflektieren die mit aller verbalen Macht versuchen die User auf den Pfad des Lichtes zu führen und nicht anerkennen das es auch Gründe gibt warum man (noch) nicht bereit ist auf den Zug aufspringen. Gibt ja auch genug User die sich eine 2070 aufwärts kaufen und das nicht primär wegen RT sondern weil sie ganz unabhängig davon eine gewisse Performance erwarten und haben möchten und für die mglw RT gar keine Rolle spielt aber die mangels Alternative zum NV Produkt greifen weil AMD erst durch die 5700XT und auch bis zur Leistungsklasse 2070/2070S eine Konkurrenz bietet,natürlich wird der eine oder andere RT als Feature gerne mitnehmen wollen. Ich könnte mir sogar vorstellen, ohne da validierbare Daten zu haben, daa sogar ein erheblicher Anteil der RTX Käufer dies nicht primär wegen RT machen sondern weil sie eine gewisse Leistung ganz unabhängig von RT wünschen was ihre Pixelschubse angeht. Aber genau so legitim ist es sich für eine AMD Karte ohne RT zu entscheiden und erst in ein paar Jahren, wenn es ausgereifter und verbreiteter ist, sich eine dahin gehende GPU zu gönnen.

Das es Hardliner auf beiden Seiten gibt stelle ich ich nicht in Abrede. Aber bei dem messianischen Eifer einiger NVler die jeden als Antichrist bezeichnen und/oder mehr oder weniger unterschwellig als total verblödet, der Kritik äußert oder nur darauf hinweist das das Ganze noch nicht ausgereift und die Verbreitung bisher überschaubar ist führt halt zu einer vergifteten Atmosphäre hier im Forum.
 
Zuletzt bearbeitet:
Klar ist aber auch das noch einiges an Arbeit in die Technik gesteckt werden muss. Auch wenn immer wieder der Vergleich zu RT in Filmen kommt oder schön anzusehende Techdemos veröffentlich werden aber es gibt einen gravierenden Unterschied der RT in Spielen viel schwieriger umzusetzen macht als in Filmen oder Techdemos. Spiele sind dynamisch im Ablauf. Eine Spiegelung oder eine Beleuchtung ist daher ein viel höherer Berechnungsaufwand das es aus allen Winkel und Entfernungen gut aussieht. Anders als bei einer statischen Ansicht eines Filmes.

An der Stelle würde ich sagen, dass die Berechnungszeiten bei Filmen in der Regel deutlich länger ist, weil volles RT verwendet wird. Aber da hat man halt auch Zeit. Techdemos sind hingegen oft an allen anderen Fronten stark gekürzt, so dass der Leistungsfokus auf das zu demonstrierende Feature gelegt werden kann.

Aber bei dem messianischen Eifer einiger NVler die jeden als Antichrist bezeichnen und/oder mehr oder weniger unterschwellig als total verblödet, der Kritik äußert oder nur darauf hinweist das das Ganze noch nicht ausgereift und die Verbreitung bisher überschaubar ist führt halt zu einer vergifteten Atmosphäre hier im Forum.

Gleiches gilt leider für die, die jegliche Erwähnung von RT zum Anlass nehmen, irgendwas von Totgeburten, verschwendeter Chipfläche und Halsabschneiderei zu faseln.
 
@gaussmath Alles gut. Das passt. Wir reden glaube ich vom selben Phänomen. Das RT zum jetzigen Zeitpunkt noch vollkommen ersetzbar oder überflüssig zu sein scheint, ist einfach der Sache an sich geschuldet. Man muss halt aber auch irgendwo mal anfangen. Da muss auch kein Vega oder Navi Kunde sich provoziert fühlen immer direkt irgendwelche Tiraden unter jeden Artikel in dem RT vorkommt zu posten. Bist das Thema spruchreif ist, gehen noch Gut und Gerne locker flockig 2-4 Jahre ins Land in denen AMD eh nachzieht (tun si eja offenbar schon mit den neuen Konsolen) und in den nächsten 5-10 Jahren wird es auch Fallback-Modi geben.

Ich geh auch mal davon aus, dass in einem Hardware-Forum die User ihre GPUs für 2-3 Jahre kaufen. Ich bin auch nicht der große Upgrader, der sich alle 2 Jahre ne 2080Ti kauft. Mein Zyklus sind 2-3 Jahre im mittleren Preissegment (350-500€). Allerdings macht man sich schon so seine Gedanken, wenn der "Gesamteindruck" des Bildes auf der 500€ Spielkonsole mit entsprechendem 1500€ TV deutlich besser ausschaut als der 1500€ PC am 700€ Monitor. Aber das ist ne andere Geschichte...
 
An der Stelle würde ich sagen, dass die Berechnungszeiten bei Filmen in der Regel deutlich länger ist, weil volles RT verwendet wird. Aber da hat man halt auch Zeit. Techdemos sind hingegen oft an allen anderen Fronten stark gekürzt, so dass der Leistungsfokus auf das zu demonstrierende Feature gelegt werden kann.



Gleiches gilt leider für die, die jegliche Erwähnung von RT zum Anlass nehmen, irgendwas von Totgeburten, verschwendeter Chipfläche und Halsabschneiderei zu faseln.

Das mit dem Full RT hätte ich wohl dazu schreiben sollen. Aber wenn ein Film fertig erstellt ist und damit auch die Berechnungen erfolgt sind ändert sich ja nichts mehr am Material. Die Filmszenen ändern sich ja nicht mehr im Gegensatz zu einer Spielszene wo ich mit meinem Char nur den Platz wechseln oder den Kamerawinkel ändern muss.

Da hast du natürlich recht das es keine Totgeburt ist,es hat sehr viel Potenzial. Egal ob als Hybridlösung in wenigen Jahren oder irgendwann in der Zukunft als Volllösung.

Und es gibt auch weitere schmale Kanten an den man entlang balanciert. Klar verbrauchen die Tensor und RT Cores Chipfläche die man auch anderweitig hätte nutzen können aber dafür sind die Turing Chips auch deutlich größer. Von daher ein Argument das man mit Vorsicht genießen muss.
Wobei ich schon glaube das es kein Fehler von NV gewesen wäre die 1600er Reihe bis zu einer potenziellen 1680 zu erweitern für kleineres Geld als mit RT.

Was immer auf das Thema Preis hinausläuft und die Frage ob die Preisgestaltung von NV gerechtfertigt ist oder nicht was zum einem sehr subjektiv ist und was man zum anderen auch an Überlegungen festmachen kann in wie weit man bereit ist early adopter Aufschläge zu zahlen,wie ausgereift das Ganze ist, aber auch wie viele Spiele es gibt die überhaupt eine wie auch immer ausgeprägte Implementierung von RT bieten und in welcher Preiskategorie sich die meisten Schubsen bewegen und die ist im Gegensatz zur Meinung einiger Foristen eher im Bereich unter 300 Euro zu finden als über 500 Euro. In einem Nerdforum unterwegs zu sein kann da durchaus den Blick auf die "normale" PC Welt da draußen verstellen in der Fertig PCs und eher geringere Budgets vorherschen und das damit verbundene schauen auf möglichst viele FpS für sein Geld zu bekommen und wie gut heutiges Marketing heutzutage wirkt( It just works) und die Kaufentscheidungen beeinflussen und vor allem welche Auswirkungen das auf Nerds hat,deren Filterblase nämlich ganz stark von der Welt abhängt in der der größte Teil des Umsatzes gemacht wird.
 
Das mit dem Full RT hätte ich wohl dazu schreiben sollen. Aber wenn ein Film fertig erstellt ist und damit auch die Berechnungen erfolgt sind ändert sich ja nichts mehr am Material. Die Filmszenen ändern sich ja nicht mehr im Gegensatz zu einer Spielszene wo ich mit meinem Char nur den Platz wechseln oder den Kamerawinkel ändern muss.

Sicher, sobald das Ding im Kasten ist, fällt der Rechenaufwand für RT schlagartig auf null. ;)
 
Ich finde Tech Demos immer ganz toll. :rollen: Aber wo ist die Zeit hin das man diese früher selber auf seinem Rechner Zuhause testen konnte.

Heute schaue ich mir nur noch Youtube Videos an wo man ach so tolle Demos sieht, ich will diese selbst auf meinem Rechner haben/testen. Ich bin ein ein Hardware_Geek :ugly:

BTW gibt es einen Link oder mehrere wo aktuelle TechDemos zum Download bereit stehen ?
 
Sieht schon nice aus :daumen: !

"Richtiges" Raytracing erst 2035? Da bin ich ja jetzt echt auf die Erklärungen von einigen Usern hier gespannt, die ganz vehement die Notwendigkeit betonen, dass man sich jetzt sofort eine RTX Karte kaufen muss.


Grüße!

Kann mich an keine User erinnern, die gesagt haben, der Kauf von RTX sei notwendig. Es war auch den intensiven Verfechtern von Raytracing klar, dass der Übergang lange dauert. Wer halt jetzt schon eine RTX hat, kommt halt früher zu diversen Raytracing-Effekten und auch anderen Boni die die Karten so mitbringen. Zum Beispiel Hunt: Showdown im Technik-Test: GPU-Benchmarks, Frametimes und Fazit - ComputerBase enorme Leistungssteigerungen wenn die Spiele auf die neue Architektur hin optimiert sind (was in Zukunft ja so sein wird).
Ich persönlich werde auf den RT Zug erst später aufsteigen, aber ich bin allgemein geduldig und warte gerne, bis etwas reift. Kaufe auch Spiele nur noch gepatcht und mit allen DLCs
 
Es gibt ja bereits mehrere AAA Spiele mit Raytracing Unterstützung, auch weinige Dutzend Indie-games, und noch weitaus mehr mods.
Tesselation hatte auch ähnliche Anfänge - mitlerweile gibt es aber nurmehr wenige Hirnvermissende die behaupten würden es bringt nichts. Und es hat auch nicht lange gedauert bis es adoptiert wurde.

hardwarebeschleunigtes Raytracing kann für einige Effekte extrem einfach ins Spiel integriert werde und kann je nach Fall ein sehr gutes Bild und bessere Leistung bieten - einfach schon weil effekte wie volumetrischer Rauch mit Selbstschatten standardmäßig sehr rechenaufwendig ist.
Andere Effekte wie zB Spiegelungen benötigen etwas mehr Leistung und etwas trickserei um die Leistung Effektiv zu nutzen. BF hat ja anfangs die Leistung für sonstwas verpulvert - Strahlen die Außerhalb des Sichtbereiches liegen und absolut 0 zum Endergebnis beitragen, Strahlen auf nicht spiegelnde Oberflächen, oder auch die massig strahlen auf Laub-Partikeln die geblurred werden. Damit kann man sich sein Rechenbudget sehr schnell zerschießen - genauso wie zB einen2D Gaußkernel 9x9 anwenden und nicht die Seperierbarkeit ausnutzen.


Und natürlich darf man nicht vergessen das die überwiegende Mehrheit mit alter oder sehr schwacher Hardware Unterwegs ist.
Entsprechend müssen Spiele vorrangig darauf laufen können und damit kann man sich nicht auf Raytracing verlassen. Wenn man raytracing-Schatten haben will dann muss man zuerst die normale Lichtberechnung fertig haben - und dort ist dann schon alles (texturen, Szenerie etc) darauf abgestimmt - und dann muss noch raytracing zusätzlich integriert werden. Wenn die Notwendigkeit dafür dann in 10 Jahren wegfällt dann wird es sich auch ziemlich universell durchsetzen.
 
Bringt ein Neustart was?

Ich hab's gestern nochmal getestet, so dass dazwischen also zwangsläufig ein Neustart lag. Die Frametimes waren auch mit Ultra RT Schatten sehr glatt. Es ist schwierig zu reproduzieren und letztlich weiß ich auch nicht, was es ist. Memory Lags sind es nicht, denn die Spikes ließen sich ja schließlich beseitigen durch das Abschalten von RT. Ich bin mir nicht mal sicher, ob ein Neustart immer hilft.
 
Zurück