Echtzeit-Raytracing in Unreal Engine 4: Video zeigt Grafikvergleich

Und der Spieler bleibt weiterhin ein Geist.
Das bekommen irgendwie nur wenige First Person Spiele hin (z.B. Prey 1, Metroid Prime, DNF) das sich die Spielfigur auch spiegelt.

@Basti1988: Raytracing an sich ist sogar noch deutlich älter als Rasterisation.
Erstmals in der Computergrafik angewendet wurde das in den 60er Jahren und das physikalische Prinzip dahinter ist schon sehr viel länger bekannt und findet in vielen Bereichen der Optik seit Jahrhunderten Anwendung.

AMD hat da eine Softwarebasierte Lösung, genau wie nVidea mit iRay oder andere Hersteller GPU beschleunigter Render Engines (z.B. Octane).
nVidea sind auch nicht die ersten, welche mit Hardwarebasiertem Raytracing Beschleuniger experimentieren, das gibt es seit den 90er Jahren.
Die letzten mir bekannten Vertreter hatten eine Leistung von ca. 50 Millionen Rays.
Die 10 Gigarays der RTX entsprechen da 10 Milliarden Rays und bedeuten einen gehörigen Schritt vorwärts in Richtung Echtzeit Raytracing.

Diese Leistung muss man neidlos anerkennen.

Alle zuvor erwähnten Dinge sind nicht wirklich für den Einsatz in Echtzeitgrafik z.B. in Spielen gedacht, sondern beschleunigen die Raytracing Berechnung nur im Vergleich zu rein CPU basierten Methoden.

Es ist schon ein Unterschied ob man nach jeder Änderung nur 2-10 Sekunden auf ein gerendertes Vorschaubild seiner Szene wartet oder ob das 2-10 Minuten dauert die Szene mit CPU zu rendern.

Im Bereich der 3D-Grafik gab es in letzter Zeit einen Trend zu verbesserter Echtzeitdarstellung (meist über openGL) im Viewport. (z.B. Blenders eevee)
Das könnte sich durch echtzeitfähige Raytracing Karten bald wieder umkehren und GPU Renderer mehr in den Fokus rücken.
 
Das Prinzip gibt es doch schon länger und nennt sich Radeon Rays. Vorgestellt 2016

Ist wohl eher so das NVIDIA von AMD kopiert hat. ;)

Da liegst Du wohl völlig falsch .... siehe die Nvidia 'OptiX' API Technologie Entwicklungen von 2009 (OptiX - Wikipedia) - Nvidia war & ist hier klarer Vorreiter, mit schon damals excellentem GPU Industrie Support (Siggraph 2011) für die zahlreichen Cuda 3D'Renderer & VFX Film-Industrie (ILM, Pixar, Weta, uvam.) >>> http://highperformancegraphics.org/previous/www_2009/presentations/nvidia-rt.pdf

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Meine persönliche Meinung:

Ich bin nicht wirklich stark von RT beeindruckt.

Die Details sind schön und nett und sehen auch gut aus. aber ich finde, dass man diese Technik noch etwas reifen lassen muss.

Oder kann die neue Hardware von nvidia auch andere Anwendungen durch ihre RT und Tensor-Kerne beschleunigen?

Ich bin skeptisch...
 
Zu PhysX: das einzige Spiel, an das ich mich erinnere, welches PhysX gut umgesetzt hatte, war Medal of Honnor. Airborne. Alle Jahre zocke ich es noch mal. und wer macht da jetzt meine PhysX-Berechnungen? Meine AMD-CPU :lol: So gehts manchmal. Vllt machen dann ja die Threadripper-CPUs in 2-3 Jahren die RT-Berechnungen :D
Gruß T.

Ähm es gibt noch eines wo physx gut aussah. Bei borderland 2. Auch mirror edge bietet physx an. Da sieht man dann die fensterscheiben stücke auf dem boden usw.

Aber das sind auch schon die besten spiele beim thema physx.

Nur das halt mirror edge nicht so abwechslungsreich war. Borderland 2 ebenfalls zu einseitig. Und in manchen dingen sogar schlechter als borderland 1.

Bei raytracing sehe ich das genauso. Der anfang ist bei raytracing wie bei physx. Vielversprechend. Die gleichen horrenden anforderungen. Und ob es nicht das selbe schicksal wie physx erleiden wird, steht auch noch offen.
 
Sind diese teilweise absolut unrealistischen spiegelungen wirlich so interessant? Als Marketing tut es ja ihr übriges, anscheinend sehr gut aber ansonsten?
 
Raytracing ist klasse. Dabei, brauchen die Entwickler nicht mal mehr zu tricksen, eigentlich sollte der Aufwand deutlich geringer sein.

Leider haben wir nicht genug Leistung und es wird sicher noch 2-3 Jahre dauern bis, diese da ist um die Vorteile wirklich zu schätzen und keine Nachteile (Auflösung) gegenüber reiner Raster-Grafik zu haben.

Die Frage stellt sich; im Moment tricksen die Entwickler noch sehr gut und bringen Atemberaubende Effekte mit ihren Tricksereien. Wie lange wird dies andauern? Wann kommt der Tag, dass nur sehr Primitiv gearbeitet wird, damit die Games auf "alter" Hardware laufen ABER nur auf der aktuellen wirklich gut aussehen.

Im Moment muss man ja die Lupe nehmen um zwischen High und Ultra zu unterscheiden, oft ist Medium sogar sehr ansehlich. Denke dass aber wieder Zeiten kommen werden, wo hier sehr deutliche Unterschiede zwischen den Grafikstufen zu sehen sein werden.

Das Lustige ist ja Nvidia Raytracing ist auch 'nur' getrickse .... zwar jetzt in Hardware aber selbst die RT-Cores die in der 2080Ti verbaut sind wären zu leistungsschwach um 'richtig' zu raytracen. D.h. bei RTX nimmt man weniger Rays als eigentlich nötig wären für ein sauberes Bild und nutzt dann die Tensor-Cores und Maschinelearning um die restlichen Pixel zu 'erraten' (denoising nennt Nvidia das). Sieht man schön im Video zur Battlefield V RTX demo wo das Feuer dann großflächig hässliche Artefakte erzeugt weil das ML halt daneben rät.

Ich meine ja das ist ein Schritt in richtung Echtzeitraytracing aber Begeisterungsstürme löst das bei mir nicht aus. Auch wenn ich Shadow of the Tomb Raider auf meinem Rechner mit den Schatten RTX Videos vergleiche sehe ich da jetzt keine so große Vorteile für RTX.
 
Schick aussehen tuts ja schon, es wirkt aber einfach irgendwie zu künstlich.
Außerdem ist der Unterschied von RTX on zu off wohl ein schlechter Witz :ugly: so schlecht sieht sowas doch ohne RT-RT nicht aus :D

Naja wenn man halt statt RTX gar nix mehr rendert also auch nicht die üblichen Effekte die man normalerweise dafür nutzen würde dann sieht das ohne RTX halt ******* aus ;).
 
Meine persönliche Meinung:

Ich bin nicht wirklich stark von RT beeindruckt.

Die Details sind schön und nett und sehen auch gut aus. aber ich finde, dass man diese Technik noch etwas reifen lassen muss.

Oder kann die neue Hardware von nvidia auch andere Anwendungen durch ihre RT und Tensor-Kerne beschleunigen?

Ich bin skeptisch...

Prinzipiell ist RT schon beeindruckend, das Problem derzeit, und auch in den nächsten Jahren, wird sein, dass diese Technik für die Meisten (Gamer) keine Option sein wird, da diese sich bei der 2060/1060 oder darunter preislich Zuhause fühlen.
Sie werden den "Schalter" für RT also nie, wenn überhaupt, in Games zu sehen bekommen (oder er ist ausgegraut).

Das heißt aber auch, dass die Spielehersteller genauso wie bisher ihre Grafik ohne RT-Pfad integrieren müssen, incl. dem dafür nötigen "Mehraufwand"...wenn sie den Mainstream weiterhin bedienen wollen...und das werden sie einfach müssen, sollen die Verkaufszahlen stimmen.

Ich sehe Nvidias RT daher derzeit als "Gimmick", ähnlich man früher diverse 3D-Benches und Demos (wer kennt noch die Meerjungfrau...mit Mod ;) ) hat laufen lassen, um die schönsten Bilder auf den Bildschirm zu zaubern.

mfg
 
Das heißt aber auch, dass die Spielehersteller genauso wie bisher ihre Grafik ohne RT-Pfad integrieren müssen, incl. dem dafür nötigen "Mehraufwand"...wenn sie den Mainstream weiterhin bedienen wollen...und das werden sie einfach müssen, sollen die Verkaufszahlen stimmen.
mfg

Meine Theorie dazu ist, diese:
Zunächst einmal ja natürlich, es ist derzeit ein Gimmick, welches weder für die breite Masse erschwinglich, noch für einen alltagstauglichen Einsatz ausgereift genug ist. Aber: Es ist auch das Ergebnis von ~10 Jahren F&E bei Nvidia, wobei natürlich auch der ML-Part mit reingerechnet werden muss, der sich auch ohne RT gut verkauft.

Aber dennoch wird Nvidia das jetzt nicht stiefmütterlich behandeln und von anderen behandelt wollen sehen. Ergo: Sie werden, so glaube ich, massivst die Implementierung von RTX Effekten subventionieren, so lange, bis die Technik wirtschaftlich und performant für die normalen User sein wird. Vielleicht wird man über die nächsten Chipgenerationen langsam eine Verschiebung der Flächen von RT und Tensorcores im Chip sehen, hin zu mehr und verbesserten RT- und weniger Tensor-cores.
Und irgendwann braucht man für RT keine Tensorcores mehr, weil man nicht mehr denoisen muss und die Implementierungen in Spielen immer ausgereifter werden. Bis dahin wird's aber noch ein weiter Weg sein, den zu gehen sich aber auf alle Fälle lohnen wird. Billig wird er aber nicht. Und AMD (und Intel), sofern sie (weiterhin) im Gamingmarkt mitmischen wollen, müssen sich auch was mit RT überlegen. Aber das beschleunigt den Prozess zu mehr RT auch noch etwas.

Das Ergebnis wird aber sein, dass in Zukunft der Aufwand für Beleuchtung, Schattierung und was weiß ich noch alles, im Gegensatz zum heutigen "Tricksen", stark gemindert wird. Somit liegen nun schwere Jahre vor den Devs, die dann aber belohnt werden könnten :)
 
Hier geht es um GPU Ray Tracing - erstmals in Echtzeit umgesetzt, als Rasterization & Ray Tracing Hybrid Lösung auf einer GPU = Nvidia Quadro & Geforce RTX Serie - toll was .... und gut implementiertes Ray Tracing erleichtert sehr vieles - was mit klassischem Rasterization (grosser Aufwand & viele umständliche Tricks) nur schwer oder eben gar nicht erreicht werden kann!

Ray Tracing = Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt! 100 korrekt %
 
Zuletzt bearbeitet:
Wirklich interessant wird das mit dem Raytracing doch erst wenn die Konsolen das auch beherrschen.
Bis dahin bleibt es, wie PhysX oder Gameworks, eine Nische.
 
Der Vergleich zwischen "RTX off" und "RTX on" ist in dem Video ein schlechter Witz.
Hier wird definitiv absichtlich übertrieben und die Grafikqualität bei "RTX off" auf so ein Niveau runter gesetzt nur damit es besser aussieht, dass schon der Verdacht einer vorsetzlichen Täuschung entsteht.
Selbst in Guild Wars 2 ( DX 9 ) sehen die Reflektionen besser aus. Es gibt auch genug andere Spiele welche uns immer wieder von den Grafikeffekten in Staunen versetzten und als Referenz dienten.

Die CRYENGINE V - Hunt: Showdown Tech Demo GDC 18 im März hat mich zuletzt optisch beeindruckt. Hätte mir das Spiel daraufhin fast gekauft, aber Gameplay und Inhalt ist leider nichts für mich. Aber die Technik ist erste Sahne, vermutlich sogar ohne RT.

YouTube
 
Witzig, das kannte ich bisher nicht: YouTube
AMD wirbt hier mit GCN und OpenGL. Das wird wohl das Problem sein und das was NV eben geschafft hat, das ganze an MS zu tragen und in DirectX laufen zu lassen + entsprechende Hardware zu liefern.

OpenCL, nicht GL... ist ein wichtiger Unterschied.
Auch AMDs TressFX basiert auf OCL - genau wie viele andere der GPU Open Techniken.

Radeon Rays 2.0 würden auch auf einer Fermi GPU laufen.
 
Wie war das...2080ti...FHD...keine stabilen 60 FPS?

Mehr ist dazu nicht zu sagen. Dieses Thema ist bestimmt die Zukunft, aber mit diesen
total überteuerten Raytracing Schlaffikarten noch nicht in der Gegenwart angekommen...

greetz
hrIntelNvidia
 
Die CRYENGINE V - Hunt: Showdown Tech Demo GDC 18 im März hat mich zuletzt optisch beeindruckt. Hätte mir das Spiel daraufhin fast gekauft, aber Gameplay und Inhalt ist leider nichts für mich. Aber die Technik ist erste Sahne, vermutlich sogar ohne RT.

YouTube
Ja, Crytek zeigt hier realistische Wasserspiegelungen ohne RT.
Cryengine ist einfach unschlagbar.
 
Zurück