Echtzeit-Raytracing in Unreal Engine 4: Video zeigt Grafikvergleich

Nvidia ist gerne immer der GPU Grafik-Pionier & die treibende Kraft mit grossem R&D Forschungsaufwand .... und sichert sich so die Zukunft und viele neu lukrative Märkte. Bis die leistungsschwachen GCN 'NexGen' AMD Konsolen APU's auch nur mal rudimentär in vielen Games unterstützen werden, werden wir alle Jahre älter sein als heute .... ;o)

@Khabarak .... Witzbold ^^ 'tote GPU Technik' von Imagination PowerVR, was es nie zur Marktreife geschafft hat!

Welches Game nutzt 6XT GR6500 mobile GPU PowerVR Technik? btw. Da sind keinerlei Soft-Shadows und andere typische Ray Tracing Effekte vorhanden - PowerVR FAKE Marketing ? :motz:
 
Zuletzt bearbeitet:
Irgendwie....wirkt es so als ob hier etwas viel reingegeben wurde und manche Effekte auch ohne RTX funktionieren würden. Die super harten Schatten sind doch noch aus der Splinter Cell 1 Zeit und heute doch gar nicht mehr in der Weise vorhanden. Von Anfang bis Ende riecht es nach Augenwischerei. Dass Raytracing sicher mehr kann als alles andere bestreite ich nicht, aber hier sehe ich keine wirkliche Werbung dafür.
 
Ja, Crytek zeigt hier realistische Wasserspiegelungen ohne RT.
Cryengine ist einfach unschlagbar.

Dann hast du dir noch nicht das neue Spiderman Spiel angesehen...
YouTube


Edit:
@Khabarak .... Witzbold ^^ 'tote GPU Technik' von Imagination PowerVR, was es nie zur Marktreife geschafft hat! Welches Game nutzt 6XT GR6500 mobile GPU PowerVR Technik?

Nvidia hat angeblich 10 Jahre Entwicklung gebraucht und PowerVR schon vor 2 Jahren funktionierende Prototypen, die mit UE4 arbeiten konnten....
Dabei ist Imagination deutlich kleiner.
Wo ist Nvidia dann hier der Pionier?
Andere waren eindeutig schneller.
 
Nvidia ist gerne immer der GPU Grafik-Pionier & die treibende Kraft mit grossem R&D Forschungsaufwand .... und sichert sich so die Zukunft und viele neu lukrative Märkte. Bis die leistungsschwachen GCN 'NexGen' AMD Konsolen APU's auch nur mal rudimentär in vielen Games unterstützen werden, werden wir alle Jahre älter sein als heute .... ;o)

*gähn*

@Khabarak .... Witzbold ^^ 'tote GPU Technik' von Imagination PowerVR, was es nie zur Marktreife geschafft hat! Welches Game nutzt 6XT GR6500 mobile GPU PowerVR Technik?
Das RT Programm von NVIDIA ist auch eine Totgeburt aktuell. Außerdem gibt es keine Games die das unterstützen und NVIDIA kann keine Hardware dafür liefern wo es läuft. ;)
 
Was ein Schwachsinn und Marketing mit RTX!

Alles was dort gezeigt wurde mit den harten Schatten ist schon seit Ewigkeiten nicht mehr in den Spielen so! Und die Spiegelungen die die dort zeigen sind schlechter als in Half Life 1 von 1999! Das bekam Valve in HL2 schon wesentlich besser Mit der Source Engine. Sogar Far Cry 1 war da schon wesentlich besser und sah für damals genial aus. Und all die bekamen es bisser hin als NV heute!

Wieder nur labern und am Ende ist es gar nichts!

Nvidia ist gerne immer der GPU Grafik-Pionier & die treibende Kraft mit grossem R&D Forschungsaufwand .... und sichert sich so die Zukunft und viele neu lukrative Märkte. Bis die leistungsschwachen GCN 'NexGen' AMD Konsolen APU's auch nur mal rudimentär in vielen Games unterstützen werden, werden wir alle Jahre älter sein als heute .... ;o)

Selten so gelacht! :lol: . Da hat wer in Geschichte nicht aufgepasst. AMD und früher ATi hatten über sehr lange Zeit das deutlich bessere Bild. Erst seit der GTX9xx Reihe isr das anders.
 
Radeon Rays Demo Anno Dezember 2016:
YouTube

Eine statische Stadt, und deutlich weniger als 10 GRays, aber schon mal ein guter Anfang für 100% Ray Tracing - und das noch nicht mal als exklusives Vollbild.
 
Nur hat AMD anscheinend damals verstanden das eben keiner in einer Map stehenbleibt und sich in unrealistisch spiegelnden Oberflächen zu betrachten bzw zu sehen das die Darstellungen nicht immer stimmen vor allen Dingen wenn man wegläuft und wieder erneut betrachtet stellt es etwas anderes dar.

Die letzten Jahre habe ich diese Spiegelungen nicht vermisst und jetzt zwängt mir die unsinnige Technik vor allem NVIDIA bestimmt nicht auf.

Durchgehend 144hz in 4k oder besser das wäre Bahnbrechend und 1200€ Wert. Alles andere ist Menschen für dumm verkaufen
Soviel Unsinn hier.

OpenCL, nicht GL... ist ein wichtiger Unterschied.
Auch AMDs TressFX basiert auf OCL - genau wie viele andere der GPU Open Techniken.

Radeon Rays 2.0 würden auch auf einer Fermi GPU laufen.
TressFX basiert nicht auf OCL, es verwendet DirectCompute von DX.

Leider vollkommen falsch...

YouTube

PowerVR konnte 6 GigaRays in Hardware auch schon auf einer mobile GPU:
YouTube

und 2017 auf einer PC Development Plattform mit UE4:
YouTube
Die 6 GigaRays, falls sie genannt wurden, sind keine uniforme Angabe, je nach Szene wird mehr oder weniger erreicht.
Das ist mit Nvidias Angaben von 10 GigaRays nicht direkt vergleichbar.

*gähn*


Das RT Programm von NVIDIA ist auch eine Totgeburt aktuell. Außerdem gibt es keine Games die das unterstützen und NVIDIA kann keine Hardware dafür liefern wo es läuft. ;)
Das ist auch ein Beitrag der sehr zum Gähnen führt.
 
Schick aussehen tuts ja schon, es wirkt aber einfach irgendwie zu künstlich.
Außerdem ist der Unterschied von RTX on zu off wohl ein schlechter Witz :ugly: so schlecht sieht sowas doch ohne RT-RT nicht aus :D
Doch, wenn man die Screen Space Reflections nicht für solche Betrachtungswinkel von Hand deaktivert (damit der Spieler die Artefakte nicht sieht) und dafür Cube Maps nutzt, die komplett statisch sind (ergo auch wieder Murks), sieht das genau so aus.

Raytracing braucht kein Gebastel und Getrickse und ist 100%ig physikalisch korrekt.

@GPU PhysX
Sacred 2 war das Spiel mit der am besten implementierten GPU Physik, wenn man die Seraphin gespielt hat - deren Zauber hatten unzählige Sog- und Streu-Effekte. Sieht selbst heute noch extremst geil aus und lief mit einer 560Ti mit 30 fps.
 
TressFX basiert nicht auf OCL, es verwendet DirectCompute von DX.
Stimmt. hab ich durcheinander gebracht


Die 6 GigaRays, falls sie genannt wurden, sind keine uniforme Angabe, je nach Szene wird mehr oder weniger erreicht.
Das ist mit Nvidias Angaben von 10 GigaRays nicht direkt vergleichbar.

Das kommt eben davon, wenn man eine vollkommen neue Metrik einführen will, ohne jegliche Vergleichsbasis anzubieten.
Allerdings werden auch bei RTX sicher nicht immer 10 GRays erreicht.
Da wird genug getrickst werden müssen, um die GPU nicht zu überfordern.


Edit:
@Basti1988 Dein (ATi) hat einen erheblichen Forschungsrückstand, um Ray Tracing überhaupt im Gaming Sektor nutzten zu können >>> Forschung ist Wichtig!

Hmm.. aus deinem Werbepost lässt sich so gar nicht ablesen, wie weit AMD in der RayTracing Forschung ist - woher das wohl kommt...
 
WOW, mir fallen gerade 100 Spiele ein, in denen ich diesen "Spiegel in Spiegel Effekt" schon immer total vermisst habe. Nicht.
Solange die Rechenleistung nicht ausreicht, Raytracing nicht auf einzelne Effekte zu beschränken, bleibt es für mich eine nette Spielerei für Geeks, die sich nicht durchsetzen wird.

mir fällt sofort ein titel ein, bei dem ich damals es mir schon gewünscht habe: duke nukem 3d (im kloraum des kinos, spielanfang).
nachtrag: ich hätte genauer lesen sollen "spiegel in spiegel" ? - ok, stimmt, da gebe ich dir recht :D
 
Hier geht es um GPU Ray Tracing - erstmals in Echtzeit umgesetzt, als Rasterization & Ray Tracing Hybrid Lösung auf einer GPU = Nvidia Quadro & Geforce RTX Serie - toll was .... und gut implementiertes Ray Tracing erleichtert sehr vieles - was mit klassischem Rasterization (grosser Aufwand & viele umständliche Tricks) nur schwer oder eben gar nicht erreicht werden kann!

Ray Tracing = Globale Beleuchtungseffekte einer 3D-Szene werden durch das Raytracing-Verfahren physikalisch korrekt dargestellt! 100 korrekt %

100% korrekt, wenn auch 100% der Pixel berechnet werden...mit der RTX derzeit aber höchstens 1/4.

Die Frage ist einfach, steigt die Leistung in den nächsten Jahren so drastisch, und fällt diese dann auch preislich unter die magische 300€ Grenze, bevor dem RT-Feature die Puste im Mainstream ausgeht?

Und eben das bezweifle ich, vor allem bei Nvidias Preispolitik, bei der Leistungssteigerungen immer teurer vom Anwender erkauft werden müssen.

mfg
 
Nvidia RTX Hype >>> Werbe-URL (entfernt) <<<

The hype for the new Nvidia GeForce 20 series especially for the RTX 2080 Ti is real. The graphics card will be coming out in a few days and the demand might actually overweigh the supply as pre-orders for this is limited to two per customer. Wondering why it is on another level? Let’s take a quick look at everything we know about the new GPU.

Der Hype wird nur durch NVIDIA Fanatiker(u.a. dich) am Leben gehalten. Die "normal" denkenden Personen warten erst einmal die Benchmarks ab und entscheiden dann ob das ne Mogelpackung ist oder nicht. ;)

Und wenn ich mich hier so im Forum rum treibe und die täglichen 100 RTX Threads angucke sieht das weniger nach einem Hype aus. :ka:
 
Zurück