Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

AW: Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

wenn man Raytracing vor rendert gibt es keine pixel, aber dann kann man sich gleich ein Film angucken.

zeig mir Raytracing in real-time was nicht verpixelt ist?
 
AW: Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

wenn man Raytracing vor rendert gibt es keine pixel, aber dann kann man sich gleich ein Film angucken.

zeig mir Raytracing in real-time was nicht verpixelt ist?
Kannst, oder willst DU es nicht verstehen?
Aktuell wirkt RT verpixelt, weil nicht genügend Rays pro Pixel berechent werden.
Das liegt aber nicht an RT an sicht, sondern an aktuell fehlender Rechenpower. Mit mehr Rechenleistung können mehr Rays berechent werden und dann wirkt RT auch nicht mehr Verpixelt.
Und dann ist klar
Raytracing wird immer verpixelt sein, das es verpixelt liegt ja nicht an der hardware.
es liegt doch an der Hardware, das RT verpixelt, eben weil sie noch nicht stark genug ist, um genügend Rays zu berechnen, damit es nicht mehr verpixelt wirkt...
 
AW: Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

wenn man Raytracing vor rendert gibt es keine pixel, aber dann kann man sich gleich ein Film angucken.

zeig mir Raytracing in real-time was nicht verpixelt ist?
Der Post wurde eigentlich ja schon beantwortet, aber du kannst dir beispielsweise Screen-Space-Reflections in Direct X 11 anschauen. Die sind zwar kein Raytracing, der Strahlenaspekt wurde aber übernommen, in der Hinsicht kann man es als ersten Schritt in diese Richtung sehen, der eben "Shadergerecht" umgesetzt wurde.
Oder schau dir einfach die von dir erwähnte Design-Garage Demo an und stell die "erweiterte Darstellung" (oder wie das heißt - einfach die Darstellung, die anfangs noisy ist) aus. Dann wird jeder Pixel genau ein mal berechnet und du hast eine feste Anzahl an Samples und eine davon abhängige gefixte Framerate. Dafür ist das Bild aber von Anfang an schön pixelgenau und von "pixelig" kann keine Rede mehr sein. Sobald du die oben benannte Einstellung aber reinmachst, wird das Bild nach dem stochastischen Monte-Carlo-Prinzip berechnet, bei dem zufällig Strahlen in den Screen Space geschossen werden. Das ist die verlässlichste Methode, Eigenschaften der globalen Beleuchtung zu berechnen. Ein weiterer Vorteil der Monte-Carlo-Methode ist eine absolut bombenfeste Framerate, die sich keinerlei Einbrüche leistet und jede Millisekunde an Rechenzeit automatisch der Bildqualität zu Gute kommt.
Für globales Raytracing in Echtzeit fehlt aktuell die Leistung, wobei man fairerweise sagen muss, dass wir es in letzter Zeit dennoch mit einer wahren Leistungsexplosion zu tun hatten. Gerade durch GPGPU und Optimisierungen an den Renderengines ansich wurde nun die Rechenzeit auf einen Bruchteil von dem reduziert, was noch vor 5 Jahren drin war. Gerade so etwas wie die Brigade-Engine wäre damals absolut undenkbar gewesen. Zu "geordnetem" Raytracing ohne globale Einflüsse gibt es aber in Youtube massig Material - oder du wirfst wie gesagt die Design Garage Demo an, und machst den schnellen Modus rein. Das ist sowohl echtzeit, pixelgenau und auch Raytracing.
gRU?; cAPS
 
AW: Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

Sicher? So wie das erklärt wird, könnte es RayTracing sein. Auch seh ich keine der Nachteile von PathTracing...
In der iRAY-Demo? Ziemlich sicher. Ich glaube jedenfalls nicht, dass die die globale Beleuchtung über Photon Maps gerendert haben. Normalerweise wird die Photon Map ja erstmal vorgerendert und liefert auch im frühen Renderprozess keine Fireflies zurück, sofern sie hoch genug aufgelöst ist. Ein paar Fireflies kann man im iRAY-Render aber durchaus sehen. Ich denke, dass Pathtracing eingesetzt wurde, Raytracing alleine liefert ja keine globale Beleuchtung.
gRU?; cAPS
 
AW: Echtzeit-Raytracing: Imagination Technologies kündigt Wizard-GPU an

Also allein schon bei der Brigade 3-Engine Demo sehen die Bilder extrem realistisch aus; natürlich wenn man sich die schwarzen Pixeln weg denkt. Wenn das irgendwann mit leistungsfähiger Hardware perfektioniert wird, dann fehlt nur noch ne passende Schnittstelle für den Menschen und die Matrix kann beginnen :cool:
 
Zurück