Und der Spieler bleibt weiterhin ein Geist.
Das bekommen irgendwie nur wenige First Person Spiele hin (z.B. Prey 1, Metroid Prime, DNF) das sich die Spielfigur auch spiegelt.
@Basti1988: Raytracing an sich ist sogar noch deutlich älter als Rasterisation.
Erstmals in der Computergrafik angewendet wurde das in den 60er Jahren und das physikalische Prinzip dahinter ist schon sehr viel länger bekannt und findet in vielen Bereichen der Optik seit Jahrhunderten Anwendung.
AMD hat da eine Softwarebasierte Lösung, genau wie nVidea mit iRay oder andere Hersteller GPU beschleunigter Render Engines (z.B. Octane).
nVidea sind auch nicht die ersten, welche mit Hardwarebasiertem Raytracing Beschleuniger experimentieren, das gibt es seit den 90er Jahren.
Die letzten mir bekannten Vertreter hatten eine Leistung von ca. 50 Millionen Rays.
Die 10 Gigarays der RTX entsprechen da 10 Milliarden Rays und bedeuten einen gehörigen Schritt vorwärts in Richtung Echtzeit Raytracing.
Diese Leistung muss man neidlos anerkennen.
Alle zuvor erwähnten Dinge sind nicht wirklich für den Einsatz in Echtzeitgrafik z.B. in Spielen gedacht, sondern beschleunigen die Raytracing Berechnung nur im Vergleich zu rein CPU basierten Methoden.
Es ist schon ein Unterschied ob man nach jeder Änderung nur 2-10 Sekunden auf ein gerendertes Vorschaubild seiner Szene wartet oder ob das 2-10 Minuten dauert die Szene mit CPU zu rendern.
Im Bereich der 3D-Grafik gab es in letzter Zeit einen Trend zu verbesserter Echtzeitdarstellung (meist über openGL) im Viewport. (z.B. Blenders eevee)
Das könnte sich durch echtzeitfähige Raytracing Karten bald wieder umkehren und GPU Renderer mehr in den Fokus rücken.
Das bekommen irgendwie nur wenige First Person Spiele hin (z.B. Prey 1, Metroid Prime, DNF) das sich die Spielfigur auch spiegelt.
@Basti1988: Raytracing an sich ist sogar noch deutlich älter als Rasterisation.
Erstmals in der Computergrafik angewendet wurde das in den 60er Jahren und das physikalische Prinzip dahinter ist schon sehr viel länger bekannt und findet in vielen Bereichen der Optik seit Jahrhunderten Anwendung.
AMD hat da eine Softwarebasierte Lösung, genau wie nVidea mit iRay oder andere Hersteller GPU beschleunigter Render Engines (z.B. Octane).
nVidea sind auch nicht die ersten, welche mit Hardwarebasiertem Raytracing Beschleuniger experimentieren, das gibt es seit den 90er Jahren.
Die letzten mir bekannten Vertreter hatten eine Leistung von ca. 50 Millionen Rays.
Die 10 Gigarays der RTX entsprechen da 10 Milliarden Rays und bedeuten einen gehörigen Schritt vorwärts in Richtung Echtzeit Raytracing.
Diese Leistung muss man neidlos anerkennen.
Alle zuvor erwähnten Dinge sind nicht wirklich für den Einsatz in Echtzeitgrafik z.B. in Spielen gedacht, sondern beschleunigen die Raytracing Berechnung nur im Vergleich zu rein CPU basierten Methoden.
Es ist schon ein Unterschied ob man nach jeder Änderung nur 2-10 Sekunden auf ein gerendertes Vorschaubild seiner Szene wartet oder ob das 2-10 Minuten dauert die Szene mit CPU zu rendern.
Im Bereich der 3D-Grafik gab es in letzter Zeit einen Trend zu verbesserter Echtzeitdarstellung (meist über openGL) im Viewport. (z.B. Blenders eevee)
Das könnte sich durch echtzeitfähige Raytracing Karten bald wieder umkehren und GPU Renderer mehr in den Fokus rücken.