Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

War da nicht was mit dem Larrabee und Raytracing?!
Irgendwie doof, das nVidia denen zuvor gekommen ist, was machen die nun bloß :ugly:

Das problem ist: Zwischen 400Ghz bei 100 Kernen kommen eben noch alle möglichen anderen Kombinationen. Und Rasterising wird immer weiter aufgebohrt und legt die Messlatte für Raytracing immer noch höher - und keiner wird ein Raytracingspiel entwickeln, das schlechter als Rasterising aussieht. Das muss schon wesentlich besser aussehen. Und da sehe ich den Knackpunkt.
Das ist eben der Punkt, Raytracing verschlingt einfach unglaublich viel Rechenpower, zumal man auch noch recht viele Rays braucht.

Und LOD braucht man auch, sonst flimmerts...
Unterm Strich also nicht soo ganz einfach/unproblematisch, wie das gern von einigen Dargestellt wird, siehe auch den Thread im 3DCenter...

Ja, nur wenn selbst wenn wir Rasterizer-Chip haben, die so unglaublich schnell wären, dass sie wirklichen Fotorealismus erreichten, dann wäre die zu leistende Vorarbeit in Form von Shadern viel komplexer als bei Raytracing. Auch der Speicherplatz würde sehr drunter leiden, aber Holographischer Speicher FTW! :D Da wäre dann Raytracing warscheinlich einfacher.
Man könnte das machen, nur wäre die Performance von dem Spiel dann nicht (mehr) annehmbar, deswegen macht mans nicht!
Schau dir mal Crysis an, das soll ja eins der besten Spiele sein, was Grafik betrifft...

Von daher würd ich mal sagen, abwarten und Tee rauchen, wird schon noch kommen, aber nicht so schnell...

Und Raytracing schaut auch nicht so toll aus sondern eher künstlich, das solltest auch bedenken...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Was immer wieder vergessen wird ist, dass Raytracing auch extreme Nachteile gegenüber der üblichen Rasterung hat! Diese lassen sich in vielen Fällen auch nur durch mehrere Durchgänge lösen, wo die Rasterung aber nur einen braucht. Am Rande sei dann noch erwähnt das Optix nicht als direkter Raytracer konzipiert ist, sondern eigentlich nur als Support Unit, die eigentliche Darstellung soll dann schon wieder per Rasterung erzeugt werden. Optrix an sich übernimmt nur Beleuchtungsvorberechnungen.

Ich persönlich gehe eh davon aus, dass man eine Mixlösung finden muss, da alles andere einfach zu viele Nachteile hat. Und es will doch bestimmt einer ein 100 Core 400GHz CPU haben und diese nur fürs Raytracing verwenden oder?

Alles liebe
Jasmina
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Finde auch das Raytracing Künstlich aussieht, und die bisherigen Videos haben mich nicht unbedingt vom hocker gerissen...

Ist sicher ne nette spielerei, aber es wird wohl noch ein Jahrzehnt brauchen bis es vollkommen überzeugt... so weit lehne ich mich mal aus dem Fenster...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Genau, Raytracing für Beleuchtung, Rasterizing fürn Rest, darauf wirds wohl hinaus laufen bzw auf solche Dinge...

Wobei die Stencil Schatten auch nicht soo schlecht sind.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ja, nur wenn selbst wenn wir Rasterizer-Chip haben, die so unglaublich schnell wären, dass sie wirklichen Fotorealismus erreichten, dann wäre die zu leistende Vorarbeit in Form von Shadern viel komplexer als bei Raytracing. Auch der Speicherplatz würde sehr drunter leiden, aber Holographischer Speicher FTW! :D Da wäre dann Raytracing warscheinlich einfacher.
Natürlich, beim fotorealismus wäre Raytracing um einiges schneller... Aber wir müssen halt erstmal Photorealistmus erreichen! (was btw mit Raytracing nicht möglich ist- dazu später.)
Der Vorteil der Rasterisierungsgrafik ist, dass sich einige Effekte "hinbescheissen" lassen- z.B. spiegelungen und Schatten.
Es gibt einen Punkt, ab dem Raytracing schneller gerendert werden kann als Rasterisierung, nur von dem sind wir noch meinerweit entfernt- er liegt irgendwo zischen 1.000.000 und 10.000.000 Polygonen... momentane Spiele bringen es auf vllt maximal 100.000 pro Szene (geschätzt).
Effekte sind mit Rasterisierung viel leichter zu realisieren wie mit Raytracing... hierzu hol ich einfach mal nen Screenshot aus Call of Juared, Bound in Blood:
http://images.gamestar.de/images/idgwpgsgp/bdb/2006053/800x600_prop.jpg
Der Felsen links wird von unten leicht angeleuchtet... das nennt man inirekte Beleuchtung. Das hab ich auch noch in keinem anderen Spiel gesehen. DAS kann Raytracing z.B. nicht. Dafür wäre Radiosity nötig- und die verschlingt nochmal deutlich mehr Rechenleistung als Raytracing. Für jede Szene müssen im Voraus alle Beleuchtungsinformationen gesammelt werden- erst dann gehts los.
Klar, ab einem bestimmten Detailgrad stößt auch die Rasterisierung auf ihre grenzen- beim Rendern von Mehrfachspiegelungen muss mit Raytracing ein sehr kleiner, bei Rasterisierung ein sehr hoher Aufwand betrieben werden.. Bim Raytracing macht das ganze keinen Unterschied- bei der Rasterisierung muss dann mit mehreren vituellen, dynamischen Kameras (Bild-in-Bild) gearbeitet werden- sowohl programmiertechnisch als auch rechentechnisch sehr aufwändig.
naja, mal schaun wies weitergeht- da bleibt uns nur das Abwarten ;-)
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

die news ist vieleicht nicht komplett falsch aber etwas missverständlich...

optiX ist kein ganzer renderer der alles berechnet so wie z.b mental ray.
optiX ist ein programm das in echtzeit nur die beleuchtung berechnet auf der gpu und das wird dann z.b. in 3dsmax integriert und gibt seine daten dann an den eigentlichen renderer weiter. was aber natürlich eine sehr hohe zeitersparniss ist
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Auch wenn optiX jetzt kein ganzer Renderer ist, sieht man wie Nvidia neue Techniken durchsetzt. Wann eine Single-GPU kommt die rendern, PhysX und Raytracing(evnt noch F@H) parallel packt würd ich gern wissen!! :D
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Wenn Ich die ganzen Fanboys wieder höre:" Nvidia setzt neue Techniken durch", könnt Ich schon kotzen.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

die news ist vieleicht nicht komplett falsch aber etwas missverständlich...

optiX ist kein ganzer renderer der alles berechnet so wie z.b mental ray.
optiX ist ein programm das in echtzeit nur die beleuchtung berechnet auf der gpu und das wird dann z.b. in 3dsmax integriert und gibt seine daten dann an den eigentlichen renderer weiter. was aber natürlich eine sehr hohe zeitersparniss ist

Stimmt, man hätte das sicherlich deutlicher sagen können.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Wenn Ich die ganzen Fanboys wieder höre:" Nvidia setzt neue Techniken durch", könnt Ich schon kotzen.
wieviele hast du denn zitiert? Euphorie muss nicht mit wahnsinn gleichgesetzt werden! Ich würde die sachen, wenn möglich, auch gerne auf einer ATI laufen lassen, aufgrund höherer Leistung sicherlich sinnvoller. Üble Nachrede nene
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Wenn Ich die ganzen Fanboys wieder höre:" Nvidia setzt neue Techniken durch", könnt Ich schon kotzen.

Das Problem, wenn es eines ist, ist das Nvidia ja einen Riesen in Raytracing Based Rendering 2007 gekauft hat. mental images: Home

Mental Images haben Mental Ray entwickelt und dieses wurde z.B. in Star Wars EP 3, HDR - Trilogy uvm. eingesetzt.

Somit ist es für die ein leichtes ein system zu entwickeln welches Hardwaregestützt ist.

Da sollte AMD langsam mal nachziehen, sonst hinken die noch weiter hinterher.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Das Problem, wenn es eines ist, ist das Nvidia ja einen Riesen in Raytracing Based Rendering 2007 gekauft hat. mental images: Home

Mental Images haben Mental Ray entwickelt und dieses wurde z.B. in Star Wars EP 3, HDR - Trilogy uvm. eingesetzt.

hdr und ep3 wurden komplett mit renderman gerendert. ep2 wurde zu teilen noch mit mental gerendert, nur hat renderman derart aufgeholt was raytracing angeht das man mittlerweile auch renderman fuer raytracing einsetzt, bzw fuer raytracing effekte. zu raytracing, selbst bei renderman kann man zb ambient occlusion, color bleeding und image based lighting ueber rasterizer rendern und macht das auch, eben weil es viel schneller als raytracing ist und dazu noch noisefree. ich halte davon aktuell nichts muss ich sagen, als mental ray user haette ich mir eine neue bugbereinigte mental ray version gewuenscht, denn mittlerweile ist die ganze software derart buggy das es keinen spass mehr macht mit zu arbeiten.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Um ehrlich zu sein sehe ich keinen Grund, dass AMD schlechter dran sein sollte wie Nvidia... AMD arbeitet momentan an der Fusion von CPU und GPU-> d.h. damit kann auch geraytraced werden... und zwar komplette Szenen. Ich denke eher, dass AMD Nvidia einen Schritt voraus ist, nämlich im Gegensatz zu Nvidia hat AMD schon Chips, die jede beliebige Berechnung ohne Probleme und rumspacken erledigen- die AMD CPUs. Nvidia macht zwar mit CUDA einen Weg in die selbe Richtung, aber bisher kann CUDA auch nicht mit der Nutzungsvielfalt von CPUs mithalten.
Klar, CPUs und GPUs unterscheiden sich grundlegend, aber wenn AMD sein Fusion-Projekt schafft, sieht Nvidia erstmal richtig alt aus...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Genau, Fusion ist eher was für Ultraportables und Office Rechner, sozusagen ein zwischending zwischen Athlon 2/x2 und Atom.

Ob die GPU darin komplett abgeschaltet wird oder nur der Grafikteil (so dass der Rechenteil aktiv bleibt), muss erstmal abgewartet werden, wünschenswert wäre eine 2 Stufige Abschaltung...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Mhm dann hab ich was falsch verstanden... bisher dachte ich immer, Fusion sei ein Chip, universell einsetzbar wie eine CPU aber leistungsstark wie eine GPU?
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

hdr und ep3 wurden komplett mit renderman gerendert. ep2 wurde zu teilen noch mit mental gerendert, nur hat renderman derart aufgeholt was raytracing angeht das man mittlerweile auch renderman fuer raytracing einsetzt, bzw fuer raytracing effekte. zu raytracing, selbst bei renderman kann man zb ambient occlusion, color bleeding und image based lighting ueber rasterizer rendern und macht das auch, eben weil es viel schneller als raytracing ist und dazu noch noisefree. ich halte davon aktuell nichts muss ich sagen, als mental ray user haette ich mir eine neue bugbereinigte mental ray version gewuenscht, denn mittlerweile ist die ganze software derart buggy das es keinen spass mehr macht mit zu arbeiten.

Also "noisefree" (was auch immer du im detail damit meinst) ist so gut wie bei kein renderer der Fall, nur die Approximation scheint wohl beim Pixar Renderer besser zu sein. Ich kenn eigentlich nur die flickerartefakte und die macht eigentlich nur die GI Engine bei schlechten Einstellungen und/oder Schlechten Meshes. Ich persönlich Arbeit weniger mit Mental Ray... mach z.Z. viele Rigs und da braucht man nix rendern ;)
Hab recht gern den FinalRender oder Vray benutzt und selbst die sind nicht nur durch nen paar Klicks flickerfree... da muss man sich schon mit auseinander setzen. Ich glaube auch nicht, dass der Renderman da anders ist, da er ja sicher auch nicht die Quasi Monte Carlo Methode einsetzen wird. Also wird es auch auf samplen/rays basieren, die dann mit nem speziellen Verfahren die farb und Lichtinformationen aussmoothen. Sicherlich recht effizient, da er ja Produktionserprobt ist.
 
Zurück