Genau das habe ich gemeint, limitiert das nicht sehr bald stark?
Radiosity würde sich schon eher eignen aber dann hätte man wieder das Problem mit den Spiegelungen und die Anzahl der Polygone müsste wahrscheinlich auch wieder verringert werden müssen. Außerdem ist es noch langsamer.
Klar limitiert das. Es wäre deutlich sinnvoller, mit Raytracing "zu Hause" zu spielen und es nicht in der Cloud durchzuführen. Raytracing ist bezüglich des Rechenaufwandes sehr zickig. Es kann sein, dass eine einfache Szene mit über 100FPS läuft und der nächste Raum ruckelt nur noch mit 15 herum, wenn die Szene vor Sekundärstrahlen überquellt. Eine weitere Lichtquelle hier, noch ein Spiegel da und eine riesige, lichtbrechende Wasseroberfläche mir volumetrischem Licht und Kaustiken und Intels Overkill-Cloud kommt auf dem Zahnfleisch daher.
Wenn Intel wirklich ein Verfahren entwickeln will, Raytracing in Spiele zu bekommen, dann doch bitte daheim und nicht in der Cloud. Mit einem guten Monte-Carlo-Verfahren wäre dann sogar eine maximale Begrenzung an Strahlen möglich, sodass jede Szene IMMER mit der selben FPS-Rate gerendert wird (dabei muss man natürlich bei extrem komplexen Szenen an Qualität einbüßen...). Daher halte ich das für den besten Weg. Sonst sinkt die Leistung bei größerer Spielerzahl - was soll der Mist?
Radiosity ließe sich ja auch theoretisch mit Raytracing verbinden, aber Radiosity in Verbindung mit Raytracing wäre wohl weder performant, noch schön, weil für Radiosity in hoher Qualiät wiederum sehr hochauflösende Meshes benötigt werden... die Performance sinkt weiter. Zudem ist Radiosity sehr ineffizient...
Hier wäre wohl eher die traditionelle Lightmap-Methode oder gar globales Raytracing besser geeignet.
Ich frage mich in letzter Zeit häufiger, was an der tollen Cloud so super sein soll, dass Intel so drauf abfährt...