Cebit 2011: Cloud-Raytracing mit vier Knights-Ferry-Karten in Aktion

PCGH-Redaktion

Kommentar-System
Teammitglied
Ich verfolge diese Raytracing Geschichte (insbesondere um Daniel Pohl) schon seit längerem. Es ist wirklich beeindruckend, dass realistische Reflexionen, bzw. Lichtstrahlenberechnung in Echtzeit mittlerweile so "gut" funktioniert. Klar kann noch kein "normaler" PC solche Berechnungen durchführen, denn ich denke mal so eine Knights Ferry Karte dürfte auch nicht gerade günstig sein, mal ganz davon abgesehen, dass es noch keine Mainstreamschnittstelle dafür gibt.

Ich denke aber, dass diese Technik insbesondere in der Filmindustrie noch einiges bewirken könnte, denn da kommt es ja nicht auf Echtzeitberechnung an. Beim Cloud-Gaming stört mich allerdings die Latenz zum Server. Dass man die irgendwann mal nicht mehr spürt, kann ich mir aktuell nicht vorstellen. Das beste Spielerlebnis hat man immer noch auf der eigenen Hardware, ob Raytracing hier allerdings Einzug erhält, ist nach dem Scheitern von Larrabree leider fraglich.
 
Ich verfolge diese Raytracing Geschichte (insbesondere um Daniel Pohl) schon seit längerem. Es ist wirklich beeindruckend, dass realistische Reflexionen, bzw. Lichtstrahlenberechnung in Echtzeit mittlerweile so "gut" funktioniert. Klar kann noch kein "normaler" PC solche Berechnungen durchführen, denn ich denke mal so eine Knights Ferry Karte dürfte auch nicht gerade günstig sein, mal ganz davon abgesehen, dass es noch keine Mainstreamschnittstelle dafür gibt.

Ich denke aber, dass diese Technik insbesondere in der Filmindustrie noch einiges bewirken könnte, denn da kommt es ja nicht auf Echtzeitberechnung an. Beim Cloud-Gaming stört mich allerdings die Latenz zum Server. Dass man die irgendwann mal nicht mehr spürt, kann ich mir aktuell nicht vorstellen. Das beste Spielerlebnis hat man immer noch auf der eigenen Hardware, ob Raytracing hier allerdings Einzug erhält, ist nach dem Scheitern von Larrabree leider fraglich.

Cloud Computing bzw. Gaming steckt noch in den Kinderschuhen. Bis das mal anständig läuft (Latenzen) bedarf es einem weitverbreiteten Glasfasernetzt. Ergo dauert das noch Jahre :schief:.
 
Zuletzt bearbeitet:
Cloud Computing finde ich den richtigen Weg, bzw. Ansatz für ein flottes Game Unterwegs auf einem normalem Notebook.
High End Gamer die auf höchste Auflösung und Details inkl. AA + AF zocken wollen, werden aber noch lange darauf warten müssen.
 
Oh man das sieht mal wieder richtig schlecht aus. Der Herr Pohl zeigt in beängstigender Regelmäßigkeit immer den gleichen schlechten Kram.

Fällt denn niemanden das extrem starke Aliasing auf (vorallem in den Felgen im Video). Davon bekommt man doch Augenkrebs. Seine Bemühungen sind sowas von fern jeder Realität, dass man stark an seinen Fachkentnissen zweifeln muss. Bspw. sind noch nichtmal harte Schatten mit von der Partie und von globaler Beleuchtung wollen wir noch nicht mal reden. Für die gezeigte Qualität (korrekte Reflektion/Refraktion mal ausgenommen) reicht schon die Graphikpower der Wii aus, wenn man es halt per Rasterizer und nicht per Raytracing macht.
 
Globales Raytracing mit Anti-Aliasing sprengt den Rahmen... es ist schon beeindruckend genug, dass Raytracing überhaupt in Echtzeit läuft...
allerdings ist Raytracing wirklich nix tolles, wenn man nicht das Maximum an Effekten aus dem Ärmel zaubert. Die Lichtbrechungen sehen zwar im Vergleich zu rasterisierten Games ganz schick aus, aber ohne Spektralbrechung (was immerhin auch Crysis schon RICHTIG gut immitiert hat) sind die Dinger wirklich nicht so toll. Auch Kaustiken wären nett, aber davon sieht man auch nichts. Auch von Volumetrischen Schatten bzw. Licht ist nichts zu sehen, was bei Raytracing auch verdammt natürlich rüber kommt.
Aber das alles ist für aktuelle Hardware eben Overkill. Ich bin froh darüber, dass für Offline-Renderings mitlerweile auch die GPU zur Rate gezogen werden kann, die Raytracing massiv beschleunigt. Von Echtzeit kann aber unter keinen Umständen die Rede sein...
 
Das ist aber leider das, was der Herr Pohl einem weiß machen will und damit absoluter Blödsinn ist. Sicherlich lassen sich viele Effekte mittels Raytracing leichter und eleganter implementieren aber von einfacherer Programmierung hat der Endbenutzer natürlich nichts. Und wenn man dann auch noch eine schlechtere Qualität in Kauf nehmen muss, dann wird das niemand akzeptieren.
Zur Beschleunigung von Offline-Renderern mögen diese Larabee-Abkömmlinge natürlich durchaus sinnvoll sein.
 
Das ist aber leider das, was der Herr Pohl einem weiß machen will und damit absoluter Blödsinn ist. Sicherlich lassen sich viele Effekte mittels Raytracing leichter und eleganter implementieren aber von einfacherer Programmierung hat der Endbenutzer natürlich nichts. Und wenn man dann auch noch eine schlechtere Qualität in Kauf nehmen muss, dann wird das niemand akzeptieren.
Zur Beschleunigung von Offline-Renderern mögen diese Larabee-Abkömmlinge natürlich durchaus sinnvoll sein.
Nur das können die Fermis halt auch :D
Daher ergibt Larabee für mich keinen Sinn...
In diesen Ausmaßen ist Raytracing wirklich Müll. Sieht ganz gut aus, verschlingt aber Leistung zum Frühstück. Warum nicht in Verbindung mit anderen Techniken? Spiegelungen und Lichtbrechungen über Raytracing, Spektralberchung über Post-Processing (wie in Crysis halt auch schon...), Schatten über Stencils oder Shadow Maps, volumetrische Effekte und globale Beleuchtung einfach drüberrastern oder Rauch per Voxels. Die Geometrie wird zu 100% gerastert und schon ist Anti-Aliasing kein Problem mehr. Das Programm müsste eben Wissen, wo es zu rastern und wo zu raytracen hat, aber das hat Nvidia ja auch schon geschafft. Das würde wohl genauso gut aussehen und nicht so abnorm viel Leistung schlucken...
 
Ich denke aber, dass diese Technik insbesondere in der Filmindustrie noch einiges bewirken könnte, denn da kommt es ja nicht auf Echtzeitberechnung an.

Die Filmindustrie hat schon raytraycer eingesetzt, da haben PCler noch Sprites in 2D verschoben.


Nur das können die Fermis halt auch :D
Daher ergibt Larabee für mich keinen Sinn...
In diesen Ausmaßen ist Raytracing wirklich Müll. Sieht ganz gut aus, verschlingt aber Leistung zum Frühstück. Warum nicht in Verbindung mit anderen Techniken? Spiegelungen und Lichtbrechungen über Raytracing, Spektralberchung über Post-Processing (wie in Crysis halt auch schon...), Schatten über Stencils oder Shadow Maps, volumetrische Effekte und globale Beleuchtung einfach drüberrastern oder Rauch per Voxels. Die Geometrie wird zu 100% gerastert und schon ist Anti-Aliasing kein Problem mehr. Das Programm müsste eben Wissen, wo es zu rastern und wo zu raytracen hat, aber das hat Nvidia ja auch schon geschafft. Das würde wohl genauso gut aussehen und nicht so abnorm viel Leistung schlucken...

Ich bin gespannt, wie du die Hardware auf diese """eine""" Aufgabe optimieren willst - und wie lange die Berechnung des wie&wo dauern soll. Um zu wissen, welches Pixel auf einer spiegelnden oder brechenden Fläche landet, musst du wohl oder übel erstmal jedes einzelne Pixel traycen. Dann willst du ausgerechnet die Raytracer-Vorzeigebeispiele aufwendige Brechung und Beleuchtung über konventionelle Verfahren machen (d.h. die gesamte Geometrie, einschließlich der spiegelnden Flächen)? Und zu guter letzt willst du getraycte nochmal für AA rastern?
Klingt irgendwie weder so effizient wie ein Rasterizer noch so einfach wie ein Raytraycer...

Voxel sind übrigens kein Verfahren zum rendern, sondern zur Geometriedarstellung - man kann Voxel rastern oder traycen (letzteres ist afaik deutlich sinnvoller), wie man Polygone rastern und traycen kann.
 
Die Filmindustrie hat schon raytraycer eingesetzt, da haben PCler noch Sprites in 2D verschoben..

Ich vermute mal, dass er damit die Knights-Ferry-Karten meinte. Sind natürlich deutlich platzsparender als große Cluster und vermutlich auch flexibler in der Programmierung als GPGPUs (Tesla etc.).



Der Rest klingt tatsächlich ziemlich wüst. Da wurde alles in einen Topf geworfen und mal kräftig drin gerührt. ^^ Aber natürlich ließen sich Raytracer und Rasteizer kombinieren. Man tract dann alle reflektierenden/brechenden Objekte (die man per space-partitioning Struktur z.B. kd-Tree ggf. schnell verwerfen kann) und rastert den rest. Die grobe Skizze sollte jedenfalls einfach umsetzbar sein (erst recht wo sich das durch DirectCompute leicht mit D3D verknüpfen ließe) aber im Detail mag's da durchaus einige Fallstricke geben, die Probleme bereiten könnten.
 
Zurück