Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Stimmt, man hätte das sicherlich deutlicher sagen können.

Hm!?

Hallo Thilo, nur mal so eine klitzekleine Frage...

Was ist denn überhaupt "Echtzeit"!?

Wie soll denn diese Utopie der Hersteller und der User funktionieren!?

Denn wenn ich in den Spiegel schaue, dann ist die Abbildung schon Vergangenheit!

Echtzeit!? Einfach nur ein Marketing Gag...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Also irgendwie stimmen die ganzen Lichtreflektionen und Schatten nicht. In jedem Fall sieht alles unrealistischer und plastischer aus als je zuvor. Wirkt alles noch wie in einer sehr frühen Alpha-Phase. Da hat Nvidia noch viel Arbeit ...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Grafikkarten sind doch ohnehin, durch ihren Aufbau bedingt, für echtes Raytracing völlig ungeeignet. Weswegen auch kein professioneller Renderer auf Grafikarten rechnet.. ..insofern ist hier der Begriff "Raytracing" völlig falsch verstanden.

Selbst MentalRay oder V-ray benutzen vereinfachte Rechenmodelle. Wirkliches Raytracing lässt sich bislang nur über die "Brute Force" Methode erreichen und das dauert.
Maxwell Render, beispielsweise, basiert auf dieser Methode und da kann man auf einer professionellen Workstation für ein Bild A4 @ 300dpi, Aussenperspektive, Physical Sky und ohne zusätzliche Lichtquellen oder komlexe BDSFs schon mal mindestens einen Tag Renderzeit einplanen damit das Bild halbwegs Noise-frei ist..

Raytracing auf ner Graka in Echtzeit.. pfffft..

:kaffee:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Maxwell Render, beispielsweise, basiert auf dieser Methode und da kann man auf einer professionellen Workstation für ein Bild A4 @ 300dpi, Aussenperspektive, Physical Sky und ohne zusätzliche Lichtquellen oder komlexe BDSFs schon mal mindestens einen Tag Renderzeit einplanen damit das Bild halbwegs Noise-frei ist..
"professionellen Workstation"? Also 2x Quadcore Nehalem? Hat doch im Vergleich zu einer Graka überhaupt keine Rechenpower *gähn*
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

"professionellen Workstation"? Also 2x Quadcore Nehalem? Hat doch im Vergleich zu einer Graka überhaupt keine Rechenpower *gähn*

das kommt dann wohl auf das programm an:

echter raytracer auf ner grafikkarte = 0 rechenpower - weils einfach nicht geht.. :wow:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

das kommt dann wohl auf das programm an:

echter raytracer auf ner grafikkarte = 0 rechenpower - weils einfach nicht geht.. :wow:
Das liegt aber nur daran, dass noch die programme nicht auf ner GPU laufen, und nicht, dass es ne grafikkarte nicht könnte (zumal es die programme durchaus schon gibt, darüber handelt ja u.a. die news :ugly: ).
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Das liegt aber nur daran, dass noch die programme nicht auf ner GPU laufen, und nicht, dass es ne grafikkarte nicht könnte (zumal es die programme durchaus schon gibt, darüber handelt ja u.a. die news :ugly: ).

nein, es gibt eben keine ECHTEN Raytracer, die auf einer Graka laufen würden..

bei dem, was nVidia da macht handelt es sich um ein quasi-Raytracing. Dabei werden die meisten Informationen, die bei der Berechnung der Lichtstrahlen auftauchen einfach weggeschmissen. Nur so lässt sich halbwegs vernünftig parallelisieren und die im Vergleich zur CPU zwangsläufig "dumme" GPU auch dafür nutzen.

Das was beim echten Raytracing berechnet werden muss, kann die Grafikkarte gar nicht leisten, dafür fehlen ihr schlichtweg die Befehlssätze und die universelle mathematische Einsetzbarkeit.

Hier liegt das Problem tatsächlich an der Hardware..

Lies bei Wikipedia mal nach was ein "Vollständiger Raytracer" alles berechnet und prüfe mal gegen was eine GPU dafür alles können müsste - und huch! es wäre eine CPU..

..ich verdiene genau damit mein Geld und kann Dir sagen, daß es mich wirklich freuen würde, wenn Grakas das könnten wovon nVidia da redet - aber weder Caustics noch diffuse Interreflexion können mit GPUs berechnet werden. Das aber ist die Grundlage für photorealistischs und optisches Raytracing und deswegen sehen die Bilder von nVidia auch so unecht aus.

Abgesehen davon, sind die vorgestellten "Echtzeit-Beispiele" ein Witz - für den professionellen Bereich völlig unbrauchbar. Andere sind da schon um einiges weiter, wie der japanische Hersteller N-Technology mit seinem "Echtzeit-Raytracer" Hayabusa für Rhino 4..

:kaffee:
 
Zuletzt bearbeitet:
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

bei dem, was nVidia da macht handelt es sich um ein quasi-Raytracing. Dabei werden die meisten Informationen, die bei der Berechnung der Lichtstrahlen auftauchen einfach weggeschmissen. Nur so lässt sich halbwegs vernünftig parallelisieren und die im Vergleich zur CPU zwangsläufig "dumme" GPU auch dafür nutzen.
Klar, man opfert Qualität zugunsten von Geschwindigkeit. Gibt eben Anwendungen, wo Echtzeit (oder auch Quasiechtzeit, also irgendwas mit zumindest 15fps) Pflicht ist und auch die würden gern mal Raytracing nutzen, wenn es um Beleuchtung geht. Damit ist das ganze aber noch lange nicht mehr ein "ECHTER" raytracer, nur weil man informationen aus geschwindigkeitsgründen weglässt.

Lies bei Wikipedia mal nach was ein "Vollständiger Raytracer" alles berechnet und prüfe mal gegen was eine GPU dafür alles können müsste - und huch! es wäre eine CPU..
Das ist so schlichtweg falsch und abgesehen davon gibt es "vollständiger raytracer" nicht bei wikipedia ;)

..ich verdiene genau damit mein Geld und kann Dir sagen, daß es mich wirklich freuen würde, wenn Grakas das könnten wovon nVidia da redet - aber weder Caustics noch diffuse Interreflexion können mit GPUs berechnet werden. Das aber ist die Grundlage für photorealistischs und optisches Raytracing und deswegen sehen die Bilder von nVidia auch so unecht aus.
Du magst damit vielleicht dein Geld verdienen, aber du weißt nicht was Nvidia tut - damit verdiene nämlich genau ich mein Geld ;)
Und was du da ansprichst: Warte mal ein bisschen, auch wenn ich dazu aus NDA-Gründen nicht mehr sagen darf :ugly:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Klar, man opfert Qualität zugunsten von Geschwindigkeit. Gibt eben Anwendungen, wo Echtzeit (oder auch Quasiechtzeit, also irgendwas mit zumindest 15fps) Pflicht ist und auch die würden gern mal Raytracing nutzen, wenn es um Beleuchtung geht. Damit ist das ganze aber noch lange nicht mehr ein "ECHTER" raytracer, nur weil man informationen aus geschwindigkeitsgründen weglässt.
Ok. Der o.g. Artikel sagt: "Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, optische Simulationen oder Forschungsthemen."
..und auch mir geht es in jeder meiner Antworten, um echtes, vollständiges Raytracing und nicht um eine Möchtegern-Sparversion.

Das ist so schlichtweg falsch und abgesehen davon gibt es "vollständiger raytracer" nicht bei wikipedia ;)
..deswegen ist es ja auch in "" geschrieben. Es gibt aber durchaus vollständiges Raytracing (siehe Tabelle, Wikipedia). Maxwell Render ist zB. einer davon. Weder fotorealistisches Rendern, noch optische Simulationen lassen sich mit der dem vollständigem Path-Raytracing zugrundeliegenden Algorithmus in einer Grafikpipline berechnen.

Wenn es möglich wäre, vollständiges Raytracing auf einer Graka laufen zu lassen, dazu noch effizient, dann wäre es schon längst gemacht worden - allein die CGI der Filmindustrie, Werbeindustrie oder Visualisierungsbranche setzen dabei jährlich etliche Milliarden um. Deswegen gibt es wohl auch Serverfarmen mit CPUs und nicht mit GPUs.. :ugly:

Du magst damit vielleicht dein Geld verdienen, aber du weißt nicht was Nvidia tut - damit verdiene nämlich genau ich mein Geld ;)
Und was du da ansprichst: Warte mal ein bisschen, auch wenn ich dazu aus NDA-Gründen nicht mehr sagen darf :ugly:
Du verdienst dein Geld damit, zu wissen, was die Raytracing-Entwicklungsabteilung von Nvidia macht? In Deiner Profilbeschreibung steht HiWi bei einem IT-Unternehmen alias Nvidia in A?

Was solls, solange Grafikkarten so funktionieren, wie sie funktionieren, kann es kein "echtes, vollständiges" Raytracing auf GPUs geben..

Ich habe letzte Woche das vorher genannte Bild in einer Renderfarm mit Maxwell Render rendern lassen, mit einer Gesamt-Rechenleistung von 2500 Ghz - das sollte bislang jede Graka weit übertreffen - und musste trotzdem 20 min rechnen lassen um es Noise-frei zu bekommen.

..und jetzt willst Du mir mit Deinen angeblichen "Geheiminformationen" erzählen, dass das, was Maxwell Render rechnet, in Echtzeit gehen soll?! :what:

vergiss es!!! :crazy:

Dass Nvidia gute Profihardware herstellt ist unbestritten, aber dass das Besprochene in naher Zukunft Realität wird halte ich für reines Marketing-Geplänkel. Dass etablierte Renderer-Entwickler wie MentalRay, VRay, Maxwell uva. davon profitieren ist fraglich. Und wie gesagt, die Testszenen sind lächerlich..

;)
 
Zuletzt bearbeitet:
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ok. Der o.g. Artikel sagt: "Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, optische Simulationen oder Forschungsthemen."
..und auch mir geht es in jeder meiner Antworten, um echtes, vollständiges Raytracing und nicht um eine Möchtegern-Sparversion.
Kein Raytracing ist jemals vollständiges Raytracing, dazu müsste (u.A.) die Anzahl der Bounces unendlich sein (faktisch nicht möglich, also wird nach X Bounces einfach aufgehört), die Farbtiefe unendlich (auch nicht möglich) usw usf.

Diese "vollständige Raytracing"-Masche (hat schonmal jemand anders hier im Forum versucht, für den war es sogar kein Raytracing mehr, weil das Ergebnis in nem OpenGL-Kontext gezeigt wurde :ugly: ) ist ungefähr so, als ob du mir weißmachen willst, nur jedes Auto mit allen möglichen Extras ist ein ECHTES Auto. Und das ist nunmal genauso Blödsinn.

..deswegen ist es ja auch in "" geschrieben. Es gibt aber durchaus vollständiges Raytracing (siehe Tabelle, Wikipedia). Maxwell Render ist zB. einer davon. Weder fotorealistisches Rendern, noch optische Simulationen lassen sich mit der dem vollständigem Path-Raytracing zugrundeliegenden Algorithmus in einer Grafikpipline berechnen.
Dann hast du ja kein Problem damit, einfach mal ein bisschen zu warten. :daumen:

Wenn es möglich wäre, vollständiges Raytracing auf einer Graka laufen zu lassen, dazu noch effizient, dann wäre es schon längst gemacht worden - allein die CGI der Filmindustrie, Werbeindustrie oder Visualisierungsbranche setzen dabei jährlich etliche Milliarden um. Deswegen gibt es wohl auch Serverfarmen mit CPUs und nicht mit GPUs.. :ugly:
Diese Industrie ist vorallem eines: Verdammt konservativ. Und außerdem setzt diese Industrie den Focus nunmal auf kompromisslose Qualität, Dauer der Berechnung (fast) egal. Gibt aber halt eben auch andere Kunden. Auch wenn die kein "echtes" Raytracing wollen, zahlen tun sie genauso ;)

Und CGI der Filmindustrie: Bollywood z.B. setzt sehr viel Gelato ein.

Du verdienst dein Geld damit, zu wissen, was die Raytracing-Entwicklungsabteilung von Nvidia macht? In Deiner Profilbeschreibung steht HiWi bei einem IT-Unternehmen alias Nvidia in A?
Nicht A, in W :P

Was solls, solange Grafikkarten so funktionieren, wie sie funktionieren, kann es kein "echtes, vollständiges" Raytracing auf GPUs geben..
Das ist überhaupt kein Problem, außer das des Programmierers. Die Grafikkarte ist einfach nur ein massivparalleler Rechenchip, wunderbar geeignet für Raytracing (weil ebenfalls massivparallel). Das sie nicht soviel kann wie eine CPU und damit unterm Strich wo Thread langsamer ist (schon alleine durch die Taktung) - keine Diskussion. Aber das macht sie eben mit mehreren Hundert Threads wieder gut.

Ich habe letzte Woche das vorher genannte Bild in einer Renderfarm mit Maxwell Render rendern lassen, mit einer Gesamt-Rechenleistung von 2500 Ghz - das sollte bislang jede Graka weit übertreffen - und musste trotzdem 20 min rechnen lassen um es Noise-frei zu bekommen.
Das waren wieviele Rechner/CPUs?

..und jetzt willst Du mir mit Deinen angeblichen "Geheiminformationen" erzählen, dass das, was Maxwell Render rechnet, in Echtzeit gehen soll?! :what:
DAS habe ich nie behauptet. Das ist deine Interpretation, die kann man so aber nicht bei dem herauslesen, was ich schreibe.

Und wie gesagt, die Testszenen sind lächerlich..
Richtig, die eigentliche Demo wurde wohl nur nicht-öffentlicht gezeigt. Wie gesagt: Warte ab ;)
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Kein Raytracing ist jemals vollständiges Raytracing, dazu müsste (u.A.) die Anzahl der Bounces unendlich sein (faktisch nicht möglich, also wird nach X Bounces einfach aufgehört), die Farbtiefe unendlich (auch nicht möglich) usw usf.
Naja, man kann aufhören zu rendern, wenn die Veränderung des Farb- und Helligkeitswertes nicht mehr vom Auge wahrnehmbar und vom Drucker abbildbar ist. Im Übrigen rendert Maxwell unendlich lange, ab einem SamplingLevel von 25 kann allerdings kein Unterschied zum nächsten SL wahrgenommen werden und dann bricht man spätestens ab. Bei dem Mirror-Bounce Test gibt es schon bei SL15 mehr als 60 Bounces.. das ist in 99,9% aller Szenen mehr als genug..

Diese "vollständige Raytracing"-Masche (hat schonmal jemand anders hier im Forum versucht, für den war es sogar kein Raytracing mehr, weil das Ergebnis in nem OpenGL-Kontext gezeigt wurde :ugly: ) ist ungefähr so, als ob du mir weißmachen willst, nur jedes Auto mit allen möglichen Extras ist ein ECHTES Auto. Und das ist nunmal genauso Blödsinn.
Die Analogie zu den Autos ist etwas gewagt. Es gibt da ja verschiedene Modelle. Und wenn man behauptet man hätte DAS Schnellste und es kann ALLES, kann ich mir vorstellen, dass es weder die Familie, den Einkauf und dazu noch sicher offroad den Berg hoch transportiert... Es taugt dann eben doch "nur" zum schnell fahren - sicher, manchen Kunden genügt das. :slap:

Und CGI der Filmindustrie: Bollywood z.B. setzt sehr viel Gelato ein.
..und so sieht es dann auch aus! :ugly:

DAS habe ich nie behauptet. Das ist deine Interpretation, die kann man so aber nicht bei dem herauslesen, was ich schreibe.
Richtig, Du hast das nicht behauptet aber impliziert, mit "warts ab, mehr darf ich nicht sagen"- sehr wohl auch der Artikel, mit dem Satz: "Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, optische Simulationen [...].

Zum Photorealismus reicht nun mal simples Raytracing nicht aus. Path Raytracing wäre da das mindeste, mit einigen erweiterten Algorithmen kommt man dann dahin, worauf in meiner Branche geachtet wird.

Sicherlich ist Photorealismus eine Definitionssache, für mich ist es die Renderstufe bei der ich Foto und Rendering nicht mehr unterscheiden kann.. Und da bezweifle ich, dass Nvidia da in Kürze hinkommen wird, schon gar nicht in Echtzeit oder mit den aktuellen Quadros.. ;)

:kaffee:
 
Zuletzt bearbeitet:
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Zum Photorealismus reicht nun mal simples Raytracing nicht aus. Path Raytracing wäre da das mindeste, mit einigen erweiterten Algorithmen kommt man dann dahin, worauf in meiner Branche geachtet wird.

Sicherlich ist Photorealismus eine Definitionssache, für mich ist es die Renderstufe bei der ich Foto und Rendering nicht mehr unterscheiden kann.. Und da bezweifle ich, dass Nvidia da in Kürze hinkommen wird, schon gar nicht in Echtzeit oder mit den aktuellen Quadros.. ;)

:kaffee:

Richtig, auch das mit dem Raytracing. Ich komm selbst aus der Branche und es werden nach wie vor große Renderfarmen mit CPUs benutzt...

Ich hab schon nen Quasi-Raytracer für Max gesehen aber die Qualität kommt kaum an die eines Scanline renderings mit skytracer oder radiosity ran.
Ne Graka ist nun mal ein Rasterizer und kein Raytracer... Und wenn der Befehlssatz nicht ausreicht, kann auch kein Programmierer den einfach hinein zaubern. Selbst Cuda/Stream ändern daran so schnell nix.

Edit: Ich hab doch was entdeckt und muss gestehen, dass Bucklew Recht zu haben scheint. Wohl aber ist da nicht Nvidia sondern Chaos Group dafür verantwortlich. Die haben ein GPU-tauglichen Renderer Programmiert und auf der diesjährigen Siggraph vorgestellt und der sieht schon verdammt ordentlich aus. Derzeit ist er nur Cuda-fähig aber er soll später auf openCL portiert werden.
http://www.cgarchitect.com/news/SIGGRAPH-2009-CHAOS-GROUP-GPU.shtml
 
Zuletzt bearbeitet:
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Naja, man kann aufhören zu rendern, wenn die Veränderung des Farb- und Helligkeitswertes nicht mehr vom Auge wahrnehmbar und vom Drucker abbildbar ist. Im Übrigen rendert Maxwell unendlich lange, ab einem SamplingLevel von 25 kann allerdings kein Unterschied zum nächsten SL wahrgenommen werden und dann bricht man spätestens ab. Bei dem Mirror-Bounce Test gibt es schon bei SL15 mehr als 60 Bounces.. das ist in 99,9% aller Szenen mehr als genug..
Kurz gesagt: 100%iger Realismus? Nein. Aber eben gut genug.

Die Analogie zu den Autos ist etwas gewagt. Es gibt da ja verschiedene Modelle. Und wenn man behauptet man hätte DAS Schnellste und es kann ALLES, kann ich mir vorstellen, dass es weder die Familie, den Einkauf und dazu noch sicher offroad den Berg hoch transportiert... Es taugt dann eben doch "nur" zum schnell fahren - sicher, manchen Kunden genügt das. :slap:
Und du behauptest hier, dass das schnelle Auto das einzig wahre Auto ist und der Rest kein Auto. Blödsinn, nicht?

Richtig, Du hast das nicht behauptet aber impliziert, mit "warts ab, mehr darf ich nicht sagen"- sehr wohl auch der Artikel, mit dem Satz: "Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, optische Simulationen [...].

Zum Photorealismus reicht nun mal simples Raytracing nicht aus. Path Raytracing wäre da das mindeste, mit einigen erweiterten Algorithmen kommt man dann dahin, worauf in meiner Branche geachtet wird.
Ich weiß jetzt nicht, warum du auf einmal eine Aufzählung, die nunmal mehrere Einsatzzwecke aufzählt, auf einmal auf einen Punkt reduzierst. Es gibt eben (für dich vielleicht unvorstellbar) auch Leute, die das Ergebnis gern innerhalb von Sekunden sehen wollen und nicht erst ne Stunde drauf warten wollen, bis es langsam mal fertig wird. Das hat nichts mit schlecht, nichts mit gut, nichts mit echt und nichts mit unecht zu tun - sondern einfach nur mit unterschiedlichen Einsatzzwecken. Für den einen ist schnelles Raytracing ein no-go, für den nächsten eine Wartezeit von 5 Minuten.

Sicherlich ist Photorealismus eine Definitionssache, für mich ist es die Renderstufe bei der ich Foto und Rendering nicht mehr unterscheiden kann.. Und da bezweifle ich, dass Nvidia da in Kürze hinkommen wird, schon gar nicht in Echtzeit oder mit den aktuellen Quadros.. ;)
Der einzige der von Photorealismus und Echtzeit redet bist aktuell du. Wie gesagt, warte einfach ab und stürz nicht vorher schon aus dem Fenster, weil du dich so weit über die Brüstung lehnen musstest. Selbst wenn es nicht Echtzeit ist, ist eine Verbesserung um den Faktor 5 (einfach mal in den Raum geworfen) ebenfalls ein Meilenstein.

Ist es eigentlich normal, dass alle die irgendwas mit Raytracing zu tun einen dermaßen beschränkten Horizont haben? Errinnert mich an den einen, der mir unbedingt weiß machen wollte, ein Raytracer kann kein Raytracer mehr sien, nur weil er mal ne OpenGL-Schnittstelle nutzt :stupid:

Ne Graka ist nun mal ein Rasterizer und kein Raytracer... Und wenn der Befehlssatz nicht ausreicht, kann auch kein Programmierer den einfach hinein zaubern. Selbst Cuda/Stream ändern daran so schnell nix.
Wenn du Grafikkarte per CUDA ansteuerst hat sie mit Rasterising noch ungefähr soviel zu tun wie deine Netzwerkkarte mit dem darstellen des Windows-Desktops.

Abgesehen davon - was sollte bitte schön großartiges im CUDA- und/oder Stream-Befehlssatz fehlen, was man für Raytracing unbedingt braucht?
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

:motz:
Kurz gesagt: 100%iger Realismus? Nein. Aber eben gut genug.
nicht Realismus - Photorealismus allerdings, ist bei dem was Du als "gut genug" bezeichnest, für das Auge der Fall..

Und du behauptest hier, dass das schnelle Auto das einzig wahre Auto ist und der Rest kein Auto. Blödsinn, nicht?
Nein, ich habe behauptet, dass das SUV das einzig wahre Auto ist, Du redest die ganze Zeit vom Rennwagen.. :ugly:

Ich weiß jetzt nicht, warum du auf einmal eine Aufzählung, die nunmal mehrere Einsatzzwecke aufzählt, auf einmal auf einen Punkt reduzierst. Es gibt eben (für dich vielleicht unvorstellbar) auch Leute, die das Ergebnis gern innerhalb von Sekunden sehen wollen und nicht erst ne Stunde drauf warten wollen, bis es langsam mal fertig wird. Das hat nichts mit schlecht, nichts mit gut, nichts mit echt und nichts mit unecht zu tun - sondern einfach nur mit unterschiedlichen Einsatzzwecken.
Weil es mir, wie Du offensichtlich nicht verstehst, nicht auf einmal, sondern die ganze Zeit darum geht! Dass ein einfacher Schlagschatten mit nem Graka-Raytracing geht, ist schon seit fast 2 Jahren Realität, was ich aber seit meinem ersten Post bezweifle, ist, dass Path+ -Raytracing in Echtzeit klappen wird. Und das sagt der zitierte Satz nunmal aus.

Der einzige der von Photorealismus und Echtzeit redet bist aktuell du. Wie gesagt, warte einfach ab..
Und nochmal, der Satz sagt: "Nvidia Optix heißt dabei die Engine für Raytracing in Echtzeit. [...] Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, [...]

Was heisst das denn nun? Raytracing in Echtzeit, ausser Photorealismus? Hmm..! Ich habe mal die "News" bei anderen Quellen gegengelesen, da steht dann für beschleunigtes oder unterstützendes photorealistisches Rendern. Insofern, nichts für ungut, schein der Wahrheitsgehalt der Nachricht wieder mal dem Populismus-Rotstift zum Opfer gefallen zu sein. Da Optix ja, wie im Thread beschrieben nur Beleuchtungsberechnungen macht und an sich kein Renderer ist stellt sich die Frage: Warum nur?

Ist es eigentlich normal, dass alle die irgendwas mit Raytracing zu tun einen dermaßen beschränkten Horizont haben?
Na ein Glück, dass Du nichts mit Raytracing zu tun hast :ugly:, aber ist es eigentlich normal, dass einer, der ausser angeblichen Geheiminfos sonst nichts vorzuweisen hat, Leute aus der Praxis als beschränkt bezeichnet. Dann leg doch die Fakten auf den Tisch, darfst Du nicht? Na dann behalts besser für Dich, als herumzuorakeln..



@MysticBinary82

Sieht in der Tat verdammt gut aus. Wenn Nvidia was Ähnliches zeigen könnte würde ich mich (auch um Bucklews Willen) zufieden geben. Allerdings muss man beachten, dass die Szenen auf 640x480 gerechnet wurden, das macht dann bei 300dpi ein Bildchen von 5,4cm x 4cm..

Trotzdem, dort dauert das halbwegs glatte Bild etwa 3 sec. - macht bei einer Auflösung von 3508x2480 ca. 28 mal länger, also ca 1,5 Minuten.. wenn es sich so interpolieren lässt - impressive!

:kaffee:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

nicht Realismus - Photorealismus allerdings, ist bei dem was Du als "gut genug" bezeichnest, für das Auge der Fall..
Mit eben gewissen Beschränkungen, weil die Rechenleistung nicht ausreichend ist (und niemals sein wird) für 100%ig Realismus. Die Natur wird man niemals schlagen können ;)

Nebenbei muss man dann auch irgendwann mal an 30Bit denken... :P

Nein, ich habe behauptet, dass das SUV das einzig wahre Auto ist, Du redest die ganze Zeit vom Rennwagen.. :ugly:
Womit du selbst zeigst, wie unsinnig die Behauptung des "ECHTEN raytracers" ist. Danke dafür :daumen:

Wobei ich ja nichtmal von einem Rennwagen rede, sondern (je nach Anwendungsfall) von einem Rennwagen, dann von einem SUV und dann von einem Kleinwagen.....

Weil es mir, wie Du offensichtlich nicht verstehst, nicht auf einmal, sondern die ganze Zeit darum geht! Dass ein einfacher Schlagschatten mit nem Graka-Raytracing geht, ist schon seit fast 2 Jahren Realität, was ich aber seit meinem ersten Post bezweifle, ist, dass Path+ -Raytracing in Echtzeit klappen wird. Und das sagt der zitierte Satz nunmal aus.
Und weil du es offensichtlich immer noch nicht verstanden hast: Der einzige der davon redet, bist du.

Und nochmal, der Satz sagt: "Nvidia Optix heißt dabei die Engine für Raytracing in Echtzeit. [...] Nvidia denkt dabei an die Automobil-Industrie, fotorealistisches Rendern, [...]

Was heisst das denn nun? Raytracing in Echtzeit, ausser Photorealismus? Hmm..! Ich habe mal die "News" bei anderen Quellen gegengelesen, da steht dann für beschleunigtes oder unterstützendes photorealistisches Rendern. Insofern, nichts für ungut, schein der Wahrheitsgehalt der Nachricht wieder mal dem Populismus-Rotstift zum Opfer gefallen zu sein. Da Optix ja, wie im Thread beschrieben nur Beleuchtungsberechnungen macht und an sich kein Renderer ist stellt sich die Frage: Warum nur?
So ein quasi Universal-Raytracer - also, je nach Anwendungsfall mal in Echtzeit, dafür mit Qualitätseinbußen und mal mit voller Qualität, dafür etwas langsamer - scheint dich wirklich zu überfordern....

Da mal die Originalnews:

NVIDIA Launches The World's First Interactive Ray Tracing Engine

Na ein Glück, dass Du nichts mit Raytracing zu tun hast :ugly:, aber ist es eigentlich normal, dass einer, der ausser angeblichen Geheiminfos sonst nichts vorzuweisen hat, Leute aus der Praxis als beschränkt bezeichnet. Dann leg doch die Fakten auf den Tisch, darfst Du nicht? Na dann behalts besser für Dich, als herumzuorakeln..
1. Halte ich nur Leute für beschränkt, die völlig unsinnige Einschränkungen machen. Eben wie das beschriebene OpenGL oder auch das "ECHTE raytracing". Völliger Quatsch. Alles was Strahlverfolgung zum Bildrendering nutzt ist ein Raytracer, das hat nichts mit der Art und Weise der Strahlverfolgung zu tun oder dem Interface der Bildausgabe.

2. Brauche ich nicht herumzuorakeln, habs ja gesehen :ugly: Solche Sachen wie NDA sollten dir schon was sagen nehme ich mal, so als Vollprofi. Von daher musst du dich wohl noch gedulden, ich kann dir aber natürlich gern ne PN zukommen lassen, wenn es das entsprechende Material was ich u.A. meine online gibt.

Trotzdem, dort dauert das halbwegs glatte Bild etwa 3 sec. - macht bei einer Auflösung von 3508x2480 ca. 28 mal länger, also ca 1,5 Minuten.. wenn es sich so interpolieren lässt - impressive!
Nein, ******** aber auch :lol:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Nein, ******** aber auch :lol:

Doch dauert es, denn dort hat die Chaos Group 5 bouneces drin... wenn die das auf einen reduzieren, dann sind die schon bei nicht mal ner halben sec und dann kann man noch ein paar abstriche in der GI qualität machen und schon ist man bei der Nvidia lösung... Wo ich aber noch ernste probleme sehe ist beim einsatz von hochauflösenden texturen und da kannst du mir nicht erzählen, dass die da ein 2048x2048 vollständig für die colorbleeding samplen... das dauert viel zu lange da wird sicher wieder getrickst...
Aber was streng ich mich an... Ist ja eh kein durchkommen zu dir zumal du deine Aussagen nicht mal untermauerst mit links oder dergleichen.:daumen2:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Aber was streng ich mich an... Ist ja eh kein durchkommen zu dir zumal du deine Aussagen nicht mal untermauerst mit links oder dergleichen.:daumen2:
Klar, meinst du ich riskiere meinen Job, nur um zwei großen Experten das zu zeigen, was sie in ein paar Wochen/Monaten eh sehen werden? ;)
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Klar, meinst du ich riskiere meinen Job, nur um zwei großen Experten das zu zeigen, was sie in ein paar Wochen/Monaten eh sehen werden? ;)

Na ich lass mich überraschen aber alles was ich schon an bildern von angeblich echtzeit Raytracing gesehen habe war auch nur Raytracing aber eben kein Global Illumination. Zumal auch der NVidia Chief Scientist davon spricht das es auf eine hybride Lösung hinausläuft, zwecks Rechenleistung.

Nvidias Chief Scientist Bill Dally über GPU-Technologie, DirectX 11 und Larrabee - Nvidia, Dally, Interview, GPU, Technology

Damit du nicht extra den Link öffnen brauchst:

PCGH: Intel hat in letzter Zeit einigen Rummel um Raytracing gemacht. Glauben Sie, dass Raytracing sich in den nächsten Jahren zu einem der wichtigsten Bestandteile von Computer- und speziell Spielegrafik entwickeln wird?
Bill Dally: Ich finde es interessant, dass sie [Intel] so einen Wirbel veranstalten, während wir auf der letztjährigen Siggraph bereits interaktives Echtzeit-Raytracing auf der GPU demonstriert haben. Es ist eine Sache, darüber zu reden, eine andere, es auch zu tun. Um aber auf die Frage zurückzukommen: Ich sehe es als wahrscheinlichsten Weg, dass Spielegrafik in Zukunft einen hybriden Ansatz verfolgen wird. Man fängt mit klassischer Rasterisierungsgrafik an und entscheidet auf Pixel- oder Fragmentebene, ob dieser spezielle Bildbereich noch mit rein lokalen Informationen berechnet werden kann oder ob Dinge wie Transparenz, Silhouettenkanten und dergleichen es erfordern, Raytracing anzuwenden, um eine genaue, fotorealistische Farbe für diesen Bildpunkt zu berechnen. So können wir unsere Rechenpower optimal nutzen: Raytracing dort anwenden, wo es am meisten bringt.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Na ich lass mich überraschen aber alles was ich schon an bildern von angeblich echtzeit Raytracing gesehen habe war auch nur Raytracing aber eben kein Global Illumination. Zumal auch der NVidia Chief Scientist davon spricht das es auf eine hybride Lösung hinausläuft, zwecks Rechenleistung.
Solange man Echtzeit will (also vorallem Computerspiele, aber auch Simulatoren oder VR-Räume etc.) wird es auch darauf hinauslaufen. Ich glaube nicht, dass in 5 Jahren plötzlich alle Spiele nur noch Raytracing benutzen.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Solange man Echtzeit will (also vorallem Computerspiele, aber auch Simulatoren oder VR-Räume etc.) wird es auch darauf hinauslaufen. Ich glaube nicht, dass in 5 Jahren plötzlich alle Spiele nur noch Raytracing benutzen.

Jetzt wiedersprichst du dich aber selbst, da du ja behauptet hast, dass Nvidia eine echtzeit lösung schon längst parat hat. Das liest sich aber in diesem Artikel anders. Klar, dass die da schon dran arbeiten, find ich auch gut. Ich bezweifle dennoch, dass da eine Echtzeit-Komplettlösung in der nächsten Zukunft zur verfügung steht. Zumindestens nicht in eine qualität die für Print und Film nötig wären.
 
Zurück