Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

PCGH-Redaktion

Kommentar-System
Teammitglied
Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Jetzt ist Ihre Meinung zu Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor
 
Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

ob die technik auch in echtezit bei Spielen verwendbar ist?
wird hierzu vllt. der GT300 rangezogen?
um so vorallem auch Larrabee und seinen nachfolgern eine Konkurrenz zu sein?
ich bin aufjedenfall gespannt was sich hier noch tut
vorallem hersbt...sollen da nicht auch erste gt300-er kommen?

gruß
KlawWarYoshi:devil:
 
Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Für den Privat Anwender uninteressant, solange dies nur auf den Quadro FX Karten verfügbar ist.

Abseits davon bin ich mal gespannt ob, und was da für Spiele bzw die Spiele Entwickler hängen bleibt.
*von Rasterisierung und Raytracing fusionierten Enignes träum*
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ich frage mich, ob man die Rechengeschwindigkeiten erreichen kann, bei denen man wirklich Kinografik in Echtzeit berechnen kann. Bereits jetzt sind die Strukturgrößen im Bereich einzelner Atome. So viel lässt sich das ganze nicht mehr verkleiner, auch die thermische Belastung lässt sich kaum noch bändigen.

Andererseits sind jetzt supraleitende Halbleiter entdeckt worden,... Aber leider nur bei -170C°. Dazu noch irgendwelche merkwürdigen Zustände, bei denen Halbleiter in eine Richtung ihren Widerstand verlieren (auch bei höheren Temperaturen)...

Mal schauen was sich bei der Hardware noch tut :ugly:. Jedenfalls ein hochinteressantes Forschungsgebiet.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ich frage mich, ob man die Rechengeschwindigkeiten erreichen kann, bei denen man wirklich Kinografik in Echtzeit berechnen kann. Bereits jetzt sind die Strukturgrößen im Bereich einzelner Atome. So viel lässt sich das ganze nicht mehr verkleiner, auch die thermische Belastung lässt sich kaum noch bändigen.

Andererseits sind jetzt supraleitende Halbleiter entdeckt worden,... Aber leider nur bei -170C°. Dazu noch irgendwelche merkwürdigen Zustände, bei denen Halbleiter in eine Richtung ihren Widerstand verlieren (auch bei höheren Temperaturen)...

Mal schauen was sich bei der Hardware noch tut :ugly:. Jedenfalls ein hochinteressantes Forschungsgebiet.

Kinofilme in Echtzeit? Vergiss es ;)
also im Vergleich mit Kinofilmen war die Nvidia Veyron-Raytracingdemo relativ billig... Vor allem die Details machen in Kinofilmen sehr viel aus. Alles, was glänzt ist mit Raytracing gespiegelt, jedes Fellhaar wirft einen eigenen, mehrfach berechneten Schatten... Die "weichen" Schatten aus Kinofilmen sind mehrere male berechnet, damit sie auch weich sind. Die in der Raytracing-Demo waren einfach berechnet- die hatten harte Kanten.

Allerdings muss ich sagen, dass Nvidia den richtigen Weg geht- die Ära der Rasterisierung neigt sich langsam dem Ende zu. Allerdings hat momentane Hardware noch nicht die Leistung, um mit den "Kinderkrankheiten" des Raytracing fertig zu werden... Ein Bild mit Raytracing zu rendern kann einige Sekunden bis zu mehreren Stunden in Anspruch nehmen- die FPS dürften bei sehr anspruchsvollen szenen stark in die Knie gehen...
aber mal schaun wie es weitergeht- ich bin gespannt :)
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Andererseits sind jetzt supraleitende Halbleiter entdeckt worden,... Aber leider nur bei -170C°. Dazu noch irgendwelche merkwürdigen Zustände, bei denen Halbleiter in eine Richtung ihren Widerstand verlieren (auch bei höheren Temperaturen)...

Mal schauen was sich bei der Hardware noch tut :ugly:. Jedenfalls ein hochinteressantes Forschungsgebiet.

Ich hab zuletzt von Halbleitern (eine Legierung) gehört, die sich nicht erhitzen sollen, wenn Strom durchfließt. Ich meine es hieß dies würde bis +170°C funktionieren.
Wobei nicht Erhitzen = kein, kaum Widerstand = Begriff des Supraleiters
Nun, auf jeden Fall sind viele Wissenschaftler neuen, besseren Halbleitern auf der Spur, und es sind bereits einige Interessante Techniken und Materialien entdeckt worden, wobei aber praktisch alle noch weit von der Marktreife entfernt sind.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ich denke nicht, dass Raytracing das Rasterising jemals ablösen wird. Ich denke, es wird auf eine Mischform hinauslaufen, denn pures Raytracing ist viel zu aufwendig, sieht man ja an der Veyrondemo.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Kinofilme in Echtzeit? Vergiss es ;)
also im Vergleich mit Kinofilmen war die Nvidia Veyron-Raytracingdemo relativ billig... Vor allem die Details machen in Kinofilmen sehr viel aus. Alles, was glänzt ist mit Raytracing gespiegelt, jedes Fellhaar wirft einen eigenen, mehrfach berechneten Schatten... Die "weichen" Schatten aus Kinofilmen sind mehrere male berechnet, damit sie auch weich sind. Die in der Raytracing-Demo waren einfach berechnet- die hatten harte Kanten.

Allerdings muss ich sagen, dass Nvidia den richtigen Weg geht- die Ära der Rasterisierung neigt sich langsam dem Ende zu. Allerdings hat momentane Hardware noch nicht die Leistung, um mit den "Kinderkrankheiten" des Raytracing fertig zu werden... Ein Bild mit Raytracing zu rendern kann einige Sekunden bis zu mehreren Stunden in Anspruch nehmen- die FPS dürften bei sehr anspruchsvollen szenen stark in die Knie gehen...
aber mal schaun wie es weitergeht- ich bin gespannt :)

bei dem bedarf an virtualisierter optik und der neigung des menschen, fantasien am rechner auszuleben, ist ein sehr lukrativer markt am start.
ich denke nicht, dass in zeiten von wow und co, ein aufhalten dieser entwicklung möglich ist oder dass die direkte einwirkung von reizen in diesem bereich gestoppt wird.
es paßt einfach zu gut zusammen: vorgefertigte, scheinbar selbstgesteuerte tagträume und die möglichkeit, damit geld zu machen.
halt dich ruhig schonmal fest, denn wenn einigermaßen gute spielprinzipien mit echtzeitgrafik im realbereich einzug halten, dann könnten sich viel mehr menschen vom realen abwenden, als es zur zeit der fall ist, siehe "spielesucht" im onlinebereich.
da steht uns noch einiges bevor, zumal wenn man die entwicklung seit der geforce2, die damals schon bahnbrechend war, bis jetzt sieht.
ich vermag nicht zu sagen, was uns in den nächsten 10 jahren ins haus steht und das ist viel weitergegriffen, als die 7 jahre, die ich eben angesprochen habe.
lukrativität macht den weg, und das paßt erschreckend gut mit dem verlangen des menschen zusammen, virtuelle welten zu erleben atm.
hoffe, das geht nicht in die hose^^.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ich denke nicht, dass Raytracing das Rasterising jemals ablösen wird. Ich denke, es wird auf eine Mischform hinauslaufen, denn pures Raytracing ist viel zu aufwendig, sieht man ja an der Veyrondemo.
Ja, aber spätestens wenn man die Prozessoren auf 400 Ghz (siehe Kohlenstoffnanoröhren, oder optische Verbindungen) bei gleicher oder noch kleinerer Temperatur treibt, und dann noch 100 Kerne parallel laufen lässt, macht das auch keinen Unterschied mehr ;)
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ja, aber spätestens wenn man die Prozessoren auf 400 Ghz (siehe Kohlenstoffnanoröhren, oder optische Verbindungen) bei gleicher oder noch kleinerer Temperatur treibt, und dann noch 100 Kerne parallel laufen lässt, macht das auch keinen Unterschied mehr ;)
Na ob ich das noch erlebe...
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Find ich toll sowas.
Fänds genial, wenn demnächst "normale" Videobearbeitungstools solche Effekte eingebaut bekommen. :hail:
Bin gespannt wann sich die Sachen richtig verbreiten und effektiv genutzt werden.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Na ob ich das noch erlebe...
sofern du nicht schon 91 bist vermutich schon. Da die aktuelle Technologie in wenigen Jahren am Ende sein wird (kleiner als 20nm ist momentan aufgrund der Belichtung der DIE technisch nicht möglich, es fehlt die entsprechende Lichtquelle). Von daher werden alternative Lösungen zwingend erforderlich, wobei die Physik da eben den anderen Weg geht. Statt immer weiter zu verkleinern untersucht man wieviele Atomen/Molekülen denn das gewünschte Bauteil realisieren können.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ja, aber spätestens wenn man die Prozessoren auf 400 Ghz (siehe Kohlenstoffnanoröhren, oder optische Verbindungen) bei gleicher oder noch kleinerer Temperatur treibt, und dann noch 100 Kerne parallel laufen lässt, macht das auch keinen Unterschied mehr ;)
Das problem ist: Zwischen 400Ghz bei 100 Kernen kommen eben noch alle möglichen anderen Kombinationen. Und Rasterising wird immer weiter aufgebohrt und legt die Messlatte für Raytracing immer noch höher - und keiner wird ein Raytracingspiel entwickeln, das schlechter als Rasterising aussieht. Das muss schon wesentlich besser aussehen. Und da sehe ich den Knackpunkt.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ja, aber spätestens wenn man die Prozessoren auf 400 Ghz (siehe Kohlenstoffnanoröhren, oder optische Verbindungen) bei gleicher oder noch kleinerer Temperatur treibt, und dann noch 100 Kerne parallel laufen lässt, macht das auch keinen Unterschied mehr ;)
da stellt sich die Frage, wann es wohl "so weit ist"... :D
aber es würden schon auf Raytracing speziallisierte Chips reichen. Ein 80 MHz-Raytracing-Chip hat schonmal die Leistung eines virtuellen 4GHz Pentium 4 erreicht...
Eigentlich sehe ich momentan die Raytracinggrafik als mehr oder weniger überflüssig...
Mit Raytracing kann man tolle Spiegelungen und Lichtbrechungen rendern? Für spiele reicht Environment-Mapping- solange ein Objekt nicht 2 mal gespiegelt werden muss ist ja alles in Butter :P
Mit Raytracing kann man tolle Schatten rendern?
Nur mit sehr viel Rechenaufwand. Und der steht nicht in Relation zum einfacheren Shadow-Mapping.
Das einzige, das ich an Raytracing interressant finde, ist die Kollisionsabfrage- beispielsweise in Shootern-> "Projektil"Strahlen, die von der Waffe ausgesendet werden. Raytracing ist toll zum rendern von Bildern, aber in Spielen finde ich es überflüssig- Den Punkt, wo Raytracing schneller ist als Rasterisierung (zwischen 1mio und 10mio Polygonen), werden wir dank Bump/ Parallax-Mapping wohl so schnell nicht erreichen^^
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Das problem ist: Zwischen 400Ghz bei 100 Kernen kommen eben noch alle möglichen anderen Kombinationen. Und Rasterising wird immer weiter aufgebohrt und legt die Messlatte für Raytracing immer noch höher - und keiner wird ein Raytracingspiel entwickeln, das schlechter als Rasterising aussieht. Das muss schon wesentlich besser aussehen. Und da sehe ich den Knackpunkt.
Ja, nur wenn selbst wenn wir Rasterizer-Chip haben, die so unglaublich schnell wären, dass sie wirklichen Fotorealismus erreichten, dann wäre die zu leistende Vorarbeit in Form von Shadern viel komplexer als bei Raytracing. Auch der Speicherplatz würde sehr drunter leiden, aber Holographischer Speicher FTW! :D Da wäre dann Raytracing warscheinlich einfacher.
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

wenn die 91 in deinem Namen heißt, dass du 91er Jahrgang bist, sogar relativ sicher.
Wenn dein Profilbild jedoch ein Bild von dir ist...wär ich mir da nicht mehr so sicher :ugly:
Die 91 steht für die Zahl an Forenmitgliedern, die ich in den Wahsinn getrieben habe
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

Ja, aber spätestens wenn man die Prozessoren auf 400 Ghz (siehe Kohlenstoffnanoröhren, oder optische Verbindungen) bei gleicher oder noch kleinerer Temperatur treibt, und dann noch 100 Kerne parallel laufen lässt, macht das auch keinen Unterschied mehr ;)

ach was wäre das schön :träum..:
 
AW: Nvidia stellt Optix-Raytracing-Engine für Grafikkarten vor

In dem Fall hilft: Eine PN an einen der Redakteure senden. Ich hab mal Raff genommen, weil der hier im Board den Titel Spambot-Killer trägt. Und siehe da: 15 Minuten später ist Brizon gesperrt und seine Beiträge gelöscht.
So schwer muss man sich das nicht machen :)
Einfach das "Warndreieck" neben dem Onlinestatus klicken, Begründung eingeben und warten bis der Spammi weg vom Fenster ist :D

@Topic:
So die Billiardkugeln sehen fast aus wie ein Foto :)
Also "Kinografik" hätte ich gerne in so manchen Spielen!
Aber dann vllt abschaltbar, weil zB CS:S mit nem Detaillevel wie im Film Wanted wird nach ner weile warscheinlich wiederlich. :D
 
Zurück