News Unlimited Detail-Technologie: Punkte statt Polygone, Voxel oder Raytracing - neue Infos

Äh:
Modellieren normal:
Modellieren (meist Polygone) -> umwandeln in gröbere Polygone, ggf. begleitet von Normal/Displacement map
Modeelieren Voxel:
Modellieren -> ggf. umwandeln in gröberes Voxelmodell
Modellieren hier:
Vermutlich auch nicht anders.

Interessant ist die Frage nach dem Rendering und da läuft keine nachträgliche Verfeinerung mehr ab (zumindest keine sinnvolle), weil nicht vorhandene Informationen eben nicht vorhandene Informationen sind.
 
Äh:
Modellieren normal:
Modellieren (meist Polygone) -> umwandeln in gröbere Polygone, ggf. begleitet von Normal/Displacement map
Modeelieren Voxel:
Modellieren -> ggf. umwandeln in gröberes Voxelmodell
Modellieren hier:
Vermutlich auch nicht anders.

Interessant ist die Frage nach dem Rendering und da läuft keine nachträgliche Verfeinerung mehr ab (zumindest keine sinnvolle), weil nicht vorhandene Informationen eben nicht vorhandene Informationen sind.
Aber um z.B. die Displacement Map zu generieren gibt es nur zwei Wege (abgesehen von selber malen:D):
Die Informationen aus der bereits vorhandenen Color-Map nehmen
oder
das fertige Modell verfeinern und da ist einer der besten Wege Sculpting. Und die arbeiten mit Voxel (oder Tessellation). Die Programme für Animation, "grobe" Modellierung (3ds Max, Maya...) müssten meines Wissens alle mit normalen Polygonen arbeiten.
 
Ich wiederhole noch einmal: Niemand erstellt nachträglich eine Displacement Map, um ein Modell zu verfeinern. Man erstellt von vorneherein ein detailliertes Modell und ggf. speichert man das ganze dann als Kombination aus wenig detailierten Polygonen und Displacement Map, um es leichter an die GPU übertragen zu können.
 
tjo, das die sicher nicht so viele einzelne Voxel gleichzeitig im Hauptspeicher eines normalen PCs haben, ist wohl klar.
Wie sollte das auch gehen, bei mehr Voxeln als der Hauptspeicher bytes hat.
Wer von unendlich im Bezug auf Computer redet, der lügt. Bei Computern ist alles endlich, gibt nun mal nur X bytes im Ram.
Entweder die haben ein paar wirklich wundersame Verfahren entwickelt, die alles bekannte aussehen lassen wie aus der Steinzeit (:ugly:) oder die machen eben doch nur viel Wind um ein paar schöne Renderbilder.
 
@ruyven macaran
Digital Production (Ausgabe 04/11 schrieb:
Zu Beginn werden alle Teile des Modells sehr Lowpoly ausgeblockt [...] Ist die Base in 3ds Max, der Standardsoftware von Crytek, gebaut wird in ZBrush oder Mudbox das Highpoly gesculptet [...] Ist das Highpoly vom Art Director abgenommen (Sign off), wird das Lowpoly in 3ds Max oder in ZBrush mit hilfe des Retopology Tools erstellt [...] nachdem das Lowpoly einen Unwrap erhalten hat, werden Normalmaps und Lightmaps gebaked.
Ob du ein Modell von vornherein mit einem schönen Edgeflow machst, feine Details heraussculpest und bakest oder mit retopology hinterher nocheinmal ein Modell erstellst (und dafür mehr freiheiten beim Sculpten hast), kommt auf das selbe Ergebnis.
Ich, als Hobbybastler lass' retopology fast immer weg, weil es unnötig Zeit kostet. Allerdings funkt mir auch keiner dazwischen.
 
Wenn es keine Ente ist und wirklich etwas spielbares zeigen kann außer arcade games dann bin ich sehr gespannt, erinnert euch an outcast das war einfahc der hammer !!! Mit heutiger Technik bin ich mal gespannt.
 
Also Theoretisch könnte man Die Welt in Atomen darstellen aber sich bewegende Figuren in Poligonen darstellen.
 
Das tolle an so einer Technik wäre ja eigentlich nicht die grafik, sondern die Physikmöglichkeiten....

stellt euch mal Punktgenaue Kollisionsabfrage vor, oder eine Granate die irgendwo einschlägt... obwohl: aktuell werden ja nur Oberflächen gezeigt, ein Volumen ist von dem Rechenaufwand her einfach unmöglich... leider!
 
Also Theoretisch könnte man Die Welt in Atomen darstellen aber sich bewegende Figuren in Poligonen darstellen.
Dann hast du eine leblose, statische Umgebung! GZ! :ugly:
Hmm... ich frage mich gerade, ob es wirklich so sinnvoll wäre, Poligonmodelle in eine Point Cloud zu setzen... Kollisionsberechnungen könnten da tierisch in die Hose gehen. Bei Point Cloud only klar, wenn sich zwei Punkte berühren... aber wenn Punkte plötzlich Faces berühren sollen, die zwischen Poligonen liegen...?
 
@ruyven macaran

Ob du ein Modell von vornherein mit einem schönen Edgeflow machst, feine Details heraussculpest und bakest oder mit retopology hinterher nocheinmal ein Modell erstellst (und dafür mehr freiheiten beim Sculpten hast), kommt auf das selbe Ergebnis.
Ich, als Hobbybastler lass' retopology fast immer weg, weil es unnötig Zeit kostet. Allerdings funkt mir auch keiner dazwischen.

Wenn du es die ganze Zeit so meintest, wie im Zitat, dann hab ich dich schlichtweg falsch verstanden. Natürlich beginnt jeder Designprozess mit groben Überlegungen (ob nun als 2D Skizee oder grobes 3D Modell sei dahingestellt). Was ich meinte ist, dass die Erstellung des endgültig im Spiel implentierten Datensatzes mit einem detailierten Modell beginnt, aus dem sich u.a. automatisch Displacement-Maps ableiten lassen - und nicht etwa mit einem Low-Poly-Modell, für das von Hand Displacement-Maps erstellt werden, um den Detailgrad zu steigern. Das Grundprinzip "?->?->?->fertiges High-Polymodell->~automatische Umwandlung in gewünschtes Endformat" ist dabei unabhängig vom letztlichen Renderprozess.


Also Theoretisch könnte man Die Welt in Atomen darstellen aber sich bewegende Figuren in Poligonen darstellen.

Wie oben dargelegt: Nein, man kann keine Welt in Atomen darstellen, es sei denn, man stellt sich hin und baut eine (hint: hat schonmal wer gemacht. Darf jeder nutzen. Nennt sich RL :ugly: ). Man kann Polygonfiguren in eine Voxelwelt setzen, ja. Outcast hat das schon einmal vorgemacht. Problem:
Voxel sind effizient, wenn man eine hohe Detaildichte darstellen will und wenig ebene Flächen hat. Was hat typischerweise viele Details und ist überall rund? Spielfiguren, weil sie sich nunmal an der Biologie orientieren und weil die Designer einer Sache, die man ständig sieht, viel Aufmerksamkeit widmen.
Was hat meist wenig Details (oft automatisch generierte, mehr oder minder repetitive Bereiche) und viele Ebenen?
Die Umgebung.

So oder so ist der Voxelzug vor langer Zeit abgefahren. Voxel lassen sich nicht auf heutigen GPUs berechnen und >90% der Leistung eines Spieler-PCs steckt in der GPU. Outcast kam zu einem Zeitpunkt auf dem Markt, als die CPU noch fast wichtiger als die Grafikkarte (nix "GPU") war und ist schon damals daran gescheitert, dass es bei der Mehrheit der Nutzer einfach schlecht aussah, weil entsprechende Leistung fehlte.
Ehe Voxel wieder eine Chance haben, müssen GPUs ähnlich flexibel programmierbar sein, wie CPUs - und wenn Larrabee nicht auf einmal aus der Versenkung auftaucht, dauert das noch ein Weilchen.
Selbst dann muss immer noch ein Entwickler bereit sein, wirklich so viele Details zu Skulpten, dass er im Schnitt auf max. 4-5 Pixel pro Polygon käme.
 
Sieht ja schon gut aus...

Aber ich finde die Vergleiche im Video mit Crysis und Bulletstorm etwas dahergeholt. Das sind Spiele, die Animationen, Umgebungsgrafik, Dynamische Effekte usw. darstellen. Das andere ist ne Tech- Demo.
 
So oder so ist der Voxelzug vor langer Zeit abgefahren. Voxel lassen sich nicht auf heutigen GPUs berechnen und >90% der Leistung eines Spieler-PCs steckt in der GPU. Outcast kam zu einem Zeitpunkt auf dem Markt, als die CPU noch fast wichtiger als die Grafikkarte (nix "GPU") war und ist schon damals daran gescheitert, dass es bei der Mehrheit der Nutzer einfach schlecht aussah, weil entsprechende Leistung fehlte.
Ehe Voxel wieder eine Chance haben, müssen GPUs ähnlich flexibel programmierbar sein, wie CPUs - und wenn Larrabee nicht auf einmal aus der Versenkung auftaucht, dauert das noch ein Weilchen.
Selbst dann muss immer noch ein Entwickler bereit sein, wirklich so viele Details zu Skulpten, dass er im Schnitt auf max. 4-5 Pixel pro Polygon käme.
Ich hab von GPU-Programmierung wirklich keine Ahnung, aber OpenCL?
Sollte doch eigentlich genau das machen was du willst,eine flexibel programmierbare GPU.

das würde ich auch gern mal sehen
‪GTX 580 Tessellation Tech Demo, Island version‬‏ - YouTube
GeForce GTX 580: DX11-Techdemo Endless City inklusive Tesselation-Vergleich
Und der Klassiker:
‪DirectX 11 Extreme Tessellation‬‏ - YouTube

Aaaah verdammt, kann ich die Beiträge irgendwie zusammenfügen?
 
Zuletzt bearbeitet von einem Moderator:
Die videos sehen schon ziemlich geil aus!!!:wow:
Wäre schön wenn in ein paar jahren die spiele so aussehen. Aber wie sieht es mir physik und verformungen aus? Ich finde hübsche landschaften und oberflächen toll...aber noch toller finde ich diese auch zerstören zu können!;)
 
Bin ma gespannt was zuerst marktreif is... herunterladbare interaktive Traumszenarien die mehr oder weniger direkt ins Hirn eingespeist werden oder sowas. Ich glaub an ersteres, weil wir da wissen wo dir die Rechenleistung für absolute Realitätstreue herbekommen und das Hirn weiß, was es net berechnen brauch weil es das net beachtet bzw. umgekehrt.
 
Zurück