Nasenbaer
Software-Overclocker(in)
Wenn es zuviel Performance kosten würde, dann wären die Algorithmen ja sinnlos da sie die Anwendung ja beschleunigen sollen. Das umschalten zwischen festgelegten Detail-Stufen nennt man Discrete-LoD, weil es nur diskrete Detail-Level gibt also bspw. ca. 1.000, 10.000 und 100.000 Polygone für ein Modell. Solche Modelle lassen sich recht leicht erzeugen - ein Designer erstellt z.B. das genaueste Modell und per Algorithmus werden dann Modelle mmit weniger Polygonen erzeugt.Und warum? Kostet es zuviel Performance? Wie genau funktioniert das? Ich kenne nur den Fall, dass ab einer bestimmten Distanz ein Low-Poly gegen ein High-Poly Modell getauscht wird und das sieht furchtbar aus. Crysis treibt das auf die Spitze.
Das Spiel kommt dann mit allen 3 Modellen und je Entfernung wird eins davon dargestellt.
Besser sind bspw. die sog. Progressive meshes (mit Videos), die immerhin auch schon 14 Jahre alt sind. Das Problem ist halt, dass solche Algorithmen schwerer umzusetzen sind als die Auswahl einer Detailstufe in Abhängigkeit von der Entfernung.
Deswegen sagte ich ja, dass Tesselation die Sache etwas vereinfacht. So kann man dann pro Patch (z.B. ne größere Fläche des Weges) entscheiden ob die Details ausreichen oder nicht. Je näher man dem Patch kommt desto stärker unterteilt der Tesselator selbiges.Wenn man im Unigine Bench den Weg entlang läuft "faden" die Steine absolut flüssig von ganz flach im Hintergrund (wie in DX9 und 10) zu ihrer endgültigen plastischen Form im Vordergrund. Mit aktiviertem Wireframe sieht man das noch besser, wie sich die Polygone quasi "ineinander verschieben". Sowas hab ich vor der Tesselation noch nirgendwo gesehen.
Da wird nicht vor der Sichtbarkeitsgrenze umgeschalten. Diese müsste dann außerdem je höher die Auflösung in der man spielt, immer weiter nach hinten geschoben werden, was unsinnig wäre, da zusätzlicher Performanceverlust.
Dennoch wird weiterhin nicht mit Fehler-Metriken gearbeitet. D.h. man justiert die Entfernungen so, damit Performance und Aussehen einen guten Kompromiss darstellen. Der Vorteil eine Fehler-Metrik wäre, dass man bspw. den maximalen Fehler festlegen könnte und man dann garantieren, dass die angezeigte Bild maximal 5 Pixel vom "richtigen" Bild mit maximaler Detailstufe abweicht.
Für Spiele ist sowas ja eher ein ästhetisches Problem aber bei Simulationen in Forschung und Entwicklung ist sowas wichtiger.