G
Gast1655586602
Guest
AW: AMD: Patent für eigene VRS-Methode veröffentlicht, Einsatz in PS4/Xbox Scarlett und Navi-GPUs?
Wir sind da garnicht so weit auseinander. Mir geht es nicht prinzipiell um den Begriff als vielmehr die technischen Aspekte.
Während die verschiedenen Techniken zu VRS gehören, bedeutet VRS nicht automatich immer diese Features. Deshalb stört es mich, wenn sie prinzipiell vermischt werden. Man muss von Fall zu Fall entscheiden. Ebenso werden das die Entwickler tun.
Ich merke mir immer die großen 4 Zustände in der Optik bzw. Grafik:
POV - Point of View
-Fokuspunkte, auf die sich das Auge des Spielers konzentriert. Außen herum entsteht Unschärfe je weiter weg die Entfernung von diese Punkt ist. Vergleichbar mit Tunnelblick.
FOV - Field of View
-Alles was im direkten Gesichtsfeld der Spielerpersektive bis hin zum Horizont. Beim PC ist das alles auf dem Bildschirm.
LOD - Level of Detail (hier: Tiefenschärfe)
-Je weiter Weg in der Distanz, desto unschärfer. Nahe Objekte sind dagegen super scharf, oder scheinen so. Vor allem bei Texturen wichtig!
Motion - alles in Bewegung
-Objekte werden unschärfer, je schneller sie sich bewegen. Ghosting-Effekt möglich.
Auch wenn VRS bei allen diesen benutzt wird, ist der Grund dafür jedesmal verschieden. Daher müssen alle Fälle einzeln in verschiedene Effekte gebündelt werden.
Dazu muss alles getrennt werden je nach:
-Objekt/Modell
-Oberfläche
-Raum
-Licht/Kontrast
Am Ende ist es höllisch kompliziert, wenn man sie die technische Ebene ansieht. In der fertigen Theorie sieht es ganz simpel und einfach aus. Ich glaube nicht, dass das auch so ist.
Beim Thema unterstützen springt mir immer sofort in den Kopf:
-Wie schnell ist die Ausführung?
Hat das nicht auch mit der Anzahl und Rohleistung der Textureinheiten zu tun? Wenn nicht, welcher Hardwareteil ist dafür zuständig?
Bei Tesselation ist es beispielsweise die Dreiecksleistung.
Das habe ich mich ebenfalls gefragt. Eine passende Antwort war schwierig. Hängt alles davon ab, welchen visuellen Realismusgrad der Entwickler vorsieht und wie artistisch er die eigenen Visionen umsetzen kann.
Alleine in der Fotografie und Kameraführung gibt es unzählige Stile und Möglichkeiten. Ich wette die Wahl des Genres und der Perspektive ändert bereits alles und wirft damit Standardeinstellungen komplett über den Haufen.
Ich denke deswegen, es wird am Ende bei den Entwicklern liegen. Bleibt halt abzuwarten wie gut die Konsolen diese wichtigen Features unterstützen, wenn sie denn in absehbarer Zeit kommen.
Advanced Shading beinhaltet Variable Rate Shading, Multi-View Rendering, Mesh Shading und Texture-Space Shading
kommt halt drauf an wierum man es betrachtet...
natürlich sind das 3 unterschiedliche Techniken ... aber es kommt trotzdem bei jeder das VRS zum Einsatz
Wir sind da garnicht so weit auseinander. Mir geht es nicht prinzipiell um den Begriff als vielmehr die technischen Aspekte.
Während die verschiedenen Techniken zu VRS gehören, bedeutet VRS nicht automatich immer diese Features. Deshalb stört es mich, wenn sie prinzipiell vermischt werden. Man muss von Fall zu Fall entscheiden. Ebenso werden das die Entwickler tun.
einmal auf "uninteressanten" Content, einmal auf bewegte Objekte und einmal auf die Sachen wo das Auge gerade nicht direkt hin sieht
so versteh ichs jedenfalls
Ich merke mir immer die großen 4 Zustände in der Optik bzw. Grafik:
POV - Point of View
-Fokuspunkte, auf die sich das Auge des Spielers konzentriert. Außen herum entsteht Unschärfe je weiter weg die Entfernung von diese Punkt ist. Vergleichbar mit Tunnelblick.
FOV - Field of View
-Alles was im direkten Gesichtsfeld der Spielerpersektive bis hin zum Horizont. Beim PC ist das alles auf dem Bildschirm.
LOD - Level of Detail (hier: Tiefenschärfe)
-Je weiter Weg in der Distanz, desto unschärfer. Nahe Objekte sind dagegen super scharf, oder scheinen so. Vor allem bei Texturen wichtig!
Motion - alles in Bewegung
-Objekte werden unschärfer, je schneller sie sich bewegen. Ghosting-Effekt möglich.
Auch wenn VRS bei allen diesen benutzt wird, ist der Grund dafür jedesmal verschieden. Daher müssen alle Fälle einzeln in verschiedene Effekte gebündelt werden.
Dazu muss alles getrennt werden je nach:
-Objekt/Modell
-Oberfläche
-Raum
-Licht/Kontrast
Am Ende ist es höllisch kompliziert, wenn man sie die technische Ebene ansieht. In der fertigen Theorie sieht es ganz simpel und einfach aus. Ich glaube nicht, dass das auch so ist.
Wenn die Informationen von der Linley Group zu Gen11 korrekt sind, dann unterstützt Intels kommende iGPU-Generation alle Formate von Turing, außer 2x1 und 1x2.
The Linley Group
Beim Thema unterstützen springt mir immer sofort in den Kopf:
-Wie schnell ist die Ausführung?
Hat das nicht auch mit der Anzahl und Rohleistung der Textureinheiten zu tun? Wenn nicht, welcher Hardwareteil ist dafür zuständig?
Bei Tesselation ist es beispielsweise die Dreiecksleistung.
Ich würde da erwarten, dass in der Regel die Entwickler einen gemeinsamen Nenner verwenden und ihre Spiele mit den Mustern programmieren, welche jede Hardware unterstützt.
Vor allem die API wird darüber bestimmen, was möglich ist und ob man auf Unterschiede zwischen den Herstellern achten muss.
Das habe ich mich ebenfalls gefragt. Eine passende Antwort war schwierig. Hängt alles davon ab, welchen visuellen Realismusgrad der Entwickler vorsieht und wie artistisch er die eigenen Visionen umsetzen kann.
Alleine in der Fotografie und Kameraführung gibt es unzählige Stile und Möglichkeiten. Ich wette die Wahl des Genres und der Perspektive ändert bereits alles und wirft damit Standardeinstellungen komplett über den Haufen.
Ich denke deswegen, es wird am Ende bei den Entwicklern liegen. Bleibt halt abzuwarten wie gut die Konsolen diese wichtigen Features unterstützen, wenn sie denn in absehbarer Zeit kommen.
Zuletzt bearbeitet von einem Moderator: