Raytracing: Nvidia stellt Adaptive Temporal Antialiasing vor

Temporales AA hat mit Supersampling nichts gemeinsam. Es ist technisch eher mit Motion Blur verwandt.

Das ist aber sehr weit hergeholt.
Temporal AA nutzt zur Glättung der Kanten ähnlich wie MSAA oder SSAA zusätzliche Bildinformationen. Bei Super oder Multisampling werden die Samples durch eine feinere Abtastung der Szene erzeugt. Bei Temporal AA werden diese Informationen aus vorherigen Frames extrahiert. Da diese in Bewegung leicht versetzt zum jeweils aktuellen Frame sind, gewinnt man ähnlich wie bei SSAA Bildinformationen, die im aktuellen Frame nicht enthalten waren. Ich denke das sollte einleuchtend sein, dass zwei leicht versetzte Bilder kombiniert theoretisch genauso viele Bildinformationen haben, wie ein Bild mit doppelter Auflösung bzw. abtastung. Die Technik wird übrigens auch in der Fotografie genutzt, um die Auflösung von Bildern zu erhöhen...
Diese zusätzlichen Bildinformationen können dann jedenfalls genauso wie bei SSAA genutzt werden, um sich dem tatsächlichen Farbwert eines Pixels anzunähern und somit Aliasing zu vermeiden und das Bild zu glätten.

Das mag jetzt stark vereinfacht beschrieben sein, aber das Prinzip, anhand von zusätzlichen Samples das Bild zu glätten, wird auch bei TAA verfolgt. Das ist kein Weichzeichner wie FXAA und auch keine Bewegungsunschärfe. Wie kommst du bitte darauf?:rollen: :rollen:
 

Offenes Ohr - welche Themen wünscht ihr euch für die nächste PCGH-Ausgabe?
Ich als Mainboard-Fachredakteur werde es garantiert nicht testen. ;-)


Das ist aber sehr weit hergeholt.
Temporal AA nutzt zur Glättung der Kanten ähnlich wie MSAA oder SSAA zusätzliche Bildinformationen. Bei Super oder Multisampling werden die Samples durch eine feinere Abtastung der Szene erzeugt. Bei Temporal AA werden diese Informationen aus vorherigen Frames extrahiert. Da diese in Bewegung leicht versetzt zum jeweils aktuellen Frame sind, gewinnt man ähnlich wie bei SSAA Bildinformationen, die im aktuellen Frame nicht enthalten waren. Ich denke das sollte einleuchtend sein, dass zwei leicht versetzte Bilder kombiniert theoretisch genauso viele Bildinformationen haben, wie ein Bild mit doppelter Auflösung bzw. abtastung. Die Technik wird übrigens auch in der Fotografie genutzt, um die Auflösung von Bildern zu erhöhen...
Diese zusätzlichen Bildinformationen können dann jedenfalls genauso wie bei SSAA genutzt werden, um sich dem tatsächlichen Farbwert eines Pixels anzunähern und somit Aliasing zu vermeiden und das Bild zu glätten.

Das mag jetzt stark vereinfacht beschrieben sein, aber das Prinzip, anhand von zusätzlichen Samples das Bild zu glätten, wird auch bei TAA verfolgt. Das ist kein Weichzeichner wie FXAA und auch keine Bewegungsunschärfe. Wie kommst du bitte darauf?:rollen: :rollen:

Es werden für TAA keine zusätzlichen Samples berechnet. Die aus vorangehenden Bildern übernommenen Informationen wurden so bereits auf dem Monitor ausgegeben und werden lediglich recycelt. Genau die gleiche Technik nutzt auch Motion Blur (tendenziell mir einer größeren Anzahl an Bildern), das trotz manchmal ähnlich aussehendem Endergebnis nichts mit FXAA oder Weichzeichnern gemeinsam hat. Die Verrechnung mehrer Aufnahmen von unbeweglichen Motiven in der Fotografie ist weder mit dem einen noch dem anderen vergleichbar. Dort werden tatsächlich SSAA-ähnlich zusätzliche Samples der gleichen Szene aufgenommen, was mehr Bildinformationen liefert. TAA dagegen würde bei komplett statischem Bildinhalt identische Renderdurchgänge miteinander verrechnen und gar keine Wirkung mehr erzielen, genauso wie Motion Blur. Weichzeichnern und FXAA ist es dagegen vollkommen egal, ob eine Szene statisch oder dynamisch ist, da sie nur mit den Ergebnis eines Renderdurchgangs arbeiten.
Übrigens führt die Vereinigung von Informationen aus mehreren Renderdurchgängen einer dynamischen Szene zwar zu mehr Details im Screenshot, aber nicht unbedingt zu einem detailreicheren Spieleindruck beim Spieler. Unser Gehirn ist nämlich bereits sehr gut darin, nacheinander dargestellte Informationen selbst zu einem zusammenhängenden Verständnis zu kombinieren, sonst wären Fernsehfilme in PAL-"Qualität" mit teilweise weniger als 240 farbigen Zeilen je Halbbild unmöglich gewesen.
 
Es werden für TAA keine zusätzlichen Samples berechnet. Die aus vorangehenden Bildern übernommenen Informationen wurden so bereits auf dem Monitor ausgegeben und werden lediglich recycelt. Genau die gleiche Technik nutzt auch Motion Blur (tendenziell mir einer größeren Anzahl an Bildern), das trotz manchmal ähnlich aussehendem Endergebnis nichts mit FXAA oder Weichzeichnern gemeinsam hat. Die Verrechnung mehrer Aufnahmen von unbeweglichen Motiven in der Fotografie ist weder mit dem einen noch dem anderen vergleichbar. Dort werden tatsächlich SSAA-ähnlich zusätzliche Samples der gleichen Szene aufgenommen, was mehr Bildinformationen liefert. TAA dagegen würde bei komplett statischem Bildinhalt identische Renderdurchgänge miteinander verrechnen und gar keine Wirkung mehr erzielen, genauso wie Motion Blur. Weichzeichnern und FXAA ist es dagegen vollkommen egal, ob eine Szene statisch oder dynamisch ist, da sie nur mit den Ergebnis eines Renderdurchgangs arbeiten.
Übrigens führt die Vereinigung von Informationen aus mehreren Renderdurchgängen einer dynamischen Szene zwar zu mehr Details im Screenshot, aber nicht unbedingt zu einem detailreicheren Spieleindruck beim Spieler. Unser Gehirn ist nämlich bereits sehr gut darin, nacheinander dargestellte Informationen selbst zu einem zusammenhängenden Verständnis zu kombinieren, sonst wären Fernsehfilme in PAL-"Qualität" mit teilweise weniger als 240 farbigen Zeilen je Halbbild unmöglich gewesen.


Ich hab nie gesagt, dass neue Samples berechnet werden, sondern dass diese aus vorherigen Frames gewonnen werden. Dadurch wird die Szene insgesamt über mehrere Frames hinweg genauso mehrfach abgetastet, wie beim berechnen zusätzlicher Samples.

Durch bewegungserkennung und rekonstruktion können die Kanten dann wieder exakt übereinander gelegt und verrechnet werden. Die genaue Funktionsweise ist aber deutlich komplexer und noch lange nicht perfekt.

Hier mal ein Beispielvideo YouTube
Auch dort ist von Temporalem Supersampling die Rede. TAA ist grundsätzlich nämlich genau das.

Wie soll das auch nur ansatzweise mit Motion Blur funktionieren? Die Bewegungen sind viel zu klein, und der Grad der Unschärfe, sowie der Radius an den Kanten müsste extrem sein, um auch nur ansatzweise die Artefakte, die man sieht, wegzubekommen.

Hier mal ein Beitrag zur Entwicklung des TAA beim Spiel Inside. YouTube
Auch dort ist von zusätzlichen Samples und Subpixelinformation die rede, die man durch das verarbeiten vorheriger Frames erhält. Motion Blur bzw. künstliche Unschärfe jeglicher Art reduziert Bildinformation. TAA gewinnt aus vorherigen Frames Bildinformation. Das ist ein Himmelweiter Unterschied.

Und hier siehst du, dass TAA auch mit Standbildern perfekt funktioniert: YouTube
Nix da Motion Blur. Denn da bewegt sich NICHTS. Gut, Intern wird von Frame zu Frame die Kamera minimal bewegt, um wie ich schon sagte auch bei Standbildern Supersamplen zu können, eben wie ich erklärt habe, gleiche bzw. ähnliche Technik, wie bei der Fotografie.
 
Zuletzt bearbeitet:
Zurück