PCGH.de: Neue Catalyst-Treiber unterschlagen Grafikdetails


Achso, also für adaptives AA ;)

16xQ CSAA? Ab 8x MSAA tut sich qualitativ relativ wenig bei normalem Boxfiltering. Mehr Samples kosten, bringen aber kaum noch mehr Eye Candy. Hier setzt Atis CFAA an.

Ja war wohl 16xQ CSAA, da war aber noch etwas anderes, kann mich jetzt nicht mehr erinnern....:wall:
Edge Detect gehört genauso zum CFAA wie die Tent-Modi, oder?

Die Tent-Filter basieren auf dem eingestellten MSAA-Modus. Bei "Narrow" und "Wide" werden zusätzlich zu den MS-Samples noch die Farbwerte umliegender Pixel interpoliert. Dies zermatscht das ganze Bild, bei Wide mehr als bei Narrow, "glättet" aber gleichermaßen und entflimmert. Im Crysis'schen Flimmer-Urwald ist 16x WT-CFAA gar nicht schlecht – wenn's denn schneller liefe. ;)

Also mehr als 2XAA ist bei Warhead alles auf Gamer auf einem 22" selbst mit einer HD4870/1024 nicht drin, mit einer HD4870/512 hatte ich mit 2XAA nur halb so viel Frames, da war ddann doch wohl schon der Vram voll....:ugly:

Bei 24x Edge-Detect wird ähnlich verfahren. Mit dem Unterschied, dass nicht mehr das ganze Bild weichgespült wird, sondern eine "Kantenerkennung" dafür Sorge trägt, dass nur noch die Polygonkanten matschig werden. Das Ergebnis ist das subjektiv beste "MSAA" überhaupt: Die Übergänge zwischen den Subsamples sind fast fließend (denn sie werden interpoliert), es schaut einfach spitze aus. Aber es ist eben nur aufgeblasenes – und dazu teures – MSAA. Texturen und Shader flimmern mit 24x ED-CFAA munter weiter. Was bringt in aktuellen Spielen die perfekte Glättung der Kanten, während 50% des Bildes weiterflimmern? Hier hilft nur SSAA => Geforce ahoi.

Wieso teures MSAA, kostet das SSAA der Nvidia-Karten nicht etwas mehr Leistung als der Edge Detect-Modi der ATI-Karten da bei SSAA nicht das gesammte Bild erfasst wird?


Salopp und haarspaltend ausgedrückt: MSAA ist "Kantenglättung" in Reinform. Erst CFAA und SSAA entsprechen wirklich "FSAA": Full Scene Anti-Aliasing – Maßnahmen, die der ganzen Szene Aliasing-Artefakte nehmen.


Da muss ich dir was Nvidia-Karten angeht recht geben, da tut sich nicht unsagbar viel was die Kanten angeht, aber wieso ist das dann bei ATI-Karten anders, wenn ich da nur MSAA einstelle wirkt das im Gegensatz zu dem MSAA bei Nvidia irgendwie besser, kann das sein, das da noch etwas zusätzlich mit an ist beim MSAA von ATI?
 
Edge Detect gehört genauso zum CFAA wie die Tent-Modi, oder?

Yep.

Wieso teures MSAA, kostet das SSAA der Nvidia-Karten nicht etwas mehr Leistung als der Edge Detect-Modi der ATI-Karten da bei SSAA nicht das gesammte Bild erfasst wird?

Hehe, das ist ja der "Witz". CFAA kostet fies Rechenleistung, stresst also im Gegensatz zu reinem MSAA die GPU. Shaderlastige Spiele, deren Zahl stetig wächst, vertragen es gar nicht, wenn die Shader-ALUs auch noch AA-Funktionen übernehmen. SSAA belastet jede Komponente der Karte x-fach, wobei natürlich in erster Linie der steigende Rechenaufwand für die GPU die Frames drückt. 2x SSAA halbiert die Fps rechnerisch schon – praktisch ist das aber fast nie so, da ein Spiel nie 100%-ig GPU-limitiert ist. 16x und 24x CFAA können die Fps auch auf bis zu 20% des Ursprungsniveaus drücken:

PCGH - AMD: Neuer Catalyst ermöglicht FSAA bei Unreal-Engine-3-Spielen - 2008/01/UT3AA.jpg

... und damit sind wir schon fast wieder beim Thema. :D

Da muss ich dir was Nvidia-Karten angeht recht geben, da tut sich nicht unsagbar viel was die Kanten angeht, aber wieso ist das dann bei ATI-Karten anders, wenn ich da nur MSAA einstelle wirkt das im Gegensatz zu dem MSAA bei Nvidia irgendwie besser, kann das sein, das da noch etwas zusätzlich mit an ist beim MSAA von ATI?

Das ist ein rein psychologischer Effekt, die kochen beide mit demselben Wasser. ;) Was die Optik beeinflussen kann sind die generelle Texturqualität und Gammakorrektur.

MfG,
Raff
 
Zuletzt bearbeitet:
Hehe, das ist ja der "Witz". CFAA kostet fies Rechenleistung, stresst also im Gegensatz zu reinem MSAA die GPU. Shaderlastige Spiele, deren Zahl stetig wächst, vertragen es gar nicht, wenn die Shader-ALUs auch noch AA-Funktionen übernehmen. SSAA belastet jede Komponente der Karte x-fach, wobei natürlich in erster Linie der steigende Rechenaufwand für die GPU die Frames drückt. 2x SSAA halbiert die Fps rechnerisch schon – praktisch ist das aber fast nie so. 16x und 24x CFAA können die Fps auf bis zu 20% des Ursprungsniveaus drücken:

PCGH - AMD: Neuer Catalyst ermöglicht FSAA bei Unreal-Engine-3-Spielen - 2008/01/UT3AA.jpg

... und damit sind wir schon fast wieder beim Thema. :D

Also wäre es bei shaderlastigen Spielen eh besser nur adaptives MSAA zu nutzen? Braucht man denn bei den CFAA-Modi überhaupt adaptives AA, oder werden Gitter, etc... alle auch so erfasst?

Aber bei dem Bench habt ihr doch noch eine HD3870 oder gar eine HD2900XT verwendet oder, müsste die HD48X0 nicht weniger einbrechen, da auch die Architektur nun etwas verbessert wurde? Immerhin brechen die HD48X0-Karten nicht mehr so stark ein wie die Vorgänger mit qualitätsteigernden Features ;)


PS: Wie habt ihr bei Gothic 3 auf einer ATI AA aktiviert? Ich habe das bisher leider nicht hinbekommen, denn gerade hier flimmert das Gras wie wild, aber nicht nur auf der HD4870, sondern auch auf der 8800GTS :(


MfG Korn86
 
Also wäre es bei shaderlastigen Spielen eh besser nur adaptives MSAA zu nutzen?

MSAA. Ja. CFAA bei ohnehin großer Shaderlast macht den Fps großes Aua. ;)

Braucht man denn bei den CFAA-Modi überhaupt adaptives AA. oder Gitter, etc... alle auch so erfasst?

Wie gesagt: CFAA fußt auf MSAA. Deshalb werden transparente Texturen auch davon nicht geglättet. Wide und Narrow Tent zermatschen die Transparenzen lediglich etwas – "FSAA" ist das aber nicht, nur Unschärfe. Ergo ist TAA (Transparenz-AA) auch hier sinnvoll.

Aber bei dem Bench habt ihr doch noch eine HD3870 oder gar eine HD2900XT verwendet oder, müsste die HD48X0 nicht weniger einbrechen, da auch die Architektur nun etwas verbessert wurde? Immerhin brechen die HD48X0-Karten nicht mehr so stark ein wie die Vorgänger mit qualitätsteigernden Features ;)

Richtig, die HD4800-Serie schluckt CFAA besser als die HD3800er – klar, bei 2,5x mehr Recheneinheiten. Teuer bleibt CFAA aber trotzdem.

PS: Wie habt ihr bei Gothic 3 auf einer ATI AA aktiviert? Ich habe das bisher nicht hinbekommen :(

Oh. :D Da haben wir etwas getrickst. "Bioshock.exe" – et voilá. Dumm nur, dass die geglätteten Kanten mit gefraggten Schatten erkauft werden.

Sodele, ich hüpf mal in die Kiste, muss ja bald wieder Artikel schreiben. :D G00d N8!

MfG,
Raff
 
Auf jeden Fall noch einmal vielen Dank, dass du dir die Zeit genommen hast mich ein wenig aufzuklären :daumen:

Ich wünsche dir auch noch ne gute Nacht ;)


MfG Korn86
 
Schaut euch doch mal die Screenshots an.
Erkennt man da einen wirklich ernst zu nehmenden Unterschied? Also ich nicht, zumindest nicht solange ich keine Lupe benutze...
Und selbst wenn das fehlen der Effekte für einige so dramatisch wäre: Während man zockt fällt dieser Umstand eh nicht auf, da konzentriert man sich auf anderes...


Aber was mich noch interesieren würde: Ist dieser Fehler auch beim neuen CCC 8.10 noch da?
 
Schaut euch doch mal die Screenshots an.
Erkennt man da einen wirklich ernst zu nehmenden Unterschied?

Yep.

Und selbst wenn das fehlen der Effekte für einige so dramatisch wäre: Während man zockt fällt dieser Umstand eh nicht auf, da konzentriert man sich auf anderes...

Lasst uns einfach die Texturen weglassen, die sieht im Schlachtgetümmel eh keiner. ;)

Aber was mich noch interesieren würde: Ist dieser Fehler auch beim neuen CCC 8.10 noch da?

Yep, wie im Artikel beschrieben.

Wir haben mittlerweile ein Statement erhalten, das bald online geht.

MfG,
Raff
 
Boah son Guide zu den AA Modi wär echt mal nicht schlecht. Ich weiß grad so was die Abkürzungen bedeuten, aber was was macht... kein Plan :what:
 
Zurück